תוכן העניינים[להתחבא][הופעה]
כיצד נוודא שאנו משתמשים ב-AI בצורה אחראית?
ההתקדמות בלמידת מכונה מוכיחה שמודלים יכולים להגדיל במהירות ולהשפיע על חלק גדול מהחברה.
אלגוריתמים שולטים בפיד החדשות בטלפונים של כולם. ממשלות ותאגידים מתחילים להשתמש בבינה מלאכותית כדי לקבל החלטות מבוססות נתונים.
ככל שה-AI משתרש יותר באופן שבו העולם פועל, כיצד נוודא שה-AI פועל בצורה הוגנת?
במאמר זה, נבחן את האתגרים האתיים של שימוש בבינה מלאכותית ונראה מה אנחנו יכולים לעשות כדי להבטיח שימוש אחראי בבינה מלאכותית.
מה זה AI אתי?
בינה מלאכותית אתית מתייחסת לבינה מלאכותית שמקפידה על סט מסוים של הנחיות אתיות.
במילים אחרות, זו דרך של אנשים וארגונים לעבוד עם AI בצורה אחראית.
בשנים האחרונות, תאגידים החלו לדבוק בחוקי פרטיות הנתונים לאחר שהתגלו ראיות להתעללות והפרה. באופן דומה, מומלצים קווים מנחים לבינה מלאכותית אתית כדי לוודא שבינה מלאכותית אינה משפיעה לרעה על החברה.
לדוגמה, סוגים מסוימים של AI עובדים בצורה מוטה או מנציחים הטיות שכבר קיימות. בואו ניקח בחשבון אלגוריתם שעוזר למגייסים למיין אלפי קורות חיים. אם האלגוריתם מאומן על מערך נתונים עם עובדים בעיקר גברים או לבנים, ייתכן שהאלגוריתם יעדיף מועמדים שנכללים בקטגוריות אלו.
קביעת עקרונות לבינה מלאכותית אתית
חשבנו על הקמת מערכת כללים שכופה עליהם בינה מלאכותית למשך עשרות שנים.
אפילו בשנות ה-1940, כאשר המחשבים החזקים ביותר יכלו לבצע רק את החישובים המדעיים המיוחדים ביותר, סופרי מדע בדיוני הרהרו ברעיון של שליטה ברובוטים חכמים.
אייזק אסימוב טבע באופן מפורסם את שלושת חוקי הרובוטיקה, אותם הוא הציע להיות מוטבע בתכנות של רובוטים בסיפוריו הקצרים כמאפיין בטיחות.
חוקים אלה הפכו לאבן בוחן לסיפורי מדע בדיוני רבים עתידיים ואף הובילו למחקרים ממשיים על האתיקה של AI.
במחקר עכשווי, חוקרי בינה מלאכותית בוחנים מקורות מבוססים יותר כדי לקבוע רשימה של עקרונות לבינה מלאכותית אתית.
מכיוון שבינה מלאכותית תשפיע בסופו של דבר על חיי אדם, עלינו להיות בעלי הבנה בסיסית של מה עלינו לעשות ומה אסור לעשות.
דו"ח בלמונט
לנקודת התייחסות, חוקרי אתיקה בוחנים את דו"ח בלמונט כמדריך. ה דוח בלמונט היה מסמך שפורסם על ידי המכון הלאומי לבריאות בארה"ב בשנת 1979. זוועות ביו-רפואיות שבוצעו במלחמת העולם השנייה הובילו לדחיפה לחוקק הנחיות אתיות לחוקרים העוסקים ברפואה.
להלן שלושת עקרונות היסוד המוזכרים בדוח:
- כבוד לבני אדם
- תועלת
- שופט
המנהל הראשון שואף לשמור על הכבוד והאוטונומיה של כל הסובייקט האנושי. לדוגמה, חוקרים צריכים למזער את המשתתפים שולל וצריכים לדרוש מכל אדם לתת את הסכמתו המפורשת.
העיקרון השני, טובת הנאה, מתמקד בחובתו של החוקר למזער את הנזק הפוטנציאלי למשתתפים. עיקרון זה מעניק לחוקרים את החובה לאזן את היחס בין הסיכונים האישיים להטבות החברתיות הפוטנציאליות.
צדק, העיקרון האחרון שנקבע בדו"ח בלמונט, מתמקד בחלוקה שווה של סיכונים והטבות בין קבוצות שיכולות להפיק תועלת מהמחקר. על החוקרים מוטלת החובה לבחור נושאי מחקר מהאוכלוסייה הרחבה יותר. פעולה זו תצמצם למינימום הטיות אינדיבידואליות ומערכתיות שעלולות להשפיע לרעה על החברה.
הצבת אתיקה במחקר בינה מלאכותית
בעוד שדו"ח בלמונט היה ממוקד בעיקר למחקר שכלל נבדקים אנושיים, העקרונות היו רחבים מספיק כדי לחול על תחום האתיקה של בינה מלאכותית.
ביג דאטה הפך למשאב יקר ערך בתחום הבינה המלאכותית. התהליכים הקובעים כיצד חוקרים אוספים נתונים צריכים לפעול לפי הנחיות אתיות.
היישום של חוקי פרטיות הנתונים ברוב המדינות מגביל במידת מה את המידע שחברות יכולות לאסוף ולהשתמש בהן. עם זאת, לרוב המדינות עדיין יש מערכת חוקים בסיסית כדי למנוע שימוש בבינה מלאכותית כדי לגרום נזק.
כיצד לעבוד עם AI בצורה אתית
הנה כמה מושגי מפתח שיכולים לעזור לעבוד לקראת שימוש אתי ואחראי יותר ב-AI.
שליטה על הטיה
בינה מלאכותית אינה ניטרלית מטבעה. אלגוריתמים תמיד רגישים להטיה מוכנסת ולאפליה מכיוון שהנתונים שהם לומדים מהם כוללים הטיה.
דוגמה נפוצה ל-AI מפלה היא הסוג המופיע לעתים קרובות במערכות זיהוי פנים. דוגמניות אלו מצליחות לעיתים קרובות לזהות פנים גברים לבנים, אך מצליחות פחות לזהות אנשים בעלי עור כהה יותר.
דוגמה נוספת מופיעה ב-DALL-E 2 של OpenAI. למשתמשים יש גילה שהנחיות מסוימות משחזרות לעתים קרובות הטיות מגדריות וגזעיות שהמודל קלט ממאגר התמונות המקוון שלה.
לדוגמה, כאשר מקבלים הנחיה לתמונות של עורכי דין, DALL-E 2 מחזיר תמונות של עורכי דין גברים. מצד שני, בקשת תמונות של דיילות מחזירה בעיקר נשים דיילות.
למרות שזה עשוי להיות בלתי אפשרי להסיר לחלוטין הטיה ממערכות AI, אנו יכולים לנקוט בצעדים כדי למזער את ההשפעות שלה. חוקרים ומהנדסים יכולים להשיג שליטה רבה יותר בהטיה על ידי הבנת נתוני ההדרכה ושכירת צוות מגוון שיציע מידע לגבי אופן הפעולה של מערכת הבינה המלאכותית.
גישת עיצוב ממוקדת באדם
אלגוריתמים באפליקציה המועדפת עליך יכולים להשפיע עליך לרעה.
פלטפורמות כמו Facebook ו-TikTok מסוגלות ללמוד איזה תוכן להגיש כדי לשמור על המשתמשים בפלטפורמות שלהם.
גם ללא כוונה לגרום נזק, המטרה לשמור על משתמשים דבוקים לאפליקציה שלהם זמן רב ככל האפשר עלולה להוביל לבעיות נפשיות. המונח 'דום-scrolling' עלה בפופולאריות כמונח הממציא להוצאת כמויות מוגזמות של זמן בקריאת חדשות שליליות בפלטפורמות כמו טוויטר ופייסבוק.
במקרים אחרים, תוכן שנאה ומידע שגוי מקבלים פלטפורמה רחבה יותר מכיוון שהם עוזרים להגביר את מעורבות המשתמשים. א מחקר 2021 מחוקרים מאוניברסיטת ניו יורק מראה שפוסטים ממקורות הידועים במידע שגוי מקבלים פי שישה יותר לייקים ממקורות חדשות מכובדים.
אלגוריתמים אלו חסרים בגישת עיצוב ממוקדת באדם. מהנדסים שמתכננים כיצד AI מבצע פעולה חייבים תמיד לזכור את חווית המשתמש.
חוקרים ומהנדסים חייבים תמיד לשאול את השאלה: 'איך זה מועיל למשתמש?'
רוב דגמי הבינה המלאכותית עוקבים אחר מודל קופסה שחורה. קופסה שחורה פנימה למידת מכונה מתייחס לבינה מלאכותית שבה אף אדם לא יכול להסביר מדוע הבינה המלאכותית הגיעה לתוצאה מסוימת.
קופסאות שחורות הן בעייתיות מכיוון שהן מפחיתות את כמות האמון שאנו יכולים לתת במכונות.
לדוגמה, בואו נדמיין תרחיש שבו פייסבוק שחררה אלגוריתם שעזר לממשלות לאתר פושעים. אם מערכת הבינה המלאכותית מסמנת אותך, אף אחד לא יוכל להסביר מדוע היא קיבלה את ההחלטה הזו. סוג זה של מערכת לא אמורה להיות הסיבה היחידה שבגללה אתה צריך להיעצר.
AI או XAI ניתנים להסבר צריכים להחזיר רשימה של גורמים שתרמו לתוצאה הסופית. אם נחזור למעקב הפלילי ההיפותטי שלנו, נוכל לשנות את מערכת הבינה המלאכותית כדי להחזיר רשימה של פוסטים המציגים שפה או מונחים חשודים. משם, אדם יכול לאמת האם כדאי לחקור את המשתמש המסומן או לא.
XAI מספקת יותר שקיפות ואמון במערכות AI ויכולה לעזור לבני אדם לקבל החלטות טובות יותר.
סיכום
כמו כל המצאות מעשה ידי אדם, בינה מלאכותית אינה טובה או רעה מטבעה. הדרך בה אנו משתמשים בבינה מלאכותית היא שחשובה.
מה שמיוחד בבינה מלאכותית הוא הקצב שבו היא צומחת. בחמש השנים האחרונות, ראינו תגליות חדשות ומרגשות בתחום למידת מכונה מדי יום.
עם זאת, החוק אינו מהיר כל כך. כאשר תאגידים וממשלות ממשיכים למנף את הבינה המלאכותית כדי למקסם רווחים או לתפוס שליטה על אזרחים, עלינו למצוא דרכים לדחוף לשקיפות ושוויון בשימוש באלגוריתמים אלו.
האם אתה חושב ש-AI אתי באמת אפשרי?
השאירו תגובה