ל-AI יש את הכוח לשפר את היעילות במגזרים שונים כמו עסקים ובריאות. עם זאת, חוסר יכולת ההסבר מעכב את ההסתמכות שלנו על השימוש בו לצורך קבלת החלטות.
האם עלינו לסמוך על שיקול דעתו של אלגוריתם?
חשוב למקבלי החלטות בכל תעשייה להבין את המגבלות וההטיות הפוטנציאליות של מודלים ללימוד מכונה. כדי להבטיח שהמודלים הללו מתנהגים כמתוכנן, הפלט של כל מערכת AI צריכה להיות ניתנת להסבר לאדם.
במאמר זה נעבור על החשיבות של יכולת ההסבר ב-AI. נספק סקירה קצרה של סוגי השיטות המשמשות להפקת הסברים ממודלים של למידת מכונה.
מה זה AI ניתן להסבר?
ניתן להסבר בינה מלאכותית או XAI מתייחס לטכניקות ולשיטות המשמשות כדי לאפשר לבני אדם להבין כיצד מודלים של למידת מכונה מגיעים לתפוקה מסוימת.
רבים פופולריים אלגוריתמים למידת מכונה לעבוד כאילו זו "קופסה שחורה". בלמידת מכונה, אלגוריתמים של קופסה שחורה עיין במודלים של ML שבהם אי אפשר לאמת כיצד קלט מסוים מוביל לפלט מסוים. אפילו מפתח ה-AI לא יוכל להסביר באופן מלא כיצד האלגוריתם עובד.
לדוגמה, משתמשים באלגוריתמי למידה עמוקה רשתות עצביות לזהות דפוסים מתוך המון נתונים. למרות שחוקרים ומפתחי בינה מלאכותית מבינים כיצד פועלות רשתות עצביות מנקודת מבט טכנית, אפילו הם לא יכולים להסביר באופן מלא כיצד רשת עצבית הגיעה לתוצאה מסוימת.
כמה רשתות עצביות מטפלות במיליוני פרמטרים שכולם פועלים יחד כדי להחזיר את התוצאה הסופית.
במצבים בהם החלטות חשובות, חוסר ההסבר עלול להפוך לבעייתי.
למה יש חשיבות להסבר
הסבר מספק תובנה כיצד מודלים מקבלים החלטות. עסקים שמתכננים להתאים את הבינה המלאכותית לקבלת החלטות יצטרכו לקבוע אם הבינה המלאכותית השתמשה בקלט הנכון כדי להגיע להחלטה הטובה ביותר.
מודלים שאינם ניתנים להסבר הם בעיה במספר תעשיות. לדוגמה, אם חברה הייתה משתמשת באלגוריתם כדי לקבל החלטות גיוס עובדים, יהיה זה לטובת כולם שתהיה שקיפות כיצד האלגוריתם מחליט לדחות מועמד.
תחום נוסף שבו למידה עמוקה אלגוריתמים נמצאים בשימוש תכוף יותר בתחום הבריאות. במקרים בהם אלגוריתמים מנסים לזהות סימנים אפשריים לסרטן, חשוב לרופאים להבין כיצד הגיע המודל לאבחנה מסוימת. נדרשת רמה מסוימת של יכולת הסבר כדי שמומחים יוכלו לנצל את מלוא ה-AI ולא לעקוב אחריו באופן עיוור
סקירה כללית של אלגוריתמי AI ניתנים להסבר
אלגוריתמי AI הניתנים להסבר מתחלקים לשתי קטגוריות רחבות: מודלים הניתנים לפירוש עצמי והסברים פוסט-הוקיים.
מודלים לפירוש עצמי
מודלים לפירוש עצמי הם אלגוריתמים שאדם יכול לקרוא ולפרש ישירות. במקרה זה, המודל עצמו הוא ההסבר.
חלק מהמודלים הנפוצים ביותר הניתנים לפירוש עצמי כוללים עצי החלטה ומודלי רגרסיה.
לדוגמה, הבה נבחן מודל רגרסיה ליניארית המנבא את מחירי הדירות. רגרסיה לינארית פירושה שעם ערך x כלשהו, נוכל לחזות את ערך היעד שלנו y על ידי יישום פונקציה לינארית מסוימת f.
נניח שהמודל שלנו משתמש בגודל המגרש בתור הקלט העיקרי לקביעת מחיר הבית. באמצעות רגרסיה ליניארית, הצלחנו להמציא את הפונקציה y = 5000 * x כאשר x הוא כמות רגל מרובע או גודל מגרש.
דגם זה קריא לאדם והוא שקוף לחלוטין.
הסברים פוסט-הוק
הסברים פוסט-הוק הם קבוצה של אלגוריתמים וטכניקות שניתן להשתמש בהן כדי להוסיף יכולת הסבר לאלגוריתמים אחרים.
רוב טכניקות ההסבר הפוסט-הוק אינן צריכות להבין איך האלגוריתם עובד. המשתמש צריך רק לציין את הקלט והפלט המתקבל של אלגוריתם היעד.
הסברים אלו מתחלקים עוד יותר לשני סוגים: הסברים מקומיים והסברים גלובליים.
הסברים מקומיים מטרתם להסביר תת-קבוצה של תשומות. לדוגמה, בהינתן פלט מסוים, הסבר מקומי יוכל לאתר אילו פרמטרים תרמו לקבלת החלטה זו.
הסברים גלובליים שואפים לייצר הסברים פוסט-הוקיים של האלגוריתם כולו. הסבר מסוג זה בדרך כלל קשה יותר לביצוע. אלגוריתמים מורכבים וייתכנו אינספור פרמטרים שמשמעותיים בהשגת התוצאה הסופית.
דוגמאות לאלגוריתם של הסבר מקומי
בין הטכניקות הרבות המשמשות להשגת XAI, האלגוריתמים המשמשים להסברים מקומיים הם מה שרוב החוקרים מתמקדים בהם.
בחלק זה, נסקור כמה אלגוריתמי הסבר מקומיים פופולריים וכיצד כל אחד מהם פועל.
ליים
LIME (הסבר מקומי לפירוש מודל-אגנוסטי) הוא אלגוריתם שיכול להסביר את התחזיות של כל אלגוריתם למידת מכונה.
כפי שהשם מרמז, LIME הוא מודל-אגנוסטי. זה אומר ש-LIME יכול לעבוד עבור כל סוג של דגם. המודל גם בר פרשנות מקומית, כלומר אנו יכולים להסביר את המודל באמצעות תוצאות מקומיות במקום להסביר את המודל כולו.
גם אם המודל שמוסבר הוא קופסה שחורה, LIME יוצר מודל ליניארי מקומי סביב נקודות ליד מיקום מסוים.
LIMe מספק מודל ליניארי שמקרוב את המודל בקרבת חיזוי אך לא בהכרח באופן גלובלי.
תוכל ללמוד עוד על אלגוריתם זה על ידי ביקור במאגר קוד פתוח זה.
מעצב
Shapley Additive Explanations (SHAP) היא שיטה להסבר תחזיות בודדות. כדי להבין איך SHAP עובד, נצטרך להסביר מהם ערכי Shapley.
ערך Shapley הוא מושג בתורת המשחקים הכולל הקצאת "ערך" לכל שחקן במשחק. זה מופץ כך שהערך המוקצה לכל שחקן מבוסס על תרומתו של השחקן למשחק.
כיצד אנו פונים תורת המשחקים ללמידת מכונה דגמים?
נניח שכל תכונה במודל שלנו היא "שחקן" ושה"משחק" הוא הפונקציה שמוציאה את החיזוי.
שיטת SHAP יוצרת מודל ליניארי משוקלל המקצה ערכי Shapley לתכונות שונות. לתכונות עם ערכי Shapley גבוהים יש השפעה רבה יותר על תוצאת המודל בעוד שתכונות עם ערכי Shapley נמוכים משפיעות פחות.
סיכום
הסברה של בינה מלאכותית חשובה לא רק להבטחת ההגינות והאחריות של מערכות בינה מלאכותית, אלא גם לבניית אמון בטכנולוגיית בינה מלאכותית באופן כללי.
יש עדיין הרבה מחקרים לעשות בתחום הסבר הבינה המלאכותית, אבל יש כמה גישות מבטיחות שיכולות לעזור לנו להבין את מערכות הבינה המלאכותית המורכבות של הקופסה השחורה שכבר נמצאות בשימוש נרחב כיום.
עם מחקר ופיתוח נוספים, אנו יכולים לקוות לבנות מערכות AI שקופות יותר וקלות יותר להבנה. בינתיים, עסקים ומומחים בתחומים כמו שירותי בריאות צריכים להיות מודעים למגבלות של הסבר הבינה המלאכותית.
השאירו תגובה