AI האט די מאַכט צו פֿאַרבעסערן עפעקטיווקייַט אין פאַרשידן סעקטאָרס אַזאַ ווי געשעפט און כעלטקער. אָבער, די פעלן פון עקספּערטאַביליטי כינדערז אונדזער צוטרוי צו נוצן עס פֿאַר באַשלוס-מאכן.
זאָל מיר צוטרוי די משפט פון אַ אַלגערידאַם?
עס איז וויכטיק פֿאַר באַשלוס-מייקערז אין קיין ינדאַסטרי צו פֿאַרשטיין די לימיטיישאַנז און פּאָטענציעל בייאַסיז פון מאַשין לערנען מאָדעלס. צו ענשור אַז די מאָדעלס זענען ביכייווד ווי בדעה, דער רעזולטאַט פון קיין אַי סיסטעם זאָל זיין דערקלערט פֿאַר אַ מענטש.
אין דעם אַרטיקל, מיר וועלן גיין איבער די וויכטיקייט פון יקספּליינינגאַביליטי אין אַי. מיר וועלן צושטעלן אַ קורץ איבערבליק פון די טייפּס פון מעטהאָדס געניצט צו באַקומען דערקלערונגען פון מאַשין לערנען מאָדעלס.
וואָס איז עקספּלאַינאַבלע אַי?
פאַרשטיייק קינסטלעך סייכל אָדער XAI רעפערס צו די טעקניקס און מעטהאָדס געניצט צו לאָזן יומאַנז צו פֿאַרשטיין ווי מאַשין לערנען מאָדעלס קומען צו אַ זיכער רעזולטאַט.
פילע פאָלקס מאַשין לערנען אַלגערידאַמז אַרבעט ווי אויב עס איז געווען אַ "שוואַרץ קעסטל". אין מאַשין לערנען, שוואַרץ קעסטל אַלגערידאַמז אָפּשיקן צו ML מאָדעלס ווו עס איז אוממעגלעך צו באַשטעטיקן ווי אַ זיכער אַרייַנשרייַב פירט צו אַ באַזונדער רעזולטאַט. אפילו די דעוועלאָפּער פון די אַי וועט נישט קענען גאָר דערקלערן ווי די אַלגערידאַם אַרבעט.
פֿאַר בייַשפּיל, טיף לערנען אַלגערידאַמז נוצן נוראַל נעטוואָרקס צו ידענטיפיצירן פּאַטערנז פון אַ טאָן פון דאַטן. אפילו אויב אַי ריסערטשערז און דעוועלאָפּערס פֿאַרשטיין ווי נעוראַל נעטוואָרקס אַרבעט פֿון אַ טעכניש פונט פון מיינונג, אפילו זיי קענען נישט גאָר דערקלערן ווי אַ נעוראַל נעץ איז געווען אַ באַזונדער רעזולטאַט.
עטלעכע נעוראַל נעטוואָרקס שעפּן מיליאַנז פון פּאַראַמעטערס וואָס אַלע אַרבעט אין יוניסאַן צו צוריקקומען די לעצט רעזולטאַט.
אין סיטואַטיאָנס ווו דיסיזשאַנז ענין, די פעלן פון עקספּערטאַביליטי קען ווערן פּראָבלעמאַטיק.
פארוואס איז יקספּלאַנאַביליטי ענין
עקספּלאַינאַביליטי גיט ינסייט אין ווי מאָדעלס מאַכן דיסיזשאַנז. געשעפטן וואָס פּלאַן צו אַדאַפּט אַי צו מאַכן דיסיזשאַנז וועט האָבן צו באַשליסן צי די אַי האט געניצט די רעכט אַרייַנשרייַב צו דערגרייכן דעם בעסטער באַשלוס.
מאָדעלס וואָס זענען אַניקספּליינד זענען אַ פּראָבלעם אין עטלעכע ינדאַסטריז. פֿאַר בייַשפּיל, אויב אַ פירמע וואָלט נוצן אַן אַלגערידאַם צו מאַכן הירינג דיסיזשאַנז, עס וואָלט זיין צו אַלעמען ס בעסטער אינטערעס צו האָבן דורכזעיקייַט אין ווי דער אַלגערידאַם דיסיידז צו אָפּוואַרפן אַ אַפּליקאַנט.
אן אנדער פעלד ווו טיף לערנען אַלגערידאַמז זענען אָפט געניצט אין כעלטקער. אין קאַסעס ווו אַלגערידאַמז פּרובירן צו דעטעקט מעגלעך וואונדער פון ראַק, עס איז וויכטיק פֿאַר דאקטוירים צו פֿאַרשטיין ווי דער מאָדעל איז אנגעקומען צו אַ באַזונדער דיאַגנאָסיס. עטלעכע מדרגה פון עקספּערטאַביליטי איז פארלאנגט פֿאַר עקספּערץ צו נעמען פול מייַלע פון אַי און נישט בליינדלי נאָכפאָלגן עס
איבערבליק פון עקספּלאַינאַבלע אַי אַלגערידאַמז
עקספּלאַינאַבאַל אַי אַלגערידאַמז פאַלן אין צוויי ברייט קאַטעגאָריעס: זיך-ינטערפּרעטאַבלע מאָדעלס און פּאָסט-האָק דערקלערונגען.
זיך-ינטערפּראַטאַבאַל מאָדעלס
זיך-ינטערפּראַטאַבאַל מאָדעלס זענען אַלגערידאַמז אַז אַ מענטש קענען גלייַך לייענען און טייַטשן. אין דעם פאַל, דער מאָדעל זיך איז די דערקלערונג.
עטלעכע פון די מערסט פּראָסט זיך-ינטערפּריטאַבאַל מאָדעלס אַרייַננעמען באַשלוס ביימער און ראַגרעשאַן מאָדעלס.
פֿאַר בייַשפּיל, לאָזן ס באַטראַכטן אַ לינעאַר ראַגרעשאַן מאָדעל וואָס פּרידיקס הויז פּרייסיז. א לינעאַר ראַגרעשאַן מיטל אַז מיט עטלעכע ווערט x, מיר קענען פאָרויסזאָגן אונדזער ציל ווערט י דורך אַפּלייינג אַ באַזונדער לינעאַר פֿונקציע f.
רעכן אַז אונדזער מאָדעל ניצט פּלאַץ גרייס ווי די הויפּט אַרייַנשרייַב צו באַשליסן די הויז פּרייַז. ניצן לינעאַר ראַגרעשאַן, מיר זענען ביכולת צו קומען אַרויף מיט די פֿונקציע י = 5000 * רענטגענ ווו X איז די סומע פון קוואַדראַט פֿיס אָדער פּלאַץ גרייס.
דער מאָדעל איז ליינעוודיק פֿאַר מענטשן און איז גאָר טראַנספּעראַנט.
פּאָסטן-האָק דערקלערונגען
פּאָסט-האָק דערקלערונגען זענען אַ גרופּע פון אַלגערידאַמז און טעקניקס וואָס קענען זיין גענוצט צו לייגן יקספּליינינגאַביליטי צו אנדערע אַלגערידאַמז.
רובֿ פּאָסט-האָק דערקלערונג טעקניקס טאָן ניט דאַרפֿן צו פֿאַרשטיין ווי די אַלגערידאַם אַרבעט. דער באַניצער נאָר דאַרף צו ספּעציפיצירן די אַרייַנשרייַב און ריזאַלטינג רעזולטאַט פון די ציל אַלגערידאַם.
די דערקלערונגען זענען ווייטער צעטיילט אין צוויי מינים: היגע דערקלערונגען און גלאבאלע דערקלערונגען.
לאקאלע דערקלערונגען צילן צו דערקלערן אַ סובסעט פון ינפּוץ. צום ביישפּיל, געגעבן אַ באַזונדער רעזולטאַט, אַ היגע דערקלערונג וועט קענען צו באַשטימען וואָס פּאַראַמעטערס קאַנטריביוטיד צו מאַכן דעם באַשלוס.
גלאבאלע דערקלערונגען צילן צו פּראָדוצירן פּאָסט-האָק דערקלערונגען פון די גאנצע אַלגערידאַם. דעם טיפּ פון דערקלערונג איז טיפּיקלי מער שווער צו טאָן. אַלגערידאַמז זענען קאָמפּלעקס און עס קען זיין קאַונטלאַס פּאַראַמעטערס וואָס זענען באַטייַטיק אין דערגרייכן די לעצט רעזולטאַט.
ביישפילן פון לאקאלע דערקלערונג אַלגערידאַמז
צווישן די פילע טעקניקס געניצט צו דערגרייכן XAI, די אַלגערידאַמז געניצט פֿאַר היגע דערקלערונגען זענען וואָס רובֿ ריסערטשערז פאָקוס אויף.
אין דעם אָפּטיילונג, מיר וועלן נעמען אַ קוק אין עטלעכע פאָלקס היגע דערקלערונג אַלגערידאַמז און ווי יעדער פון זיי אַרבעט.
LIME
LIME (לאקאלע ינטערפּרעטאַבלע מאָדעל-אַגנאָסטיק עקספּלאַיינער) איז אַן אַלגערידאַם וואָס קענען דערקלערן די פֿאָרויסזאָגן פון קיין מאַשין לערנען אַלגערידאַם.
ווי דער נאָמען ימפּלייז, LIME איז מאָדעל-אַגנאָסטיק. דעם מיטל LIME קען אַרבעטן פֿאַר קיין טיפּ פון מאָדעל. דער מאָדעל איז אויך לאָוקאַלי ינטערפּריטאַבאַל, טייַטש מיר קענען דערקלערן דעם מאָדעל מיט היגע רעזולטאַטן אלא ווי צו דערקלערן די גאנצע מאָדעל.
אפילו אויב דער מאָדעל וואָס איז דערקלערט איז אַ שוואַרץ קעסטל, LIME קריייץ אַ היגע לינעאַר מאָדעל אַרום ווייזט נירביי אַ זיכער שטעלע.
LIMe גיט אַ לינעאַר מאָדעל וואָס דערנענטערנ זיך די מאָדעל אין דער געגנט פון אַ פּראָגנאָז, אָבער ניט דאַווקע גלאָובאַלי.
איר קענט לערנען מער וועגן דעם אַלגערידאַם דורך באַזוכן דעם עפֿענען-מקור ריפּאַזאַטאָרי.
SHAP
Shapley Additive Explanations (SHAP) איז אַ אופֿן צו דערקלערן יחיד פֿאָרויסזאָגן. צו פֿאַרשטיין ווי SHAP אַרבעט, מיר מוזן דערקלערן וואָס Shapley וואַלועס זענען.
די Shapley ווערט איז אַ באַגריף אין שפּיל טעאָריע וואָס ינוואַלווז אַסיינינג אַ "ווערט" צו יעדער שפּילער אין דער שפּיל. דעם איז פונאנדערגעטיילט אַזוי אַז די ווערט אַסיינד צו יעדער שפּילער איז באזירט אויף די שפּילער ס צושטייַער צו די שפּיל.
ווי טאָן מיר צולייגן שפּיל טעאָריע צו מאַשין לערנען מאָדעלס?
רעכן אַז יעדער שטריך אין אונדזער מאָדעל איז אַ "שפּילער" און אַז די "שפּיל" איז די פֿונקציע וואָס אַוטפּוץ די פּראָגנאָז.
די SHAP אופֿן קריייץ אַ ווייטיד לינעאַר מאָדעל וואָס אַסיינז Shapley וואַלועס צו פאַרשידן פֿעיִקייטן. פֿעיִקייטן מיט הויך Shapley וואַלועס האָבן אַ גרעסערע השפּעה אויף די אַוטקאַם פון די מאָדעל בשעת פֿעיִקייטן מיט נידעריק Shapley וואַלועס האָבן אַ ווייניקער פּראַל.
סאָף
אַי דערקלערונג איז וויכטיק ניט בלויז פֿאַר ינשורינג די יוישער און אַקאַונטאַביליטי פון אַי סיסטעמען, אָבער אויך פֿאַר בויען צוטרוי אין אַי טעכנאָלאָגיע אין אַלגעמיין.
עס איז נאָך אַ פּלאַץ פון פאָרשונג צו זיין דורכגעקאָכט אין דער געגנט פון אַי יקספּליינינגאַביליטי, אָבער עס זענען עטלעכע פּראַמאַסינג אַפּראָוטשיז וואָס קענען העלפֿן אונדז פֿאַרשטיין די קאָמפּלעקס שוואַרץ קעסטל אַי סיסטעמען וואָס זענען שוין וויידלי געניצט הייַנט.
מיט ווייַטער פאָרשונג און אַנטוויקלונג, מיר קענען האָפֿן צו בויען אַי סיסטעמען וואָס זענען מער טראַנספּעראַנט און גרינגער צו פֿאַרשטיין. אין דער דערווייל, געשעפטן און עקספּערץ אין פעלדער אַזאַ ווי כעלטקער זאָל זיין אַווער פון די לימיטיישאַנז פון אַי עקספּערטאַביליטי.
לאָזן אַ ענטפֿערן