AI are puterea de a îmbunătăți eficiența în diverse sectoare, cum ar fi afaceri și sănătate. Cu toate acestea, lipsa de explicabilitate împiedică dependența noastră de a-l folosi pentru luarea deciziilor.
Ar trebui să avem încredere în judecata unui algoritm?
Este important ca factorii de decizie din orice industrie să înțeleagă limitele și potențialele părtiniri ale modele de învățare automată. Pentru a se asigura că aceste modele se comportă conform intenției, rezultatul oricărui sistem AI ar trebui să fie explicabil unui om.
În acest articol, vom trece peste importanța explicabilității în AI. Vom oferi o scurtă prezentare a tipurilor de metode utilizate pentru a obține explicații din modelele de învățare automată.
Ce este IA explicabilă?
Explicabil inteligență artificială sau XAI se referă la tehnicile și metodele utilizate pentru a permite oamenilor să înțeleagă cum modelele de învățare automată ajung la o anumită ieșire.
Mulți populari algoritmi de învățare automată lucrează ca și cum ar fi o „cutie neagră”. În învățarea automată, algoritmi cutie neagră referiți-vă la modelele ML în care este imposibil să verificați modul în care o anumită intrare duce la o anumită ieșire. Nici măcar dezvoltatorul AI nu va putea explica pe deplin cum funcționează algoritmul.
De exemplu, se folosesc algoritmi de învățare profundă rețele neuronale pentru a identifica modele dintr-o tonă de date. Chiar dacă cercetătorii și dezvoltatorii AI înțeleg cum funcționează rețelele neuronale din punct de vedere tehnic, nici măcar ei nu pot explica pe deplin cum o rețea neuronală a ajuns la un anumit rezultat.
Unele rețele neuronale gestionează milioane de parametri care lucrează toți la unison pentru a returna rezultatul final.
În situațiile în care deciziile contează, lipsa explicabilității poate deveni problematică.
De ce contează explicabilitatea
Explicabilitate oferă o perspectivă asupra modului în care modelele iau decizii. Companiile care intenționează să adapteze AI pentru a lua decizii vor trebui să determine dacă AI a folosit input-ul potrivit pentru a ajunge la cea mai bună decizie.
Modelele care sunt inexplicabile reprezintă o problemă în mai multe industrii. De exemplu, dacă o companie ar folosi un algoritm pentru a lua decizii de angajare, ar fi în interesul tuturor să aibă transparență în ceea ce privește modul în care algoritmul decide să respingă un solicitant.
Un alt domeniu unde învățare profundă algoritmii sunt folosiți mai frecvent în domeniul sănătății. În cazurile în care algoritmii încearcă să detecteze posibile semne de cancer, este important ca medicii să înțeleagă cum a ajuns modelul la un anumit diagnostic. Este necesar un anumit nivel de explicabilitate pentru ca experții să profite din plin de AI și să nu o urmeze orbește
Prezentare generală a algoritmilor AI explicabili
Algoritmii AI explicabili se împart în două mari categorii: modele autointerpretabile și explicații post-hoc.
Modele autointerpretabile
Modele autointerpretabile sunt algoritmi pe care un om îi poate citi și interpreta direct. În acest caz, modelul în sine este explicația.
Unele dintre cele mai comune modele autointerpretabile includ arbori de decizie și modele de regresie.
De exemplu, să luăm în considerare un model de regresie liniară care prezice prețurile caselor. O regresie liniară înseamnă că, cu o anumită valoare x, vom putea prezice valoarea țintă y prin aplicarea unei anumite funcție liniară f.
Să presupunem că modelul nostru folosește dimensiunea lotului ca input principal pentru a determina prețul casei. Folosind regresia liniară, am putut găsi funcția y = 5000 * x unde x este cantitatea de picioare pătrate sau dimensiunea lotului.
Acest model este ușor de citit de om și este complet transparent.
Explicații post-hoc
Explicații post-hoc sunt un grup de algoritmi și tehnici care pot fi utilizate pentru a adăuga explicabilitate altor algoritmi.
Majoritatea tehnicilor de explicație post-hoc nu trebuie să înțeleagă cum funcționează algoritmul. Utilizatorul trebuie doar să specifice intrarea și ieșirea rezultată a algoritmului țintă.
Aceste explicații sunt împărțite în continuare în două feluri: explicații locale și explicații globale.
Explicațiile locale urmăresc să explice un subset de intrări. De exemplu, având în vedere un anumit rezultat, o explicație locală va putea identifica parametrii care au contribuit la luarea acelei decizii.
Explicațiile globale urmăresc să producă explicații post-hoc ale întregului algoritm. Acest tip de explicație este de obicei mai dificil de făcut. Algoritmii sunt complexi și pot exista nenumărați parametri care sunt importanți în obținerea rezultatului final.
Exemple de algoritmi de explicație locale
Printre numeroasele tehnici folosite pentru a realiza XAI, algoritmii folosiți pentru explicațiile locale sunt pe care se concentrează majoritatea cercetătorilor.
În această secțiune, vom arunca o privire la câțiva algoritmi de explicație locali populari și la modul în care funcționează fiecare dintre ei.
LĂMÂIE VERDE
LIME (Explicator local interpretabil de model-agnostic) este un algoritm care poate explica predicțiile oricărui algoritm de învățare automată.
După cum sugerează și numele, LIME este independent de model. Aceasta înseamnă că LIME poate funcționa pentru orice tip de model. Modelul este, de asemenea, interpretabil local, ceea ce înseamnă că putem explica modelul folosind rezultate locale mai degrabă decât să explicăm întregul model.
Chiar dacă modelul explicat este o cutie neagră, LIME creează un model liniar local în jurul punctelor din apropierea unei anumite poziții.
LIMe oferă un model liniar care aproximează modelul în vecinătatea unei predicții, dar nu neapărat global.
Puteți afla mai multe despre acest algoritm vizitând acest depozit open-source.
SHAP
Explicații Shapley Aditive (SHAP) este o metodă de a explica predicțiile individuale. Pentru a înțelege cum funcționează SHAP, va trebui să explicăm ce sunt valorile Shapley.
Valoarea Shapley este un concept din teoria jocurilor care implică atribuirea unei „valori” fiecărui jucător din joc. Acesta este distribuit astfel încât valoarea atribuită fiecărui jucător se bazează pe contribuția jucătorului la joc.
Cum aplicăm teoria jocurilor la învățarea automată modele?
Să presupunem că fiecare caracteristică din modelul nostru este un „jucător” și că „jocul” este funcția care emite predicția.
Metoda SHAP creează un model liniar ponderat care atribuie valori Shapley diferitelor caracteristici. Caracteristicile cu valori Shapley ridicate au o influență mai mare asupra rezultatului modelului, în timp ce caracteristicile cu valori Shapley scăzute au un impact mai mic.
Concluzie
Explicabilitatea AI este importantă nu numai pentru a asigura corectitudinea și responsabilitatea sistemelor AI, ci și pentru construirea încrederii în tehnologia AI în general.
Mai sunt încă o mulțime de cercetări de făcut în domeniul explicabilității AI, dar există câteva abordări promițătoare care ne pot ajuta să înțelegem sistemele complexe AI cutie neagră care sunt deja utilizate pe scară largă astăzi.
Cu continuarea cercetării și dezvoltării, putem spera să construim sisteme AI care sunt mai transparente și mai ușor de înțeles. Între timp, companiile și experții în domenii precum asistența medicală ar trebui să fie conștienți de limitările explicabilității AI.
Lasă un comentariu