AI ima moć poboljšati učinkovitost u različitim sektorima kao što su poslovanje i zdravstvo. Međutim, nedostatak objašnjivosti sprječava naše oslanjanje na njegovu upotrebu za donošenje odluka.
Trebamo li vjerovati prosudbi algoritma?
Važno je da donositelji odluka u bilo kojoj industriji razumiju ograničenja i potencijalne pristranosti modeli strojnog učenja. Kako bi se osiguralo da se ti modeli ponašaju kako treba, izlaz bilo kojeg AI sustava trebao bi biti razumljiv čovjeku.
U ovom ćemo članku proći kroz važnost objašnjivosti u umjetnoj inteligenciji. Pružit ćemo kratki pregled vrsta metoda koje se koriste za izvođenje objašnjenja iz modela strojnog učenja.
Što je Objašnjiva umjetna inteligencija?
Objašnjivo umjetna inteligencija ili XAI odnosi se na tehnike i metode koje se koriste kako bi se ljudima omogućilo razumijevanje kako modeli strojnog učenja dolaze do određenog rezultata.
Mnogi popularni algoritmi strojnog učenja raditi kao da je „crna kutija“. U strojnom učenju, algoritmi crne kutije odnosi se na ML modele gdje je nemoguće provjeriti kako određeni ulaz dovodi do određenog izlaza. Čak ni programer AI neće moći u potpunosti objasniti kako algoritam radi.
Na primjer, algoritmi dubokog učenja koriste neuronske mreže identificirati obrasce iz tone podataka. Iako istraživači i programeri umjetne inteligencije razumiju kako funkcioniraju neuronske mreže s tehničkog gledišta, čak ni oni ne mogu u potpunosti objasniti kako je neuronska mreža došla do određenog rezultata.
Neke neuronske mreže obrađuju milijune parametara koji svi rade usklađeno kako bi vratili konačni rezultat.
U situacijama u kojima su odluke važne, nedostatak objašnjivosti može postati problematičan.
Zašto je objašnjivost važna
Objašnjivost pruža uvid u to kako modeli donose odluke. Poduzeća koja planiraju prilagoditi umjetnu inteligenciju za donošenje odluka morat će utvrditi je li umjetna inteligencija upotrijebila pravi unos kako bi donijela najbolju odluku.
Modeli koji se ne mogu objasniti problem su u nekoliko industrija. Na primjer, ako bi tvrtka koristila algoritam za donošenje odluka o zapošljavanju, bilo bi u interesu svih da postoji transparentnost u tome kako algoritam odlučuje odbiti kandidata.
Još jedno polje gdje duboko učenje algoritmi se sve češće koriste u zdravstvu. U slučajevima kada algoritmi pokušavaju otkriti moguće znakove raka, važno je da liječnici razumiju kako je model došao do određene dijagnoze. Potrebna je određena razina objašnjivosti kako bi stručnjaci mogli u potpunosti iskoristiti AI, a ne slijepo ga slijediti
Pregled objašnjivih AI algoritama
Objašnjivi algoritmi umjetne inteligencije spadaju u dvije široke kategorije: modeli koji se sami tumače i post-hoc objašnjenja.
Samointerpretabilni modeli
Samointerpretabilni modeli su algoritmi koje čovjek može izravno čitati i interpretirati. U ovom slučaju, sam model je objašnjenje.
Neki od najčešćih samointerpretabilnih modela uključuju stabla odlučivanja i regresijske modele.
Na primjer, razmotrimo model linearne regresije koji predviđa cijene kuća. Linearna regresija znači da ćemo uz neku vrijednost x moći predvidjeti našu ciljnu vrijednost y primjenom određene linearne funkcije f.
Pretpostavimo da naš model koristi veličinu parcele kao glavni ulaz za određivanje cijene kuće. Koristeći linearnu regresiju, uspjeli smo doći do funkcije y = 5000 * x gdje je x količina četvornih stopa ili veličina parcele.
Ovaj model je čitljiv i potpuno je proziran.
Post-hoc objašnjenja
Post-hoc objašnjenja su skupina algoritama i tehnika koje se mogu koristiti za dodavanje objašnjivosti drugim algoritmima.
Većina tehnika post-hoc objašnjenja ne mora razumjeti kako algoritam funkcionira. Korisnik samo treba specificirati ulaz i rezultirajući izlaz ciljanog algoritma.
Ta se objašnjenja dalje dijele na dvije vrste: lokalna objašnjenja i globalna objašnjenja.
Lokalna objašnjenja imaju za cilj objasniti podskup inputa. Na primjer, s obzirom na određeni rezultat, lokalno objašnjenje će moći odrediti koji su parametri pridonijeli donošenju te odluke.
Globalna objašnjenja imaju za cilj proizvesti post-hoc objašnjenja cijelog algoritma. Ovu vrstu objašnjenja obično je teže izvesti. Algoritmi su složeni i može postojati bezbroj parametara koji su značajni u postizanju konačnog rezultata.
Primjeri algoritama lokalnog objašnjenja
Među mnogim tehnikama koje se koriste za postizanje XAI, algoritmi koji se koriste za lokalna objašnjenja su ono na što se većina istraživača usredotočuje.
U ovom ćemo odjeljku pogledati neke popularne lokalne algoritme objašnjenja i kako svaki od njih radi.
VAPNENA
LIME (lokalni interpretabilni model-agnostičko objašnjenje) je algoritam koji može objasniti predviđanja bilo kojeg algoritma strojnog učenja.
Kao što naziv implicira, LIME ne ovisi o modelu. To znači da LIME može raditi za bilo koju vrstu modela. Model je također moguće lokalno interpretirati, što znači da možemo objasniti model korištenjem lokalnih rezultata, a ne objašnjavati cijeli model.
Čak i ako je model koji se objašnjava crna kutija, LIME stvara lokalni linearni model oko točaka u blizini određene pozicije.
LIMe pruža linearni model koji aproksimira model u blizini predviđanja, ali ne nužno globalno.
Možete saznati više o ovom algoritmu ako posjetite ovo spremište otvorenog koda.
SHAP
Shapleyjeva objašnjenja aditiva (SHAP) je metoda za objašnjenje pojedinačnih predviđanja. Da bismo razumjeli kako SHAP radi, morat ćemo objasniti što su Shapleyjeve vrijednosti.
Shapleyjeva vrijednost je koncept u teoriji igara koji uključuje dodjeljivanje "vrijednosti" svakom igraču u igri. To se distribuira tako da se vrijednost dodijeljena svakom igraču temelji na igračevom doprinosu igri.
Kako se prijavljujemo teorija igara do strojnog učenja modeli?
Pretpostavimo da je svaka značajka u našem modelu "igrač" i da je "igra" funkcija koja daje predviđanje.
Metoda SHAP stvara ponderirani linearni model koji dodjeljuje Shapleyjeve vrijednosti različitim značajkama. Značajke s visokim Shapleyjevim vrijednostima imaju veći utjecaj na ishod modela dok značajke s niskim Shapleyjevim vrijednostima imaju manji utjecaj.
Zaključak
Objašnjivost umjetne inteligencije važna je ne samo za osiguranje pravednosti i odgovornosti sustava umjetne inteligencije, već i za izgradnju povjerenja u tehnologiju umjetne inteligencije općenito.
Potrebno je još dosta istraživanja u području objašnjivosti umjetne inteligencije, ali postoje neki obećavajući pristupi koji nam mogu pomoći da razumijemo složene sustave umjetne inteligencije crne kutije koji su danas već naširoko korišteni.
Uz daljnja istraživanja i razvoj, možemo se nadati da ćemo izgraditi AI sustave koji su transparentniji i lakši za razumijevanje. U međuvremenu, tvrtke i stručnjaci u područjima kao što je zdravstvo trebali bi biti svjesni ograničenja objašnjivosti umjetne inteligencije.
Ostavi odgovor