AI ima moć da poboljša efikasnost u različitim sektorima kao što su biznis i zdravstvo. Međutim, nedostatak objašnjivosti ometa naše oslanjanje na to da ga koristimo za donošenje odluka.
Trebamo li vjerovati procjeni algoritma?
Važno je da donosioci odluka u bilo kojoj industriji razumiju ograničenja i potencijalne pristranosti Modeli mašinskog učenja. Da bi se osiguralo da se ovi modeli ponašaju kako je predviđeno, izlaz bilo kojeg AI sistema treba biti razumljiv čovjeku.
U ovom članku ćemo govoriti o važnosti objašnjivosti u AI. Daćemo kratak pregled vrsta metoda koje se koriste za izvođenje objašnjenja iz modela mašinskog učenja.
Šta je Objašnjiva AI?
Objašnjivo umjetne inteligencije ili XAI se odnosi na tehnike i metode koje se koriste kako bi se omogućilo ljudima da shvate kako modeli mašinskog učenja dolaze do određenog rezultata.
Mnogi popularni Algoritmi mašinskog učenja raditi kao da je “crna kutija”. U mašinskom učenju, algoritmi crne kutije odnose se na ML modele gdje je nemoguće provjeriti kako određeni ulaz vodi do određenog izlaza. Čak ni programer AI neće moći u potpunosti objasniti kako algoritam funkcionira.
Na primjer, koriste se algoritmi dubokog učenja neuronske mreže da identifikuju obrasce iz tone podataka. Iako istraživači i programeri umjetne inteligencije razumiju kako neuronske mreže funkcioniraju sa tehničke tačke gledišta, čak ni oni ne mogu u potpunosti objasniti kako je neuronska mreža došla do određenog rezultata.
Neke neuronske mreže rukuju milionima parametara koji svi rade unisono da bi dali konačni rezultat.
U situacijama kada su odluke važne, nedostatak objašnjivosti može postati problematičan.
Zašto je objašnjivost važna
Objašnjivost pruža uvid u to kako modeli donose odluke. Kompanije koje planiraju da prilagode AI za donošenje odluka moraće da utvrde da li je veštačka inteligencija koristila ispravan ulaz da bi donela najbolju odluku.
Modeli koji su neobjašnjivi problem su u nekoliko industrija. Na primjer, ako bi kompanija koristila algoritam za donošenje odluka o zapošljavanju, bilo bi u najboljem interesu svih da ima transparentnost u tome kako algoritam odlučuje da odbije kandidata.
Drugo polje gde duboko učenje algoritmi se sve češće koriste u zdravstvu. U slučajevima kada algoritmi pokušavaju otkriti moguće znakove raka, važno je da doktori razumiju kako je model došao do određene dijagnoze. Određeni nivo objašnjivosti je potreban da bi stručnjaci u potpunosti iskoristili AI, a ne da je slijepo slijede
Pregled objašnjivih AI algoritama
Objašnjivi AI algoritmi spadaju u dvije široke kategorije: modeli koji se sami tumače i post-hoc objašnjenja.
Modeli koji se sami tumače
Modeli koji se sami tumače su algoritmi koje čovjek može direktno čitati i tumačiti. U ovom slučaju, sam model je objašnjenje.
Neki od najčešćih modela koji se sami tumače uključuju stabla odlučivanja i regresijske modele.
Na primjer, razmotrimo model linearne regresije koji predviđa cijene kuća. Linearna regresija znači da ćemo s nekom vrijednošću x moći predvidjeti našu ciljnu vrijednost y primjenom određene linearne funkcije f.
Pretpostavimo da naš model koristi veličinu parcele kao glavni ulaz za određivanje cijene kuće. Koristeći linearnu regresiju, uspjeli smo doći do funkcije y = 5000 * x gdje je x količina kvadratnih stopa ili veličina parcele.
Ovaj model je čitljiv i potpuno je transparentan.
Post-Hoc objašnjenja
Post-hoc objašnjenja su grupa algoritama i tehnika koje se mogu koristiti za dodavanje objašnjivosti drugim algoritmima.
Većina post-hoc tehnika objašnjenja ne mora razumjeti kako algoritam funkcionira. Korisnik samo treba specificirati ulaz i rezultirajući izlaz ciljnog algoritma.
Ova objašnjenja se dalje dijele na dvije vrste: lokalna objašnjenja i globalna objašnjenja.
Lokalna objašnjenja imaju za cilj da objasne podskup inputa. Na primjer, s obzirom na određeni rezultat, lokalno objašnjenje će moći precizno odrediti koji su parametri doprinijeli donošenju te odluke.
Globalna objašnjenja imaju za cilj da proizvedu post-hoc objašnjenja cijelog algoritma. Ovakvu vrstu objašnjenja je obično teže izvesti. Algoritmi su složeni i može postojati bezbroj parametara koji su značajni za postizanje konačnog rezultata.
Primjeri algoritama lokalnog objašnjenja
Među mnogim tehnikama koje se koriste za postizanje XAI, algoritmi koji se koriste za lokalna objašnjenja su ono na šta se većina istraživača fokusira.
U ovom dijelu ćemo pogledati neke popularne lokalne algoritme objašnjenja i kako svaki od njih funkcionira.
LIME
LIME (Lokalno interpretabilno model-agnostičko objašnjenje) je algoritam koji može objasniti predviđanja bilo kojeg algoritma mašinskog učenja.
Kao što naziv govori, LIME je model agnostičan. To znači da LIME može raditi za bilo koju vrstu modela. Model se također može lokalno interpretirati, što znači da možemo objasniti model koristeći lokalne rezultate umjesto da objašnjavamo cijeli model.
Čak i ako je model koji se objašnjava crna kutija, LIME kreira lokalni linearni model oko tačaka u blizini određene pozicije.
LIMe pruža linearni model koji aproksimira model u blizini predviđanja, ali ne nužno globalno.
Možete saznati više o ovom algoritmu ako posjetite ovo otvoreno spremište.
SHAP
Objašnjenja Shapleyjevih aditiva (SHAP) je metoda za objašnjenje pojedinačnih predviđanja. Da bismo razumeli kako SHAP funkcioniše, moraćemo da objasnimo šta su Shapley vrednosti.
Shapleyjeva vrijednost je koncept u teoriji igara koji uključuje dodjeljivanje "vrijednosti" svakom igraču u igri. Ovo je raspoređeno tako da je vrijednost dodijeljena svakom igraču zasnovana na igračevom doprinosu igri.
Kako se prijavljujemo teorija igara do mašinskog učenja modeli?
Pretpostavimo da je svaka karakteristika u našem modelu "igrač" i da je "igra" funkcija koja daje predviđanje.
SHAP metoda kreira ponderirani linearni model koji dodjeljuje Shapleyjeve vrijednosti različitim karakteristikama. Karakteristike sa visokim Shapleyevim vrijednostima imaju veći utjecaj na ishod modela, dok karakteristike s niskim Shapley vrijednostima imaju manji utjecaj.
zaključak
Objašnjivost AI je važna ne samo za osiguranje pravičnosti i odgovornosti AI sistema, već i za izgradnju povjerenja u AI tehnologiju općenito.
Ima još dosta istraživanja koje treba obaviti u oblasti objašnjivosti AI, ali postoje neki obećavajući pristupi koji nam mogu pomoći da razumijemo složene sisteme AI crne kutije koji se danas već široko koriste.
Uz dalje istraživanje i razvoj, možemo se nadati da ćemo izgraditi AI sisteme koji su transparentniji i lakši za razumijevanje. U međuvremenu, kompanije i stručnjaci u oblastima kao što je zdravstvo treba da budu svesni ograničenja objašnjivosti veštačke inteligencije.
Ostavite odgovor