AI havas la potencon plibonigi efikecon en diversaj sektoroj kiel komerco kaj sanservo. Tamen, la manko de klarigebleco malhelpas nian fidon uzi ĝin por decidofarado.
Ĉu ni fidi la juĝon de algoritmo?
Gravas por deciduloj en iu ajn industrio kompreni la limojn kaj eblajn biasojn de modeloj pri maŝinlernado. Por certigi, ke ĉi tiuj modeloj kondutas kiel celite, la eligo de iu ajn AI-sistemo devus esti klarigebla al homo.
En ĉi tiu artikolo, ni trarigardos la gravecon de klarigebleco en AI. Ni provizos mallongan superrigardon de la specoj de metodoj uzataj por derivi klarigojn de maŝinlernado-modeloj.
Kio estas Klarigebla AI?
Klarigebla artefarita inteligento aŭ XAI rilatas al la teknikoj kaj metodoj uzitaj por permesi al homoj kompreni kiel maŝinlernantaj modeloj alvenas al certa produktaĵo.
Multaj popularaj maŝinlernaj algoritmoj labori kvazaŭ ĝi estus "nigra skatolo". En maŝinlernado, nigra skatolo algoritmoj raportu al ML-modeloj kie estas neeble kontroli kiel certa enigo kondukas al aparta produktaĵo. Eĉ la programisto de la AI ne povos plene klarigi kiel funkcias la algoritmo.
Ekzemple, profunda lernado algoritmoj uzas Neŭraj retoj identigi ŝablonojn el tuno da datumoj. Kvankam AI-esploristoj kaj programistoj komprenas kiel neŭralaj retoj funkcias de teknika vidpunkto, eĉ ili ne povas plene klarigi kiel neŭrala reto venis kun aparta rezulto.
Iuj neŭralaj retoj pritraktas milionojn da parametroj, kiuj ĉiuj laboras kune por redoni la finan rezulton.
En situacioj kie decidoj gravas, la manko de klarigebleco povas iĝi problema.
Kial Gravas Klarigebleco
Klarigebleco donas sciojn pri kiel modeloj faras decidojn. Komercoj, kiuj planas adapti AI por fari decidojn, devos determini ĉu la AI uzis la ĝustan enigaĵon por alveni al la plej bona decido.
Modeloj, kiuj estas neklarigeblaj, estas problemo en pluraj industrioj. Ekzemple, se kompanio uzus algoritmon por fari dungajn decidojn, estus je la plej bona intereso de ĉiuj havi travideblecon pri kiel la algoritmo decidas malakcepti kandidaton.
Alia kampo kie profunda lernado algoritmoj estas uzataj pli ofte estas en kuracado. En kazoj kie algoritmoj provas detekti eblajn signojn de kancero, estas grave por kuracistoj kompreni kiel la modelo alvenis al aparta diagnozo. Iom da klarigebleco estas postulata por ke spertuloj plene profitu AI kaj ne blinde sekvu ĝin
Superrigardo de Klarigeblaj AI-Algoritmoj
Klarigeblaj AI-algoritmoj falas en du larĝajn kategoriojn: mem-interpreteblaj modeloj kaj post-hoc klarigoj.
Meminterpreteblaj modeloj
Meminterpreteblaj modeloj estas algoritmoj, kiujn homo povas rekte legi kaj interpreti. En ĉi tiu kazo, la modelo mem estas la klarigo.
Kelkaj el la plej oftaj mem-interpreteblaj modeloj inkludas decidarbojn kaj regresmodelojn.
Ekzemple, ni konsideru linearan regresan modelon, kiu antaŭdiras domprezojn. Lineara regreso signifas ke kun iu valoro x, ni povos antaŭdiri nian celvaloron y aplikante apartan linearan funkcion f.
Supozu, ke nia modelo uzas multgrandecon kiel la ĉefan enigon por determini domprezon. Uzante linearan regreson, ni povis elpensi la funkcion y = 5000 * x kie x estas la kvanto de kvadratfutoj aŭ multgrandeco.
Ĉi tiu modelo estas homlegebla kaj estas tute travidebla.
Post-Hoc Klarigoj
Post-hoc klarigoj estas grupo de algoritmoj kaj teknikoj kiuj povas esti uzitaj por aldoni klarigeblecon al aliaj algoritmoj.
Plej post-hoc klarigo teknikoj ne bezonas kompreni kiel la algoritmo funkcias. La uzanto nur bezonas specifi la enigon kaj rezultan eligon de la cela algoritmo.
Ĉi tiuj klarigoj estas plue dividitaj en du specojn: lokaj klarigoj kaj tutmondaj klarigoj.
Lokaj klarigoj celas klarigi subaron de enigaĵoj. Ekzemple, donita apartan produktaĵon, loka klarigo povos precizigi kiuj parametroj kontribuis por fari tiun decidon.
Tutmondaj klarigoj celas produkti post-hoc klarigojn de la tuta algoritmo. Ĉi tiu speco de klarigo estas kutime pli malfacila por fari. Algoritmoj estas kompleksaj kaj povas esti sennombraj parametroj kiuj estas signifaj por atingi la finan rezulton.
Ekzemploj de Lokaj Klarigaj Algoritmoj
Inter la multaj teknikoj uzataj por atingi XAI, la algoritmoj uzataj por lokaj klarigoj estas tio, pri kio la plej multaj esploristoj fokusiĝas.
En ĉi tiu sekcio, ni rigardos kelkajn popularajn lokajn klarigajn algoritmojn kaj kiel ĉiu el ili funkcias.
KVIN
LIME (Loka Interpretebla Model-Agnostika Klarigilo) estas algoritmo kiu povas klarigi la antaŭdirojn de iu ajn maŝinlernada algoritmo.
Kiel la nomo implicas, LIME estas model-agnostika. Ĉi tio signifas, ke LIME povus funkcii por ajna tipo de modelo. La modelo ankaŭ estas loke interpretebla, signifante ke ni povas klarigi la modelon uzante lokajn rezultojn prefere ol klarigado de la tuta modelo.
Eĉ se la modelo klarigita estas nigra skatolo, LIME kreas lokan linearan modelon ĉirkaŭ punktoj proksime de certa pozicio.
LIMe disponigas linearan modelon kiu aproksimas la modelon en la najbareco de prognozo sed ne nepre tutmonde.
Vi povas lerni pli pri ĉi tiu algoritmo vizitante ĉi tiun malfermfontan deponejon.
SHAP
Shapley-Aldonaj Klarigoj (SHAP) estas metodo por klarigi individuajn prognozojn. Por kompreni kiel funkcias SHAP, ni devos klarigi, kio estas Shapley-valoroj.
La Shapley-valoro estas koncepto en ludoteorio kiu implikas atribui "valoron" al ĉiu ludanto en la ludo. Tio estas distribuita tia ke la valoro asignita al ĉiu ludanto estas bazita sur la kontribuo de la ludanto al la ludo.
Kiel ni kandidatiĝas ludoteorio al maŝinlernado modeloj?
Supozu, ke ĉiu trajto en nia modelo estas "ludanto" kaj ke la "ludo" estas la funkcio kiu eligas la antaŭdiron.
La SHAP-metodo kreas laŭpezan linearan modelon kiu asignas Shapley-valorojn al diversaj ecoj. Trajtoj kun altaj Shapley-valoroj havas pli grandan influon sur la rezulto de la modelo dum ecoj kun malaltaj Shapley-valoroj havas malpli da efiko.
konkludo
AI-klarigebleco estas grava ne nur por certigi la justecon kaj respondecon de AI-sistemoj, sed ankaŭ por konstrui fidon al AI-teknologio ĝenerale.
Estas ankoraŭ multe da esploro por fari en la areo de AI-klarigebleco, sed ekzistas kelkaj promesplenaj aliroj, kiuj povas helpi nin kompreni la kompleksajn nigrajn skatolojn AI-sistemojn, kiuj jam estas vaste uzataj hodiaŭ.
Kun plia esplorado kaj evoluo, ni povas esperi konstrui AI-sistemojn, kiuj estas pli travideblaj kaj pli facile kompreneblaj. Intertempe, entreprenoj kaj spertuloj en kampoj kiel ekzemple sanservo devus esti konsciaj pri la limigoj de AI-klarigebleco.
Lasi Respondon