AI gali pagerinti efektyvumą įvairiuose sektoriuose, pavyzdžiui, verslo ir sveikatos priežiūros. Tačiau paaiškinamumo trūkumas trukdo mums pasikliauti jo naudojimu priimant sprendimus.
Ar turėtume pasitikėti algoritmo sprendimu?
Bet kurios pramonės šakos sprendimus priimantiems asmenims svarbu suprasti apribojimus ir galimus šališkumus mašinų mokymosi modeliai. Siekiant užtikrinti, kad šie modeliai veiktų taip, kaip numatyta, bet kurios AI sistemos išvestis turėtų būti paaiškinama žmogui.
Šiame straipsnyje aptarsime AI paaiškinamumo svarbą. Pateiksime trumpą metodų tipų, naudojamų paaiškinimams iš mašininio mokymosi modelių gauti, apžvalgą.
Kas yra paaiškinamas AI?
Paaiškinama dirbtinis intelektas arba XAI reiškia metodus ir metodus, naudojamus, kad žmonės galėtų suprasti, kaip mašininio mokymosi modeliai pasiekia tam tikrą išvestį.
Daugelis populiarių mašininio mokymosi algoritmai dirbti taip, lyg tai būtų „juodoji dėžė“. Mašininiame mokyme, juodosios dėžės algoritmai nurodyti ML modelius, kai neįmanoma patikrinti, kaip tam tikra įvestis veda į tam tikrą išvestį. Net AI kūrėjas negalės iki galo paaiškinti, kaip veikia algoritmas.
Pavyzdžiui, naudojami giluminio mokymosi algoritmai neuroniniai tinklai nustatyti modelius iš daugybės duomenų. Nors dirbtinio intelekto tyrėjai ir kūrėjai supranta, kaip neuroniniai tinklai veikia techniniu požiūriu, net jie negali iki galo paaiškinti, kaip neuroninis tinklas davė tam tikrą rezultatą.
Kai kurie neuroniniai tinklai apdoroja milijonus parametrų, kurie visi veikia kartu, kad gautų galutinį rezultatą.
Tais atvejais, kai sprendimai yra svarbūs, paaiškinamumo trūkumas gali tapti problemiškas.
Kodėl paaiškinamumas yra svarbus
Paaiškinamumas leidžia suprasti, kaip modeliai priima sprendimus. Įmonės, planuojančios pritaikyti dirbtinį intelektą, kad galėtų priimti sprendimus, turės nustatyti, ar dirbtinis intelektas panaudojo tinkamą informaciją, kad priimtų geriausią sprendimą.
Nepaaiškinami modeliai yra daugelio pramonės šakų problema. Pavyzdžiui, jei įmonė naudotų algoritmą, kad priimtų sprendimus dėl samdymo, visiems būtų naudinga, kad būtų skaidrumas, kaip algoritmas nusprendžia atmesti kandidatą.
Kitas laukas, kuriame gilus mokymasis Algoritmai sveikatos priežiūros srityje naudojami dažniau. Tais atvejais, kai algoritmai bando aptikti galimus vėžio požymius, gydytojams svarbu suprasti, kaip modelis nustatė tam tikrą diagnozę. Tam, kad ekspertai galėtų visapusiškai pasinaudoti DI pranašumais ir aklai juo nesivadovauti, reikalingas tam tikras paaiškinamumo lygis
Paaiškinamų AI algoritmų apžvalga
Aiškinamieji AI algoritmai skirstomi į dvi plačias kategorijas: savaime interpretuojamus modelius ir post-hoc paaiškinimus.
Savarankiškai interpretuojami modeliai
Savarankiškai interpretuojami modeliai yra algoritmai, kuriuos žmogus gali tiesiogiai perskaityti ir interpretuoti. Šiuo atveju paaiškinimas yra pats modelis.
Kai kurie dažniausiai savaime interpretuojami modeliai apima sprendimų medžius ir regresijos modelius.
Pavyzdžiui, panagrinėkime tiesinės regresijos modelį, numatantį būsto kainas. Tiesinė regresija reiškia, kad su tam tikra reikšme x galėsime numatyti savo tikslinę reikšmę y taikydami tam tikrą tiesinę funkciją f.
Tarkime, kad mūsų modelis naudoja sklypo dydį kaip pagrindinį įvestį nustatant namo kainą. Naudodami tiesinę regresiją, mes galėjome sugalvoti funkciją y = 5000 * x, kur x yra kvadratinių pėdų arba partijos dydis.
Šis modelis yra suprantamas žmonėms ir yra visiškai skaidrus.
Post-hoc paaiškinimai
Post-hoc paaiškinimai yra algoritmų ir metodų, kurie gali būti naudojami siekiant paaiškinti kitus algoritmus, grupė.
Daugumai post-hoc paaiškinimo metodų nereikia suprasti, kaip veikia algoritmas. Vartotojui tereikia nurodyti tikslinio algoritmo įvestį ir gautą išvestį.
Šie paaiškinimai dar skirstomi į dvi rūšis: vietinius ir visuotinius.
Vietiniais paaiškinimais siekiama paaiškinti įvesties poaibį. Pavyzdžiui, atsižvelgiant į tam tikrą išvestį, vietinis paaiškinimas galės tiksliai nustatyti, kurie parametrai prisidėjo prie šio sprendimo priėmimo.
Visuotiniais paaiškinimais siekiama pateikti post-hoc viso algoritmo paaiškinimus. Tokį paaiškinimą paprastai yra sunkiau atlikti. Algoritmai yra sudėtingi ir gali būti daugybė parametrų, kurie yra svarbūs siekiant galutinio rezultato.
Vietinių paaiškinimų algoritmų pavyzdžiai
Tarp daugelio metodų, naudojamų XAI pasiekti, dauguma tyrinėtojų daugiausia dėmesio skiria vietiniams paaiškinimams naudojami algoritmai.
Šiame skyriuje apžvelgsime keletą populiarių vietinių paaiškinimo algoritmų ir kaip kiekvienas iš jų veikia.
LIME
LIME (vietinis interpretuojamas modelis-agnostinis aiškintuvas) yra algoritmas, galintis paaiškinti bet kurio mašininio mokymosi algoritmo prognozes.
Kaip rodo pavadinimas, LIME yra modelių agnostikas. Tai reiškia, kad LIME gali veikti bet kokio tipo modeliams. Modelis taip pat yra interpretuojamas lokaliai, o tai reiškia, kad modelį galime paaiškinti naudodami vietinius rezultatus, o ne visą modelį.
Net jei paaiškinamas modelis yra juodoji dėžė, LIME sukuria vietinį linijinį modelį aplink taškus, esančius šalia tam tikros padėties.
LIMe pateikia linijinį modelį, kuris apytiksliai atitinka modelį, esantį netoli prognozės, bet nebūtinai visame pasaulyje.
Daugiau apie šį algoritmą galite sužinoti apsilankę šioje atvirojo kodo saugykloje.
SHAP
Shapley priedų paaiškinimai (SHAP) yra būdas paaiškinti individualias prognozes. Norėdami suprasti, kaip veikia SHAP, turėsime paaiškinti, kas yra Shapley vertybės.
Shapley vertė yra žaidimo teorijos koncepcija, kuri apima „vertės“ priskyrimą kiekvienam žaidimo žaidėjui. Jis paskirstomas taip, kad kiekvienam žaidėjui priskiriama vertė būtų pagrįsta žaidėjo indėliu į žaidimą.
Kaip mes taikomės žaidimų teorija iki mašininio mokymosi modeliai?
Tarkime, kad kiekviena mūsų modelio funkcija yra „žaidėjas“, o „žaidimas“ yra funkcija, kuri išveda numatymą.
SHAP metodas sukuria svertinį tiesinį modelį, kuris įvairioms ypatybėms priskiria Shapley reikšmes. Ypatybės su didelėmis Shapley reikšmėmis turi didesnę įtaką modelio rezultatui, o funkcijos su mažomis Shapley reikšmėmis turi mažesnę įtaką.
Išvada
AI paaiškinamumas yra svarbus ne tik siekiant užtikrinti AI sistemų sąžiningumą ir atskaitomybę, bet ir apskritai didinti pasitikėjimą AI technologijomis.
AI paaiškinamumo srityje vis dar reikia atlikti daug tyrimų, tačiau yra keletas perspektyvių metodų, kurie gali padėti suprasti sudėtingas juodosios dėžės AI sistemas, kurios šiandien jau plačiai naudojamos.
Vykdydami tolesnius tyrimus ir plėtrą galime tikėtis sukurti skaidresnes ir lengviau suprantamas AI sistemas. Tuo tarpu įmonės ir ekspertai tokiose srityse kaip sveikatos priežiūra turėtų žinoti apie AI paaiškinamumo apribojimus.
Palikti atsakymą