Tehisintellektil on võime parandada tõhusust erinevates sektorites, nagu äri ja tervishoid. Seletavuse puudumine takistab aga meie tuginemist selle kasutamisele otsuste tegemisel.
Kas me peaksime usaldama algoritmi otsust?
Iga valdkonna otsustajate jaoks on oluline mõista selle piiranguid ja võimalikke eelarvamusi masinõppe mudelid. Nende mudelite kavandatud toimimise tagamiseks peaks iga AI-süsteemi väljund olema inimesele seletatav.
Selles artiklis käsitleme seletatavuse tähtsust tehisintellektis. Anname lühiülevaate masinõppemudelitest selgituste saamiseks kasutatavate meetodite tüüpidest.
Mis on seletatav AI?
Selgitav tehisintellekti või XAI viitab tehnikatele ja meetoditele, mida kasutatakse, et võimaldada inimestel mõista, kuidas masinõppemudelid teatud väljundini jõuavad.
Paljud populaarsed masinõppe algoritmid töötab nii, nagu oleks see "must kast". Masinõppes musta kasti algoritmid viitavad ML-mudelitele, kus on võimatu kontrollida, kuidas teatud sisend viib konkreetse väljundini. Isegi AI arendaja ei suuda algoritmi toimimist täielikult selgitada.
Näiteks kasutavad süvaõppe algoritmid närvivõrgud mustrite tuvastamiseks hulga andmete põhjal. Kuigi tehisintellekti teadlased ja arendajad mõistavad, kuidas närvivõrgud tehnilisest vaatenurgast töötavad, ei suuda isegi nad täielikult selgitada, kuidas närvivõrk konkreetse tulemuseni jõudis.
Mõned närvivõrgud käsitlevad miljoneid parameetreid, mis kõik töötavad koos, et tagastada lõpptulemus.
Olukordades, kus otsused loevad, võib seletamatuse puudumine muutuda problemaatiliseks.
Miks on seletatavus oluline?
Seletatavus annab ülevaate sellest, kuidas mudelid otsuseid teevad. Ettevõtted, kes plaanivad tehisintellekti otsuste tegemiseks kohandada, peavad otsustama, kas tehisintellekt on parima otsuse tegemiseks kasutanud õiget sisendit.
Seletamatud mudelid on probleemiks mitmes tööstusharus. Näiteks kui ettevõte peaks töölevõtmisotsuste tegemiseks kasutama algoritmi, oleks kõigi huvides läbipaistvus, kuidas algoritm otsustab taotleja tagasi lükata.
Teine valdkond, kus sügav õpe Algoritme kasutatakse tervishoius sagedamini. Juhtudel, kui algoritmid püüavad tuvastada võimalikke vähi märke, on arstidel oluline mõista, kuidas mudel konkreetse diagnoosini jõudis. Eksperdid peavad tehisintellekti täielikult ära kasutama ja mitte seda pimesi järgima, et eksperdid saaksid teatud määral seletada
Ülevaade seletatavatest AI algoritmidest
Selgitatavad AI-algoritmid jagunevad kahte suurde kategooriasse: isetõlgendatavad mudelid ja post-hoc selgitused.
Ise tõlgendatavad mudelid
Ise tõlgendatavad mudelid on algoritmid, mida inimene saab vahetult lugeda ja tõlgendada. Sel juhul on seletuseks mudel ise.
Mõned levinumad isetõlgendatavad mudelid hõlmavad otsustuspuid ja regressioonimudeleid.
Näiteks vaatleme lineaarse regressiooni mudelit, mis ennustab eluaseme hindu. Lineaarne regressioon tähendab, et teatud väärtusega x saame ennustada sihtväärtust y, rakendades konkreetset lineaarset funktsiooni f.
Oletame, et meie mudel kasutab maja hinna määramisel peamise sisendina krundi suurust. Lineaarse regressiooni abil saime välja funktsiooni y = 5000 * x, kus x on ruutjalgade või partii suurus.
See mudel on inimesele loetav ja täiesti läbipaistev.
Post-hoc selgitused
Post-hoc selgitused on algoritmide ja tehnikate rühm, mida saab kasutada teistele algoritmidele seletatavuse lisamiseks.
Enamik post-hoc selgitustehnikaid ei pea mõistma, kuidas algoritm töötab. Kasutajal tuleb määrata ainult sihtalgoritmi sisend ja sellest tulenev väljund.
Need seletused jagunevad veel kahte tüüpi: lokaalsed ja globaalsed seletused.
Kohalike selgituste eesmärk on selgitada sisendite alamhulka. Näiteks konkreetse väljundi korral saab kohalik selgitus täpselt kindlaks teha, millised parameetrid selle otsuse tegemisele kaasa aitasid.
Globaalsete selgituste eesmärk on toota kogu algoritmi post-hoc selgitusi. Seda tüüpi selgitusi on tavaliselt keerulisem teha. Algoritmid on keerulised ja lõpptulemuse saavutamisel võib olla lugematu arv parameetreid.
Kohalike seletusalgoritmide näited
Paljude XAI saavutamiseks kasutatavate tehnikate hulgas keskenduvad enamik teadlasi kohalikeks selgitusteks kasutatavatele algoritmidele.
Selles jaotises vaatleme mõnda populaarset kohalikku selgitusalgoritmi ja nende toimimist.
LUBI
LIME (kohalik tõlgendatav mudeli-agnostiline seletaja) on algoritm, mis suudab selgitada mis tahes masinõppe algoritmi ennustusi.
Nagu nimigi viitab, on LIME mudeliagnostiline. See tähendab, et LIME võib töötada igat tüüpi mudelitega. Mudel on ka lokaalselt tõlgendatav, mis tähendab, et saame mudelit selgitada kohalike tulemuste abil, mitte kogu mudelit.
Isegi kui selgitatav mudel on must kast, loob LIME teatud asukoha lähedal asuvate punktide ümber kohaliku lineaarse mudeli.
LIMe pakub lineaarset mudelit, mis läheneb mudelile ennustuse läheduses, kuid mitte tingimata globaalselt.
Selle algoritmi kohta saate lisateavet selle avatud lähtekoodiga hoidla külastamisest.
SHAP
Shapley lisandite selgitused (SHAP) on meetod individuaalsete ennustuste selgitamiseks. Et mõista, kuidas SHAP töötab, peame selgitama, mis on Shapley väärtused.
Shapley väärtus on mänguteooria kontseptsioon, mis hõlmab igale mängus osalevale mängijale "väärtuse" määramist. See jaotatakse nii, et igale mängijale määratud väärtus põhineb mängija panusel mängu.
Kuidas me rakendame mänguteooriast masinõppeni mudelid?
Oletame, et meie mudeli iga funktsioon on "mängija" ja "mäng" on funktsioon, mis ennustuse väljastab.
SHAP-meetod loob kaalutud lineaarse mudeli, mis määrab erinevatele funktsioonidele Shapley väärtused. Kõrgete Shapley väärtustega funktsioonidel on mudeli tulemustele suurem mõju, samas kui madalate Shapley väärtustega funktsioonidel on väiksem mõju.
Järeldus
Tehisintellekti seletatavus on oluline mitte ainult tehisintellektisüsteemide õigluse ja vastutuse tagamiseks, vaid ka üldiselt tehisintellekti tehnoloogia vastu usalduse suurendamiseks.
Tehisintellekti seletatavuse valdkonnas on veel palju uurimistööd, kuid on palju paljulubavaid lähenemisviise, mis aitavad meil mõista keerulisi musta kasti tehisintellekti süsteeme, mida juba praegu laialdaselt kasutatakse.
Edasise uurimis- ja arendustegevusega saame loota luua läbipaistvamaid ja lihtsamini mõistetavaid tehisintellektisüsteeme. Seni peaksid ettevõtted ja eksperdid sellistes valdkondades nagu tervishoid olema teadlikud tehisintellekti seletatavuse piirangutest.
Jäta vastus