Gervigreind hefur vald til að bæta skilvirkni í ýmsum greinum eins og viðskiptum og heilbrigðisþjónustu. Hins vegar hindrar skortur á útskýringum að treysta okkur á að nota það til ákvarðanatöku.
Eigum við að treysta dómgreind reiknirit?
Það er mikilvægt fyrir þá sem taka ákvarðanir í hvaða atvinnugrein sem er að skilja takmarkanir og hugsanlega hlutdrægni vélanáms módel. Til að tryggja að þessi líkön hagi sér eins og ætlað er ætti framleiðsla hvers gervigreindarkerfis að vera hægt að útskýra fyrir mönnum.
Í þessari grein munum við fara yfir mikilvægi skýringar í gervigreind. Við munum veita stutt yfirlit yfir þær tegundir aðferða sem notaðar eru til að draga útskýringar frá vélanámslíkönum.
Hvað er skýranleg gervigreind?
Útskýranlegt gervigreind eða XAI vísar til þeirra aðferða og aðferða sem notaðar eru til að leyfa mönnum að skilja hvernig vélanámslíkön komast að ákveðnu framtaki.
Margir vinsælir vélfræðinám reiknirit virka eins og það væri „svartur kassi“. Í vélanámi, svarta kassa reiknirit vísa til ML líkana þar sem ómögulegt er að sannreyna hvernig tiltekið inntak leiðir til tiltekins úttaks. Jafnvel verktaki gervigreindarinnar mun ekki geta útskýrt að fullu hvernig reikniritið virkar.
Til dæmis nota djúpnámsalgrím taugakerfi til að bera kennsl á mynstur úr fullt af gögnum. Jafnvel þó gervigreind vísindamenn og verktaki skilji hvernig taugakerfi virka út frá tæknilegu sjónarhorni, þá geta þeir ekki einu sinni útskýrt að fullu hvernig tauganet kom með tiltekna niðurstöðu.
Sum taugakerfi meðhöndla milljónir stika sem allir vinna í sameiningu til að skila endanlegri niðurstöðu.
Í aðstæðum þar sem ákvarðanir skipta máli getur skortur á skýringu orðið erfiður.
Af hverju skiptir skýringin máli
Skýringarhæfni veitir innsýn í hvernig módel taka ákvarðanir. Fyrirtæki sem ætla að aðlaga gervigreind til að taka ákvarðanir verða að ákvarða hvort gervigreindin hafi notað rétt inntak til að komast að bestu ákvörðuninni.
Líkön sem eru óútskýranleg eru vandamál í nokkrum atvinnugreinum. Til dæmis, ef fyrirtæki myndi nota reiknirit til að taka ákvarðanir um ráðningar, væri það allra hagur að hafa gagnsæi í því hvernig reikniritið ákveður að hafna umsækjanda.
Annar reitur þar sem djúpt nám reiknirit eru notuð oftar er í heilbrigðisþjónustu. Í þeim tilvikum þar sem reiknirit reyna að greina möguleg merki um krabbamein er mikilvægt fyrir lækna að skilja hvernig líkanið komst að tiltekinni greiningu. Einhver skýring er nauðsynleg til að sérfræðingar geti nýtt sér gervigreind til fulls og fylgi því ekki í blindni
Yfirlit yfir útskýranleg AI reiknirit
Útskýranleg gervigreind reiknirit falla í tvo víðtæka flokka: sjálftúlkanleg líkön og eftirstöðvar skýringar.
Sjálftúlkanleg módel
Sjálftúlkanleg módel eru reiknirit sem maður getur beint lesið og túlkað. Í þessu tilviki er líkanið sjálft skýringin.
Sumir af algengustu sjálftúlkanlegum líkönum eru ákvarðanatré og aðhvarfslíkön.
Til dæmis skulum við íhuga línulegt aðhvarfslíkan sem spáir fyrir um húsnæðisverð. Línuleg aðhvarf þýðir að með einhverju gildi x getum við spáð fyrir um markgildið y með því að beita tilteknu línulegu falli f.
Segjum sem svo að líkanið okkar noti lóðastærð sem aðalinntak til að ákvarða húsnæðisverð. Með því að nota línulega aðhvarf gátum við fundið fallið y = 5000 * x þar sem x er magn ferfeta eða lóðastærðar.
Þetta líkan er læsilegt fyrir menn og er algjörlega gagnsætt.
Post-Hoc skýringar
Post-hoc skýringar eru hópur reiknirita og aðferða sem hægt er að nota til að bæta útskýranleika við önnur reiknirit.
Flestar post-hoc skýringaraðferðir þurfa ekki að skilja hvernig reikniritið virkar. Notandinn þarf aðeins að tilgreina inntak og úttak markalgrímsins.
Þessum skýringum er frekar skipt í tvennt: staðbundnar skýringar og hnattrænar skýringar.
Staðbundnar skýringar miða að því að útskýra undirmengi aðfanga. Til dæmis, að gefnu tilteknu framlagi, mun staðbundin skýring geta ákvarðað hvaða færibreytur áttu þátt í að taka þá ákvörðun.
Hnattrænar skýringar miða að því að framleiða post-hoc skýringar á öllu reikniritinu. Þessa tegund af skýringum er venjulega erfiðara að gera. Reiknirit eru flókin og það geta verið óteljandi færibreytur sem eru mikilvægar til að ná endanlegri niðurstöðu.
Dæmi um staðbundnar skýringaralgrím
Meðal margra aðferða sem notaðar eru til að ná XAI eru reikniritin sem notuð eru fyrir staðbundnar skýringar það sem flestir vísindamenn leggja áherslu á.
Í þessum hluta munum við skoða nokkur vinsæl staðbundin skýringaralgrím og hvernig hver þeirra virkar.
LIME
LIME (Local Interpretable Model-Agnostic Explainer) er reiknirit sem getur útskýrt spár fyrir hvaða vélræna reiknirit sem er.
Eins og nafnið gefur til kynna er LIME fyrirmynda-agnostic. Þetta þýðir að LIME gæti virkað fyrir hvaða gerð sem er. Líkanið er einnig staðbundið túlkanlegt, sem þýðir að við getum útskýrt líkanið með því að nota staðbundnar niðurstöður frekar en að útskýra allt líkanið.
Jafnvel þótt líkanið sem verið er að útskýra sé svartur kassi, býr LIME til staðbundið línulegt líkan í kringum punkta nálægt ákveðinni staðsetningu.
LIMe veitir línulegt líkan sem nálgast líkanið í nágrenni við spá en ekki endilega á heimsvísu.
Þú getur lært meira um þetta reiknirit með því að heimsækja þessa opna geymslu.
SHAP
Shapley Additive Explanations (SHAP) er aðferð til að útskýra einstakar spár. Til að skilja hvernig SHAP virkar verðum við að útskýra hver Shapley gildi eru.
Shapley gildið er hugtak í leikjafræði sem felur í sér að gefa hverjum leikmanni „gildi“ í leiknum. Þessu er dreift þannig að gildið sem hverjum leikmanni er úthlutað byggist á framlagi leikmannsins til leiksins.
Hvernig sækjum við um leikjafræði til vélanáms módel?
Segjum sem svo að hver eiginleiki í líkaninu okkar sé „spilari“ og „leikurinn“ sé aðgerðin sem gefur út spána.
SHAP aðferðin býr til vegið línulegt líkan sem úthlutar Shapley gildi til ýmissa eiginleika. Eiginleikar með há Shapley gildi hafa meiri áhrif á útkomu líkansins á meðan eiginleikar með lág Shapley gildi hafa minni áhrif.
Niðurstaða
Útskýring gervigreindar er ekki aðeins mikilvæg til að tryggja sanngirni og ábyrgð gervigreindarkerfa heldur einnig til að byggja upp traust á gervigreindartækni almennt.
Það er enn nóg af rannsóknum sem þarf að gera á sviði gervigreindarskýringar, en það eru nokkrar efnilegar aðferðir sem geta hjálpað okkur að skilja hin flóknu gervigreindarkerfi með svarta kassa sem eru nú þegar mikið notuð í dag.
Með frekari rannsóknum og þróun getum við vonast til að byggja gervigreind kerfi sem eru gagnsærri og auðveldari að skilja. Í millitíðinni ættu fyrirtæki og sérfræðingar á sviðum eins og heilbrigðisþjónustu að vera meðvitaðir um takmarkanir á skýringu gervigreindar.
Skildu eftir skilaboð