May kapangyarihan ang AI na pahusayin ang kahusayan sa iba't ibang sektor gaya ng negosyo at pangangalagang pangkalusugan. Gayunpaman, ang kakulangan ng kakayahang maipaliwanag ay humahadlang sa aming pag-asa sa paggamit nito para sa paggawa ng desisyon.
Dapat ba tayong magtiwala sa paghatol ng isang algorithm?
Mahalaga para sa mga gumagawa ng desisyon sa anumang industriya na maunawaan ang mga limitasyon at potensyal na bias ng mga modelo ng pag-aaral ng makina. Upang matiyak na ang mga modelong ito ay kumikilos ayon sa nilalayon, ang output ng anumang AI system ay dapat na maipaliwanag sa isang tao.
Sa artikulong ito, tatalakayin natin ang kahalagahan ng pagpapaliwanag sa AI. Magbibigay kami ng maikling pangkalahatang-ideya ng mga uri ng mga pamamaraan na ginagamit upang makakuha ng mga paliwanag mula sa mga modelo ng machine learning.
Ano ang Explainable AI?
Maipaliwanag artificial intelligence o XAI ay tumutukoy sa mga diskarte at pamamaraan na ginagamit upang bigyang-daan ang mga tao na maunawaan kung paano dumarating ang mga modelo ng machine learning sa isang partikular na output.
Maraming sikat algorithm ng pag-aaral ng machine magtrabaho na parang ito ay isang "itim na kahon". Sa machine learning, mga algorithm ng itim na kahon sumangguni sa mga modelo ng ML kung saan imposibleng i-verify kung paano humahantong ang isang partikular na input sa isang partikular na output. Kahit na ang developer ng AI ay hindi ganap na maipaliwanag kung paano gumagana ang algorithm.
Halimbawa, gumagamit ng malalim na pag-aaral ng mga algorithm neural network upang matukoy ang mga pattern mula sa isang toneladang data. Kahit na nauunawaan ng mga mananaliksik at developer ng AI kung paano gumagana ang mga neural network mula sa isang teknikal na pananaw, kahit na hindi nila lubos na maipaliwanag kung paano nagkaroon ng isang partikular na resulta ang isang neural network.
Ang ilang mga neural network ay humahawak ng milyun-milyong parameter na lahat ay gumagana nang sabay-sabay upang ibalik ang huling resulta.
Sa mga sitwasyon kung saan mahalaga ang mga desisyon, maaaring maging problema ang kawalan ng kakayahang maipaliwanag.
Bakit Mahalaga ang Pagpapaliwanag
Kakayahang maipaliwanag nagbibigay ng insight sa kung paano gumagawa ng mga desisyon ang mga modelo. Ang mga negosyong nagpaplano sa pag-adapt ng AI upang gumawa ng mga desisyon ay kailangang matukoy kung ginamit ng AI ang tamang input upang makarating sa pinakamahusay na desisyon.
Ang mga modelong hindi maipaliwanag ay isang isyu sa ilang industriya. Halimbawa, kung ang isang kumpanya ay gagamit ng isang algorithm upang gumawa ng mga desisyon sa pag-hire, ito ay para sa pinakamahusay na interes ng lahat na magkaroon ng transparency sa kung paano nagpasya ang algorithm na tanggihan ang isang aplikante.
Ibang field kung saan malalim na pag-aaral Ang mga algorithm ay ginagamit nang mas madalas ay sa pangangalagang pangkalusugan. Sa mga kaso kung saan sinusubukan ng mga algorithm na tuklasin ang mga posibleng senyales ng cancer, mahalagang maunawaan ng mga doktor kung paano nakarating ang modelo sa isang partikular na diagnosis. Ang ilang antas ng kakayahang maipaliwanag ay kinakailangan para sa mga eksperto upang lubos na mapakinabangan ang AI at hindi bulag na sundin ito
Pangkalahatang-ideya ng Naipaliliwanag na AI Algorithm
Ang mga maipaliwanag na algorithm ng AI ay nahahati sa dalawang malawak na kategorya: mga modelong naipapaliwanag sa sarili at mga post-hoc na paliwanag.
Self-interpretable na mga modelo
Self-interpretable na mga modelo ay mga algorithm na maaaring direktang basahin at bigyang-kahulugan ng isang tao. Sa kasong ito, ang modelo mismo ay ang paliwanag.
Kasama sa ilan sa mga pinakakaraniwang modelong nabibigyang-kahulugan sa sarili ang mga puno ng desisyon at mga modelo ng regression.
Halimbawa, isaalang-alang natin ang isang linear regression na modelo na hinuhulaan ang mga presyo ng bahay. Ang linear regression ay nangangahulugan na sa ilang value x, mahuhulaan natin ang ating target na value na y sa pamamagitan ng paglalapat ng partikular na linear function f.
Ipagpalagay na ang aming modelo ay gumagamit ng laki ng lot bilang pangunahing input upang matukoy ang presyo ng bahay. Gamit ang linear regression, nakabuo kami ng function na y = 5000 * x kung saan ang x ay ang dami ng square feet o laki ng lot.
Ang modelong ito ay nababasa ng tao at ganap na transparent.
Mga Paliwanag ng Post-Hoc
Mga post-hoc na paliwanag ay isang pangkat ng mga algorithm at diskarte na maaaring magamit upang magdagdag ng kakayahang maipaliwanag sa iba pang mga algorithm.
Karamihan sa mga diskarte sa pagpapaliwanag ng post-hoc ay hindi kailangang maunawaan kung paano gumagana ang algorithm. Kailangan lang tukuyin ng user ang input at resultang output ng target algorithm.
Ang mga paliwanag na ito ay higit pang nahahati sa dalawang uri: mga lokal na paliwanag at pandaigdigang paliwanag.
Ang mga lokal na paliwanag ay naglalayong ipaliwanag ang isang subset ng mga input. Halimbawa, dahil sa partikular na output, matutukoy ng lokal na paliwanag kung aling mga parameter ang nag-ambag sa paggawa ng desisyong iyon.
Ang mga pandaigdigang paliwanag ay naglalayong gumawa ng mga post-hoc na paliwanag ng buong algorithm. Ang ganitong uri ng pagpapaliwanag ay karaniwang mas mahirap gawin. Ang mga algorithm ay kumplikado at maaaring mayroong hindi mabilang na mga parameter na makabuluhan sa pagkamit ng huling resulta.
Mga Halimbawa ng Local Explanation Algorithm
Kabilang sa maraming mga diskarteng ginagamit upang makamit ang XAI, ang mga algorithm na ginagamit para sa mga lokal na paliwanag ang pinagtutuunan ng pansin ng karamihan sa mga mananaliksik.
Sa seksyong ito, titingnan natin ang ilang sikat na lokal na algorithm sa pagpapaliwanag at kung paano gumagana ang bawat isa sa kanila.
LIME
LIME (Local Interpretable Model-Agnostic Explainer) ay isang algorithm na maaaring ipaliwanag ang mga hula ng anumang machine learning algorithm.
Gaya ng ipinahihiwatig ng pangalan, ang LIME ay model-agnostic. Nangangahulugan ito na maaaring gumana ang LIME para sa anumang uri ng modelo. Ang modelo ay locally interpretable din, ibig sabihin, maaari nating ipaliwanag ang modelo gamit ang mga lokal na resulta sa halip na ipaliwanag ang buong modelo.
Kahit na ang modelong ipinaliwanag ay isang itim na kahon, ang LIME ay gumagawa ng isang lokal na linear na modelo sa paligid ng mga puntong malapit sa isang partikular na posisyon.
Ang LIMe ay nagbibigay ng isang linear na modelo na tinatantya ang modelo sa paligid ng isang hula ngunit hindi kinakailangan sa buong mundo.
Maaari kang matuto nang higit pa tungkol sa algorithm na ito sa pamamagitan ng pagbisita sa open-source na repository na ito.
SHAP
Shapley Additive Explanations (SHAP) ay isang paraan upang ipaliwanag ang mga indibidwal na hula. Upang maunawaan kung paano gumagana ang SHAP, kailangan nating ipaliwanag kung ano ang mga halaga ng Shapley.
Ang halaga ng Shapley ay isang konsepto sa teorya ng laro na nagsasangkot ng pagtatalaga ng "halaga" sa bawat manlalaro sa laro. Ito ay ibinahagi upang ang halaga na itinalaga sa bawat manlalaro ay batay sa kontribusyon ng manlalaro sa laro.
Paano kami mag-a-apply teorya ng laro sa machine learning mga modelo?
Ipagpalagay na ang bawat tampok sa aming modelo ay isang "manlalaro" at ang "laro" ay ang function na naglalabas ng hula.
Ang pamamaraan ng SHAP ay lumilikha ng isang timbang na linear na modelo na nagtatalaga ng mga halaga ng Shapley sa iba't ibang mga tampok. Ang mga feature na may matataas na halaga ng Shapley ay may mas malaking impluwensya sa kinalabasan ng modelo habang ang mga feature na may mababang halaga ng Shapley ay may mas kaunting epekto.
Konklusyon
Ang pagpapaliwanag ng AI ay mahalaga hindi lamang para sa pagtiyak ng pagiging patas at pananagutan ng mga AI system, ngunit para din sa pagbuo ng tiwala sa teknolohiya ng AI sa pangkalahatan.
Marami pa ring pagsasaliksik na dapat gawin sa larangan ng AI explainability, ngunit may ilang promising approach na makakatulong sa amin na maunawaan ang kumplikadong black box AI system na malawakang ginagamit ngayon.
Sa karagdagang pananaliksik at pag-unlad, makakaasa tayong bumuo ng mga AI system na mas transparent at mas madaling maunawaan. Pansamantala, dapat malaman ng mga negosyo at eksperto sa mga larangan tulad ng pangangalagang pangkalusugan ang mga limitasyon ng kakayahang maipaliwanag ng AI.
Mag-iwan ng Sagot