AI ina uwezo wa kuboresha ufanisi katika sekta mbalimbali kama vile biashara na afya. Hata hivyo, ukosefu wa kuelezeka unazuia utegemezi wetu wa kuitumia kwa kufanya maamuzi.
Je, tunapaswa kuamini hukumu ya algorithm?
Ni muhimu kwa watoa maamuzi katika tasnia yoyote kuelewa mapungufu na uwezekano wa upendeleo wa mifano ya kujifunza mashine. Ili kuhakikisha kuwa miundo hii inatenda kama inavyokusudiwa, matokeo ya mfumo wowote wa AI yanapaswa kuelezewa na binadamu.
Katika nakala hii, tutazingatia umuhimu wa kuelezea katika AI. Tutatoa muhtasari mfupi wa aina za mbinu zinazotumiwa kupata maelezo kutoka kwa miundo ya kujifunza kwa mashine.
AI Inayoelezeka ni nini?
Inaelezeka bandia akili au XAI inarejelea mbinu na mbinu zinazotumiwa kuwaruhusu wanadamu kuelewa jinsi miundo ya kujifunza kwa mashine inavyofikia matokeo fulani.
Wengi maarufu kanuni za kujifunza mashine fanya kazi kana kwamba ni "sanduku nyeusi". Katika kujifunza mashine, algorithms ya sanduku nyeusi rejelea vielelezo vya ML ambapo haiwezekani kuthibitisha jinsi ingizo fulani huongoza kwa pato fulani. Hata msanidi wa AI hataweza kuelezea kikamilifu jinsi algorithm inavyofanya kazi.
Kwa mfano, algorithms ya kujifunza kwa kina hutumia mitandao ya neural kutambua ruwaza kutoka kwa tani ya data. Hata ingawa watafiti wa AI na watengenezaji wanaelewa jinsi mitandao ya neural inavyofanya kazi kutoka kwa mtazamo wa kiufundi, hata hawawezi kuelezea kikamilifu jinsi mtandao wa neva ulikuja na matokeo fulani.
Baadhi ya mitandao ya neva hushughulikia mamilioni ya vigezo ambavyo vyote hufanya kazi kwa pamoja ili kurudisha matokeo ya mwisho.
Katika hali ambapo maamuzi ni muhimu, ukosefu wa ufafanuzi unaweza kuwa shida.
Kwa Nini Ufafanuzi Ni Muhimu
Ufafanuzi hutoa ufahamu wa jinsi wanamitindo hufanya maamuzi. Biashara zinazopanga kurekebisha AI ili kufanya maamuzi italazimika kuamua ikiwa AI imetumia ingizo sahihi kufikia uamuzi bora.
Mifano ambazo hazielezeki ni suala katika tasnia kadhaa. Kwa mfano, ikiwa kampuni ingetumia algoriti kufanya maamuzi ya kuajiri, itakuwa vyema kwa kila mtu kuwa na uwazi kuhusu jinsi kanuni inavyoamua kukataa mwombaji.
Uwanja mwingine ambapo kujifunza kwa kina algorithms zinatumika mara kwa mara ni katika huduma ya afya. Katika hali ambapo algorithms hujaribu kuchunguza dalili zinazowezekana za saratani, ni muhimu kwa madaktari kuelewa jinsi mtindo ulivyofika katika uchunguzi fulani. Kiwango fulani cha kueleweka kinahitajika kwa wataalam kuchukua faida kamili ya AI na sio kuifuata kwa upofu
Muhtasari wa Algorithms za AI zinazoelezewa
Algorithms za AI zinazoweza kuelezeka zinaangukia katika kategoria mbili pana: miundo inayojitafsiri na maelezo ya baada ya muda mfupi.
Mifano ya kujitegemea
Mifano ya kujitegemea ni algoriti ambazo mwanadamu anaweza kusoma na kufasiri moja kwa moja. Katika kesi hii, mfano yenyewe ni maelezo.
Baadhi ya mifano ya kawaida inayojieleza ni pamoja na miti ya maamuzi na mifano ya urejeshi.
Kwa mfano, hebu tuchunguze mfano wa urejeshaji wa mstari ambao unatabiri bei za nyumba. Urejeshaji wa mstari unamaanisha kuwa kwa thamani fulani x, tutaweza kutabiri thamani lengwa letu y kwa kutumia kitendakazi fulani cha mstari f.
Tuseme kwamba muundo wetu unatumia saizi nyingi kama nyenzo kuu ya kuamua bei ya nyumba. Kwa kutumia urejeshi wa mstari, tuliweza kupata chaguo la kukokotoa y = 5000 * x ambapo x ni kiasi cha futi za mraba au ukubwa wa kura.
Mtindo huu unaweza kusomeka na binadamu na uko wazi kabisa.
Maelezo ya Baada ya Hoc
Maelezo ya baada ya hoc ni kundi la algoriti na mbinu ambazo zinaweza kutumika kuongeza kueleweka kwa algoriti zingine.
Mbinu nyingi za maelezo ya baada ya hoc hazihitaji kuelewa jinsi algorithm inavyofanya kazi. Mtumiaji anahitaji tu kubainisha ingizo na matokeo ya algorithm inayolengwa.
Maelezo haya yamegawanywa zaidi katika aina mbili: maelezo ya ndani na maelezo ya kimataifa.
Maelezo ya ndani yanalenga kueleza sehemu ndogo ya pembejeo. Kwa mfano, kutokana na matokeo fulani, maelezo ya ndani yataweza kubainisha ni vigezo gani vilichangia kufanya uamuzi huo.
Maelezo ya kimataifa yanalenga kutoa maelezo ya baada ya hoc ya algorithm nzima. Aina hii ya maelezo kwa kawaida ni ngumu zaidi kufanya. Algorithms ni ngumu na kunaweza kuwa na vigezo vingi ambavyo ni muhimu katika kufikia matokeo ya mwisho.
Mifano ya Algoriti za Ufafanuzi wa Karibu
Miongoni mwa mbinu nyingi zinazotumiwa kufikia XAI, algoriti zinazotumiwa kwa maelezo ya ndani ndizo ambazo watafiti wengi huzingatia.
Katika sehemu hii, tutaangalia algoriti za maelezo ya karibu na jinsi kila moja yao inavyofanya kazi.
MUDA
LIME (Kielelezo Kinachoweza Kufasirika cha Ndani-Kielezi cha Agnostic) ni algoriti inayoweza kueleza ubashiri wa kanuni zozote za kujifunza kwa mashine.
Kama jina linamaanisha, LIME ni mfano-agnostic. Hii inamaanisha LIME inaweza kufanya kazi kwa aina yoyote ya mfano. Muundo huo pia unaweza kufasiriwa ndani, kumaanisha kuwa tunaweza kueleza modeli kwa kutumia matokeo ya ndani badala ya kueleza modeli nzima.
Hata kama mfano unaofafanuliwa ni kisanduku cheusi, LIME huunda kielelezo cha mstari wa karibu karibu na nafasi fulani.
LIMe hutoa kielelezo cha mstari ambacho kinakadiria kielelezo kilicho karibu na utabiri lakini si lazima kimataifa.
Unaweza kupata maelezo zaidi kuhusu algoriti hii kwa kutembelea hazina hii ya chanzo huria.
SHAP
Maelezo ya Nyongeza ya Shapley (SHAP) ni njia ya kuelezea utabiri wa mtu binafsi. Ili kuelewa jinsi SHAP inavyofanya kazi, itabidi tueleze maadili ya Shapley ni nini.
Thamani ya Shapley ni dhana katika nadharia ya mchezo inayohusisha kukabidhi "thamani" kwa kila mchezaji kwenye mchezo. Hii inasambazwa hivi kwamba thamani aliyopewa kila mchezaji inategemea mchango wa mchezaji kwenye mchezo.
Je! Tunaombaje nadharia ya mchezo kwa kujifunza mashine mifano?
Tuseme kwamba kila kipengele katika muundo wetu ni "mchezaji" na kwamba "mchezo" ni chaguo la kukokotoa ambalo hutoa utabiri.
Mbinu ya SHAP huunda kielelezo cha mstari chenye uzani ambacho hupeana thamani za Shapley kwa vipengele mbalimbali. Vipengele vilivyo na thamani za juu za Shapley vina ushawishi mkubwa zaidi kwenye matokeo ya muundo ilhali vipengele vilivyo na thamani za chini za Shapley vina athari ndogo.
Hitimisho
Ufafanuzi wa AI ni muhimu sio tu kwa kuhakikisha usawa na uwajibikaji wa mifumo ya AI, lakini pia kwa kujenga uaminifu katika teknolojia ya AI kwa ujumla.
Bado kuna utafiti mwingi wa kufanywa katika eneo la kuelezeka kwa AI, lakini kuna baadhi ya mbinu za kuahidi ambazo zinaweza kutusaidia kuelewa mifumo tata ya AI ya sanduku nyeusi ambayo tayari inatumika sana leo.
Kwa utafiti zaidi na maendeleo, tunaweza kutumaini kujenga mifumo ya AI ambayo ni wazi zaidi na rahisi kuelewa. Wakati huo huo, wafanyabiashara na wataalam katika nyanja kama vile huduma ya afya wanapaswa kufahamu mapungufu ya kuelezeka kwa AI.
Acha Reply