Je, tunahakikishaje kwamba tunatumia AI kwa kuwajibika?
Maendeleo katika kujifunza kwa mashine yanaonyesha kuwa miundo inaweza kuongeza kasi na kuathiri sehemu kubwa ya jamii.
Kanuni hudhibiti mipasho ya habari kwenye simu za kila mtu. Serikali na mashirika yanaanza kutumia AI kufanya maamuzi yaliyo na data.
Kadiri AI inavyozidi kuzama katika jinsi ulimwengu unavyofanya kazi, tunahakikishaje kuwa AI inatenda kwa haki?
Katika makala haya, tutaangalia changamoto za kimaadili za kutumia AI na kuona tunachoweza kufanya ili kuhakikisha matumizi yanayowajibika ya AI.
Ethical AI ni nini?
Ethical AI inarejelea akili bandia ambayo inatii seti fulani ya miongozo ya maadili.
Kwa maneno mengine, ni njia ya watu binafsi na mashirika kufanya kazi na AI kwa njia ya kuwajibika.
Katika miaka ya hivi majuzi, mashirika yameanza kufuata sheria za faragha za data baada ya kubainika kwa ushahidi wa matumizi mabaya na ukiukaji. Vile vile, miongozo ya AI ya kimaadili inapendekezwa ili kuhakikisha kuwa AI haiathiri vibaya jamii.
Kwa mfano, baadhi ya aina za AI hufanya kazi kwa njia ya upendeleo au kuendeleza upendeleo uliopo. Hebu tuchunguze kanuni inayosaidia waajiri kupanga maelfu ya wasifu. Ikiwa algoriti imefunzwa kwenye mkusanyiko wa data wenye wafanyakazi wengi wa kiume au wazungu, basi kuna uwezekano kwamba kanuni hiyo itapendelea waombaji ambao wako chini ya kategoria hizo.
Kuanzisha Kanuni za Maadili AI
Tumefikiria juu ya kuanzisha seti ya sheria za kuweka bandia akili kwa miongo.
Hata katika miaka ya 1940, wakati kompyuta zenye nguvu zaidi zingeweza kufanya hesabu za kisayansi maalum zaidi, waandishi wa hadithi za kisayansi wametafakari juu ya wazo la kudhibiti roboti zenye akili.
Isaac Asimov alitunga Sheria Tatu za Roboti, ambazo alipendekeza ziingizwe katika upangaji wa roboti katika hadithi zake fupi kama kipengele cha usalama.
Sheria hizi zimekuwa nguzo kwa hadithi nyingi za baadaye za sci-fi na hata zimefahamisha tafiti halisi kuhusu maadili ya AI.
Katika utafiti wa kisasa, watafiti wa AI wanatafuta vyanzo vyenye msingi zaidi ili kuanzisha orodha ya kanuni za AI ya kimaadili.
Kwa kuwa AI hatimaye itaathiri maisha ya binadamu, lazima tuwe na uelewa wa kimsingi wa kile tunachopaswa kufanya na tusichopaswa kufanya.
Ripoti ya Belmont
Kwa marejeleo, watafiti wa maadili huangalia Ripoti ya Belmont kama mwongozo. The Ripoti ya Belmont ilikuwa hati iliyochapishwa na Taasisi za Kitaifa za Afya za Marekani mwaka wa 1979. Ukatili wa kimatibabu uliofanywa katika WW2 ulisababisha msukumo wa kutunga sheria miongozo ya kimaadili kwa watafiti wanaofanya mazoezi ya udaktari.
Hapa kuna kanuni tatu za msingi zilizotajwa katika ripoti:
- Heshima kwa watu
- Fadhili
- Jaji
Mkuu wa kwanza analenga kudumisha utu na uhuru wa masomo yote ya kibinadamu. Kwa mfano, watafiti wanapaswa kupunguza washiriki wanaodanganya na wanapaswa kuhitaji kila mtu kutoa idhini yake ya wazi.
Kanuni ya pili, ufadhili, inazingatia wajibu wa mtafiti kupunguza madhara yanayoweza kutokea kwa washiriki. Kanuni hii inawapa watafiti wajibu wa kusawazisha uwiano wa hatari za mtu binafsi kwa manufaa ya kijamii.
Haki, kanuni ya mwisho iliyowekwa na Ripoti ya Belmont, inalenga katika usambazaji sawa wa hatari na manufaa katika makundi ambayo yanaweza kufaidika na utafiti. Watafiti wana jukumu la kuchagua masomo ya utafiti kutoka kwa idadi kubwa ya watu. Kufanya hivyo kungepunguza upendeleo wa mtu binafsi na wa kimfumo ambao unaweza kuathiri vibaya jamii.
Kuweka Maadili katika Utafiti wa AI
Ingawa Ripoti ya Belmont ililengwa kimsingi katika utafiti unaohusisha masomo ya binadamu, kanuni zilikuwa pana vya kutosha kutumika katika nyanja ya maadili ya AI.
Data Kubwa imekuwa rasilimali muhimu katika uwanja wa akili ya bandia. Michakato ambayo huamua jinsi watafiti hukusanya data inapaswa kufuata miongozo ya maadili.
Utekelezaji wa sheria za faragha za data katika mataifa mengi kwa kiasi fulani huweka kikomo kwa kile ambacho kampuni za data zinaweza kukusanya na kutumia. Walakini, mataifa mengi bado yana seti ya sheria za msingi ili kuzuia matumizi ya AI kusababisha madhara.
Jinsi ya kufanya kazi na AI Kimaadili
Hapa kuna dhana chache muhimu ambazo zinaweza kusaidia kufanya kazi kuelekea matumizi ya maadili na kuwajibika ya AI.
Udhibiti kwa Upendeleo
Ujuzi wa Bandia hauegemei upande wowote. Siku zote kanuni za algoriti huathiriwa na upendeleo na ubaguzi uliowekwa kwa sababu data inayojifunza kutokana nayo inajumuisha upendeleo.
Mfano wa kawaida wa AI ya kibaguzi ni aina ambayo inaonekana mara kwa mara katika mifumo ya utambuzi wa uso. Mifano hizi mara nyingi hufanikiwa kutambua nyuso za kiume nyeupe, lakini hazifanikiwa sana katika kutambua watu wenye ngozi nyeusi.
Mfano mwingine unaonekana katika DALL-E 2 ya OpenAI. Watumiaji wana aligundua kwamba baadhi ya vidokezo mara nyingi huzaa upendeleo wa kijinsia na rangi ambao mtindo umechukua kutoka kwa mkusanyiko wake wa picha za mtandaoni.
Kwa mfano, inapopewa kidokezo cha picha za mawakili, DALL-E 2 hurejesha picha za mawakili wa kiume. Kwa upande mwingine, kuomba picha za wahudumu wa ndege huwarudisha wanawake wahudumu wa ndege.
Ingawa inaweza kuwa haiwezekani kuondoa kabisa upendeleo kutoka kwa mifumo ya AI, tunaweza kuchukua hatua ili kupunguza athari zake. Watafiti na wahandisi wanaweza kufikia udhibiti mkubwa wa upendeleo kwa kuelewa data ya mafunzo na kuajiri timu tofauti kutoa maoni kuhusu jinsi mfumo wa AI unapaswa kufanya kazi.
Mbinu ya kubuni inayozingatia binadamu
Kanuni kwenye programu yako uipendayo zinaweza kuathiri vibaya.
Majukwaa kama vile Facebook na TikTok yanaweza kujifunza ni maudhui gani ya kutumika ili kuwaweka watumiaji kwenye majukwaa yao.
Hata bila nia ya kusababisha madhara, lengo la kuwaweka watumiaji kwenye programu yao kwa muda mrefu iwezekanavyo linaweza kusababisha matatizo ya afya ya akili. Neno 'doomscrolling' limeongezeka kwa umaarufu kama neno la kuvutia la kutumia muda mwingi kusoma habari hasi kwenye majukwaa kama vile Twitter na Facebook.
Katika hali nyingine, maudhui ya chuki na taarifa potofu hupokea jukwaa pana kwa sababu husaidia kuongeza ushiriki wa watumiaji. A utafiti 2021 kutoka kwa watafiti katika Chuo Kikuu cha New York inaonyesha kuwa machapisho kutoka kwa vyanzo vinavyojulikana kwa habari potofu hupendwa mara sita zaidi ya vyanzo vya habari vinavyotambulika.
Kanuni hizi hazipo katika mbinu ya kubuni inayozingatia binadamu. Wahandisi wanaobuni jinsi AI inavyotekeleza kitendo lazima kila wakati wakumbuke uzoefu wa mtumiaji.
Watafiti na wahandisi lazima kila wakati waulize swali: 'hii inamfaidishaje mtumiaji?'
Aina nyingi za AI hufuata mfano wa sanduku nyeusi. Sanduku nyeusi ndani mashine kujifunza inarejelea AI ambapo hakuna mwanadamu anayeweza kueleza kwa nini AI ilifikia matokeo fulani.
Sanduku nyeusi ni shida kwa sababu inapunguza kiwango cha uaminifu tunachoweza kuweka kwenye mashine.
Kwa mfano, hebu tuwazie kisa ambapo Facebook ilitoa algoriti ambayo ilisaidia serikali kuwasaka wahalifu. Ikiwa mfumo wa AI utakualamisha, hakuna mtu atakayeweza kueleza kwa nini umefanya uamuzi huo. Aina hii ya mfumo isiwe sababu pekee ya kukamatwa.
AI au XAI inayoweza kuelezeka inapaswa kurudisha orodha ya vipengele vilivyochangia matokeo ya mwisho. Tukirudi kwenye kifuatiliaji chetu cha uhalifu dhahania, tunaweza kurekebisha mfumo wa AI ili kurudisha orodha ya machapisho yanayoonyesha lugha au maneno ya kutiliwa shaka. Kuanzia hapo, mwanadamu anaweza kuthibitisha ikiwa mtumiaji aliyealamishwa anafaa kuchunguzwa au la.
XAI hutoa uwazi zaidi na uaminifu katika mifumo ya AI na inaweza kusaidia wanadamu kufanya maamuzi bora.
Hitimisho
Kama uvumbuzi wote uliotengenezwa na mwanadamu, akili ya bandia si nzuri au mbaya kwa asili. Ni jinsi tunavyotumia AI ambayo ni muhimu.
Jambo la kipekee kuhusu akili bandia ni kasi ambayo inakua. Katika miaka mitano iliyopita, tumeona uvumbuzi mpya na wa kusisimua katika nyanja ya kujifunza mashine kila siku.
Walakini, sheria sio haraka sana. Mashirika na serikali zinapoendelea kutumia AI ili kuongeza faida au kuchukua udhibiti wa raia, lazima tutafute njia za kusukuma uwazi na usawa katika matumizi ya algoriti hizi.
Je, unafikiri kweli AI yenye maadili inawezekana?
Acha Reply