Paano natin matitiyak na responsable ang paggamit ng AI?
Ang mga pag-unlad sa machine learning ay nagpapakita na ang mga modelo ay maaaring mabilis na sumukat at makakaapekto sa malaking bahagi ng lipunan.
Kinokontrol ng mga algorithm ang newsfeed sa mga telepono ng lahat. Ang mga pamahalaan at mga korporasyon ay nagsisimula nang gumamit ng AI upang gumawa ng mga desisyon na batay sa data.
Habang ang AI ay nagiging higit na nakatanim sa kung paano gumagana ang mundo, paano natin matitiyak na ang AI ay kumikilos nang patas?
Sa artikulong ito, titingnan natin ang mga etikal na hamon ng paggamit ng AI at tingnan kung ano ang magagawa natin para matiyak ang responsableng paggamit ng AI.
Ano ang Ethical AI?
Ang etikal na AI ay tumutukoy sa artificial intelligence na sumusunod sa isang tiyak na hanay ng mga etikal na alituntunin.
Sa madaling salita, ito ay isang paraan para sa mga indibidwal at organisasyon na magtrabaho kasama ang AI sa isang responsableng paraan.
Sa mga nakalipas na taon, nagsimulang manatili ang mga korporasyon sa mga batas sa privacy ng data pagkatapos mahayag ang ebidensya ng pang-aabuso at paglabag. Katulad nito, ang mga alituntunin para sa etikal na AI ay inirerekomenda upang matiyak na ang AI ay hindi negatibong nakakaapekto sa lipunan.
Halimbawa, gumagana ang ilang uri ng AI sa paraang may kinikilingan o nagpapanatili ng mga umiiral nang bias. Isaalang-alang natin ang isang algorithm na tumutulong sa mga recruiter na ayusin ang libu-libong resume. Kung ang algorithm ay sinanay sa isang dataset na may karamihan sa mga lalaki o puting empleyado, posibleng paboran ng algorithm ang mga aplikanteng nasa ilalim ng mga kategoryang iyon.
Pagtatatag ng Mga Prinsipyo para sa Etikal na AI
Naisip namin ang tungkol sa pagtatatag ng isang hanay ng mga panuntunang ipapataw artificial intelligence para sa mga dekada.
Kahit noong 1940s, kapag ang pinakamakapangyarihang mga computer ay maaari lamang gumawa ng pinaka-espesyalisadong siyentipikong mga kalkulasyon, pinag-isipan ng mga manunulat ng science fiction ang ideya ng pagkontrol sa mga matatalinong robot.
Si Isaac Asimov ay tanyag na nilikha ang Tatlong Batas ng Robotics, na iminungkahi niya ay naka-embed sa programming ng mga robot sa kanyang mga maikling kwento bilang isang tampok na pangkaligtasan.
Ang mga batas na ito ay naging sandigan sa maraming mga kuwento sa sci-fi sa hinaharap at nakapagbigay pa ng kaalaman sa mga aktwal na pag-aaral sa etika ng AI.
Sa kontemporaryong pananaliksik, ang mga mananaliksik ng AI ay tumitingin sa mas maraming batayan na mapagkukunan upang magtatag ng isang listahan ng mga prinsipyo para sa etikal na AI.
Dahil ang AI sa huli ay makakaapekto sa buhay ng tao, dapat tayong magkaroon ng pangunahing pag-unawa sa kung ano ang dapat at hindi dapat nating gawin.
Ang Report ng Belmont
Para sa isang sanggunian, tinitingnan ng mga mananaliksik ng etika ang Belmont Report bilang gabay. Ang Ulat ng Belmont ay isang dokumento na inilathala ng US National Institutes of Health noong 1979. Ang mga biomedical na kalupitan na isinagawa noong WW2 ay humantong sa isang pagtulak na isabatas ang mga alituntuning etikal para sa mga mananaliksik na nagsasanay ng medisina.
Narito ang tatlong pangunahing prinsipyo na binanggit sa ulat:
- Paggalang sa mga tao
- Pagkabenta
- Katarungan
Ang unang punong-guro ay naglalayong itaguyod ang dignidad at awtonomiya ng lahat ng mga paksa ng tao. Halimbawa, dapat bawasan ng mga mananaliksik ang panlilinlang sa mga kalahok at dapat na hilingin sa bawat tao na magbigay ng kanilang tahasang pagpayag.
Ang pangalawang prinsipyo, beneficence, ay nakatuon sa tungkulin ng mananaliksik na bawasan ang potensyal na pinsala sa mga kalahok. Ang prinsipyong ito ay nagbibigay sa mga mananaliksik ng tungkulin na balansehin ang ratio ng mga indibidwal na panganib sa mga potensyal na benepisyong panlipunan.
Ang hustisya, ang huling prinsipyong inilatag ng Belmont Report, ay nakatuon sa pantay na pamamahagi ng mga panganib at benepisyo sa mga grupong maaaring makinabang mula sa pananaliksik. Ang mga mananaliksik ay may tungkulin na pumili ng mga paksa ng pananaliksik mula sa mas malawak na populasyon. Ang paggawa nito ay mababawasan ang mga indibidwal at sistematikong pagkiling na maaaring negatibong makaapekto sa lipunan.
Paglalagay ng Etika sa AI Research
Habang ang Belmont Report ay pangunahing naka-target sa pananaliksik na kinasasangkutan ng mga paksa ng tao, ang mga prinsipyo ay sapat na malawak upang mailapat sa larangan ng etika ng AI.
Ang Big Data ay naging isang mahalagang mapagkukunan sa larangan ng artificial intelligence. Ang mga prosesong tumutukoy kung paano nangongolekta ng data ang mga mananaliksik ay dapat sumunod sa mga alituntuning etikal.
Ang pagpapatupad ng mga batas sa privacy ng data sa karamihan ng mga bansa ay medyo naglalagay ng limitasyon sa kung ano ang maaaring kolektahin at gamitin ng mga kumpanya ng data. Gayunpaman, ang karamihan sa mga bansa ay mayroon pa ring panimulang hanay ng mga batas upang maiwasan ang paggamit ng AI upang magdulot ng pinsala.
Paano Makipagtulungan sa AI sa Etikal
Narito ang ilang pangunahing konsepto na makakatulong sa paggawa tungo sa mas etikal at responsableng paggamit ng AI.
Kontrol para sa Bias
Ang artificial intelligence ay hindi likas na neutral. Ang mga algorithm ay palaging madaling kapitan sa ipinasok na bias at diskriminasyon dahil ang data na natutunan nito ay may kasamang bias.
Ang karaniwang halimbawa ng discriminatory AI ay ang uri na madalas na lumalabas sa mga facial recognition system. Ang mga modelong ito ay kadalasang nagtatagumpay sa pagtukoy ng mga puting mukha ng lalaki, ngunit hindi gaanong matagumpay sa pagkilala sa mga taong may mas maitim na balat.
Ang isa pang halimbawa ay lilitaw sa OpenAI's DALL-E 2. Ang mga gumagamit ay may Natuklasan na ang ilang partikular na senyas ay kadalasang naglalabas ng mga bias sa kasarian at lahi na nakuha ng modelo mula sa dataset ng mga online na larawan.
Halimbawa, kapag binigyan ng prompt para sa mga larawan ng mga abogado, ang DALL-E 2 ay nagbabalik ng mga larawan ng mga lalaking abogado. Sa kabilang banda, ang paghiling ng mga larawan ng mga flight attendant ay nagbabalik karamihan sa mga babaeng flight attendant.
Bagama't maaaring imposibleng ganap na alisin ang pagkiling sa mga AI system, maaari tayong gumawa ng mga hakbang upang mabawasan ang mga epekto nito. Makakamit ng mga mananaliksik at inhinyero ang higit na kontrol sa pagkiling sa pamamagitan ng pag-unawa sa data ng pagsasanay at pagkuha ng magkakaibang koponan upang mag-alok ng input sa kung paano dapat gumana ang AI system.
Diskarte sa disenyong nakasentro sa tao
Maaaring negatibong makaapekto sa iyo ang mga algorithm sa iyong paboritong app.
Ang mga platform gaya ng Facebook at TikTok ay natututo kung anong content ang ihahatid para panatilihin ang mga user sa kanilang mga platform.
Kahit na walang intensyong magdulot ng pinsala, ang layunin na panatilihing nakadikit ang mga user sa kanilang app hangga't maaari ay maaaring humantong sa mga isyu sa kalusugan ng isip. Ang terminong 'doomscrolling' ay tumaas sa katanyagan bilang ang catch-all na termino para sa paggastos ng labis na dami ng oras sa pagbabasa ng mga negatibong balita sa mga platform tulad ng Twitter at Facebook.
Sa ibang mga kaso, nakakatanggap ng mas malawak na platform ang mapoot na content at maling impormasyon dahil nakakatulong ito na mapataas ang pakikipag-ugnayan ng user. A 2021 pag-aaral mula sa mga mananaliksik sa New York University ay nagpapakita na ang mga post mula sa mga source na kilala para sa maling impormasyon ay nakakakuha ng anim na beses na mas maraming like kaysa sa mga reputable na source ng balita.
Ang mga algorithm na ito ay kulang sa isang diskarte sa disenyo na nakasentro sa tao. Ang mga inhinyero na nagdidisenyo kung paano gumaganap ang isang AI ng isang aksyon ay dapat palaging isaisip ang karanasan ng user.
Dapat palaging itanong ng mga mananaliksik at inhinyero ang tanong na: 'paano ito nakikinabang sa gumagamit?'
Karamihan sa mga modelo ng AI ay sumusunod sa isang modelo ng black box. Isang itim na kahon ang pumasok machine learning ay tumutukoy sa isang AI kung saan walang tao ang makapagpaliwanag kung bakit nakarating ang AI sa isang partikular na resulta.
Ang mga black box ay may problema dahil binabawasan nito ang tiwala na maaari nating ilagay sa mga makina.
Halimbawa, isipin natin ang isang senaryo kung saan naglabas ang Facebook ng algorithm na tumulong sa mga pamahalaan na masubaybayan ang mga kriminal. Kung na-flag ka ng AI system, walang makakapagpaliwanag kung bakit ginawa ang desisyong iyon. Ang ganitong uri ng sistema ay hindi dapat ang tanging dahilan kung bakit dapat kang arestuhin.
Ang maipaliwanag na AI o XAI ay dapat magbalik ng listahan ng mga salik na nag-ambag sa huling resulta. Pagbabalik sa aming hypothetical criminal tracker, maaari naming i-tweak ang AI system para magbalik ng listahan ng mga post na nagpapakita ng kahina-hinalang wika o mga termino. Mula doon, maaaring i-verify ng isang tao kung ang na-flag na user ay nagkakahalaga ng pagsisiyasat o hindi.
Nagbibigay ang XAI ng higit na transparency at tiwala sa mga AI system at makakatulong sa mga tao na gumawa ng mas mahusay na mga desisyon.
Konklusyon
Tulad ng lahat ng gawa ng tao na imbensyon, ang artificial intelligence ay hindi likas na mabuti o masama. Ang paraan ng paggamit natin ng AI ang mahalaga.
Ang kakaiba sa artificial intelligence ay ang bilis ng paglaki nito. Sa nakalipas na limang taon, nakakita kami ng mga bago at kapana-panabik na pagtuklas sa larangan ng machine learning araw-araw.
Gayunpaman, ang batas ay hindi kasing bilis. Habang patuloy na ginagamit ng mga korporasyon at gobyerno ang AI para mapakinabangan ang mga kita o kunin ang kontrol ng mga mamamayan, dapat tayong maghanap ng mga paraan upang itulak ang transparency at equity sa paggamit ng mga algorithm na ito.
Sa tingin mo, posible ba ang tunay na etikal na AI?
Mag-iwan ng Sagot