Giunsa nato pagsiguro nga gamiton nato ang AI nga responsable?
Ang mga pag-uswag sa pagkat-on sa makina nagpakita nga ang mga modelo dali nga makasukod ug makaapekto sa daghang bahin sa katilingban.
Gikontrol sa mga algorithm ang newsfeed sa mga telepono sa tanan. Ang mga gobyerno ug mga korporasyon nagsugod sa paggamit sa AI sa paghimo sa mga desisyon nga nahibal-an sa datos.
Samtang ang AI nahimo nga labi nga nakagamot kung giunsa ang paglihok sa kalibutan, giunsa naton pagsiguro nga ang AI naglihok nga patas?
Niini nga artikulo, atong tan-awon ang mga hagit sa pamatasan sa paggamit sa AI ug tan-awon kung unsa ang mahimo naton aron masiguro ang responsable nga paggamit sa AI.
Unsa ang Ethical AI?
Ang Ethical AI nagtumong sa artificial intelligence nga nagsunod sa usa ka set sa ethical guidelines.
Sa laing pagkasulti, kini usa ka paagi alang sa mga indibidwal ug organisasyon nga magtrabaho kauban ang AI sa responsableng paagi.
Sa bag-ohay nga mga tuig, ang mga korporasyon nagsugod sa pagsunod sa mga balaod sa pagkapribado sa datos pagkahuman nahayag ang ebidensya sa pag-abuso ug paglapas. Sa susama, ang mga giya alang sa etikal nga AI girekomenda aron masiguro nga ang AI dili negatibo nga makaapekto sa katilingban.
Pananglitan, ang pipila ka mga matang sa AI nagtrabaho sa usa ka mapihigon nga paagi o nagpadayon sa naa na nga mga bias. Atong tagdon ang usa ka algorithm nga makatabang sa mga recruiter sa paghan-ay sa liboan ka mga resume. Kung ang algorithm gibansay sa usa ka dataset nga adunay kadaghanan nga lalaki o puti nga mga empleyado, nan posible nga ang algorithm mopabor sa mga aplikante nga nahulog sa ilawom sa mga kategorya.
Pag-establisar sa mga Prinsipyo alang sa Ethical AI
Naghunahuna kami mahitungod sa pagtukod og usa ka hugpong sa mga lagda nga ipahamtang artipisyal nga intelligence nga sulod sa mga dekada.
Bisan sa katuigang 1940, sa dihang ang labing gamhanang mga kompiyuter makahimo lamang sa labing espesyal nga siyentipikanhong mga kalkulasyon, ang mga magsusulat sa fiction sa siyensiya namalandong sa ideya sa pagkontrolar sa intelihente nga mga robot.
Si Isaac Asimov bantog nga nagmugna sa Tulo ka mga Balaod sa Robotics, nga iyang gisugyot nga gilakip sa pagprograma sa mga robot sa iyang mugbong mga istorya isip usa ka bahin sa kaluwasan.
Kini nga mga balaod nahimong sukaranan sa daghang umaabot nga mga istorya sa sci-fi ug nagpahibalo pa gani sa aktuwal nga mga pagtuon sa etika sa AI.
Sa kontemporaryong panukiduki, ang mga tigdukiduki sa AI nagtan-aw sa mas gipasukad nga mga gigikanan aron magtukod usa ka lista sa mga prinsipyo alang sa etikal nga AI.
Tungod kay ang AI sa katapusan makaapekto sa kinabuhi sa tawo, kinahanglan nga adunay sukaranan nga pagsabut kung unsa ang kinahanglan ug dili kinahanglan buhaton.
Ang Belmont Report
Alang sa usa ka reference point, ang mga tigdukiduki sa etika nagtan-aw sa Belmont Report isip usa ka giya. Ang Taho sa Belmont maoy usa ka dokumento nga gipatik sa US National Institutes of Health niadtong 1979. Ang mga biomedical nga kabangis nga gihimo sa WW2 misangpot sa pagduso sa paghimog balaod sa etikal nga mga giya alang sa mga tigdukiduki nga nagpraktis sa medisina.
Ania ang tulo ka sukaranan nga mga baruganan nga gihisgutan sa taho:
- Pagrespeto sa mga tawo
- Kaayohan
- Hustisya
Ang unang prinsipal nagtumong sa pagtuboy sa dignidad ug awtonomiya sa tanang tawhanong sakop. Pananglitan, ang mga tigdukiduki kinahanglan nga maminusan ang paglimbong sa mga partisipante ug kinahanglan nga mangayo sa matag tawo sa paghatag sa ilang klaro nga pagtugot.
Ang ikaduha nga prinsipyo, beneficence, nagtutok sa katungdanan sa tigdukiduki sa pagpamenos sa posibleng kadaot sa mga partisipante. Kini nga prinsipyo naghatag sa mga tigdukiduki sa katungdanan sa pagbalanse sa ratio sa indibidwal nga mga risgo ngadto sa potensyal nga sosyal nga mga benepisyo.
Hustisya, ang katapusang prinsipyo nga gilatid sa Belmont Report, nagtutok sa patas nga pag-apod-apod sa mga risgo ug benepisyo sa mga grupo nga makabenepisyo gikan sa panukiduki. Ang mga tigdukiduki adunay katungdanan sa pagpili sa mga hilisgutan sa panukiduki gikan sa mas lapad nga populasyon. Ang pagbuhat sa ingon makapamenos sa indibidwal ug sistematikong pagpihig nga mahimong negatibong makaapekto sa katilingban.
Pagbutang sa Etika sa AI Research
Samtang ang Belmont Report panguna nga gipunting sa panukiduki nga naglambigit sa mga hilisgutan sa tawo, ang mga prinsipyo igo nga lapad aron magamit sa natad sa pamatasan sa AI.
Ang Big Data nahimong usa ka bililhon nga kapanguhaan sa natad sa artificial intelligence. Ang mga proseso nga nagtino kung giunsa pagkolekta sa mga tigdukiduki ang datos kinahanglan nga magsunod sa mga panudlo sa pamatasan.
Ang pagpatuman sa mga balaod sa pagkapribado sa datos sa kadaghanan sa mga nasud medyo nagbutang ug limitasyon sa kung unsa ang makolekta ug magamit sa mga kompanya sa datos. Bisan pa, ang kadaghanan sa mga nasud adunay usa ka sukaranan nga hugpong sa mga balaod nga gipahimutang aron mapugngan ang paggamit sa AI aron makadaot.
Giunsa ang Pagtrabaho kauban ang AI sa Ethically
Ania ang pipila ka mahinungdanong mga konsepto nga makatabang sa pagtrabaho ngadto sa mas etikal ug responsable nga paggamit sa AI.
Pagkontrol sa Bias
Ang artificial intelligence dili kay neyutral. Ang mga algorithm kanunay nga daling madala sa gisukip nga pagpihig ug diskriminasyon tungod kay ang datos nga nakat-unan niini naglakip sa pagpihig.
Usa ka sagad nga pananglitan sa diskriminasyon nga AI mao ang tipo nga kanunay nga makita sa mga sistema sa pag-ila sa nawong. Kini nga mga modelo kasagaran molampos sa pag-ila sa puti nga mga nawong sa lalaki, apan dili kaayo malampuson sa pag-ila sa mga tawo nga adunay mas itom nga panit.
Ang laing pananglitan makita sa DALL-E 2 sa OpenAI. Ang mga tiggamit adunay nadiskobrehan nga ang pipila nga mga pag-aghat kanunay nga nagbag-o sa gender ug racial biases nga nakuha sa modelo gikan sa mga datos sa mga imahe sa online.
Pananglitan, kung gihatagan og aghat alang sa mga imahe sa mga abogado, ang DALL-E 2 nagbalik sa mga imahe sa mga lalaki nga abogado. Sa laing bahin, ang pagpangayo og mga hulagway sa mga flight attendant nagbalik kasagaran mga babaye nga flight attendant.
Bisan kung imposible nga hingpit nga matangtang ang bias gikan sa mga sistema sa AI, makahimo kami mga lakang aron maminusan ang mga epekto niini. Makab-ot sa mga tigdukiduki ug mga inhenyero ang labi nga pagkontrol sa bias pinaagi sa pagsabut sa datos sa pagbansay ug pag-hire og lainlain nga team aron maghatag input kung giunsa ang sistema sa AI molihok.
Disenyo nga nakasentro sa tawo nga pamaagi
Ang mga algorithm sa imong paboritong app mahimong negatibong makaapekto kanimo.
Ang mga platform sama sa Facebook ug TikTok makakat-on kung unsa nga sulud ang isilbi aron mapadayon ang mga tiggamit sa ilang mga platform.
Bisan kung wala’y katuyoan nga magpahinabog kadaot, ang katuyoan nga ipadayon ang mga tiggamit sa ilang app hangtod sa mahimo mahimo’g mosangput sa mga isyu sa kahimsog sa pangisip. Ang termino nga 'doomscrolling' misaka sa pagkapopular ingon ang catch-all nga termino alang sa paggasto sa sobra nga oras sa pagbasa sa negatibo nga mga balita sa mga plataporma sama sa Twitter ug Facebook.
Sa ubang mga kaso, ang madumtanon nga sulod ug sayop nga impormasyon makadawat sa usa ka mas lapad nga plataporma tungod kay kini makatabang sa pagdugang sa user engagement. A 2021 pagtuon gikan sa mga tigdukiduki sa New York University nagpakita nga ang mga post gikan sa mga tinubdan nga nahibal-an sa sayop nga impormasyon makakuha og unom ka pilo nga mas gusto kaysa inila nga mga tinubdan sa balita.
Kini nga mga algorithm kulang sa usa ka pamaagi sa disenyo nga nakasentro sa tawo. Ang mga inhenyero nga nagdesinyo kung giunsa paghimo sa usa ka AI ang usa ka aksyon kinahanglan kanunay nga ibutang sa hunahuna ang kasinatian sa gumagamit.
Ang mga tigdukiduki ug mga inhenyero kinahanglan kanunay nga mangutana sa pangutana: 'sa unsang paagi kini nakabenepisyo sa tiggamit?'
Kadaghanan sa mga modelo sa AI nagsunod sa modelo nga itom nga kahon. Usa ka itom nga kahon sa pagkat-on sa makina nagtumong sa usa ka AI diin walay tawo nga makapatin-aw nganong ang AI miabut sa usa ka partikular nga resulta.
Ang mga itom nga kahon adunay problema tungod kay kini nagpamenos sa kantidad sa pagsalig nga mahimo naton ibutang sa mga makina.
Pananglitan, atong mahanduraw ang usa ka senaryo diin ang Facebook nagpagawas sa usa ka algorithm nga nakatabang sa mga gobyerno sa pagsubay sa mga kriminal. Kung ang sistema sa AI nag-flag kanimo, wala’y makapatin-aw kung ngano nga nahimo kini nga desisyon. Kini nga matang sa sistema kinahanglan dili mao ang bugtong hinungdan ngano nga kinahanglan kang dakpon.
Ang mapatin-aw nga AI o XAI kinahanglan nga ibalik ang usa ka lista sa mga hinungdan nga nakatampo sa katapusan nga resulta. Pagbalik sa among hypothetical criminal tracker, mahimo namong i-tweak ang AI system aron ibalik ang listahan sa mga post nga nagpakita sa kadudahang pinulongan o termino. Gikan didto, mapamatud-an sa usa ka tawo kung ang gi-flag nga tiggamit angayan nga imbestigahan o dili.
Ang XAI naghatag ug dugang nga transparency ug pagsalig sa mga sistema sa AI ug makatabang sa mga tawo sa paghimog mas maayong mga desisyon.
Panapos
Sama sa tanan nga hinimo sa tawo nga mga imbensyon, ang artificial intelligence dili kinaiyanhon nga maayo o daotan. Ang paagi nga atong gigamit ang AI ang hinungdanon.
Unsa ang talagsaon bahin sa artificial intelligence mao ang paspas nga pagtubo niini. Sa miaging lima ka tuig, nakakita kami og bag-o ug makapahinam nga mga diskobre sa natad sa pagkat-on sa makina kada adlaw.
Apan, ang balaod dili ingon kadali. Samtang ang mga korporasyon ug gobyerno nagpadayon sa paggamit sa AI aron mapadako ang kita o makuha ang kontrol sa mga lungsuranon, kinahanglan nga mangita kita mga paagi aron maduso ang transparency ug patas sa paggamit niini nga mga algorithm.
Sa imong hunahuna posible ba ang tinuod nga etikal nga AI?
Leave sa usa ka Reply