Daptar eusi[Sumputkeun][Témbongkeun]
Kumaha urang mastikeun yén urang ngagunakeun AI sacara tanggung jawab?
Kamajuan dina pembelajaran mesin nunjukkeun yén modél tiasa gancang skala sareng mangaruhan sabagian ageung masarakat.
Algoritma ngadalikeun newsfeed dina telepon dulur urang. Pamaréntah sareng korporasi mimiti ngagunakeun AI pikeun nyandak kaputusan dumasar kana data.
Nalika AI janten langkung teras-terasan dina kumaha dunya beroperasi, kumaha urang mastikeun yén AI ngalaksanakeun sacara adil?
Dina tulisan ieu, urang bakal ningali kana tantangan étika ngagunakeun AI sareng ningali naon anu urang tiasa laksanakeun pikeun mastikeun panggunaan AI anu tanggung jawab.
Naon ari Etika AI?
AI etika ngarujuk kana intelijen buatan anu patuh kana sakumpulan pedoman etika.
Kalayan kecap sanésna, éta mangrupikeun cara pikeun individu sareng organisasi pikeun damel sareng AI sacara tanggung jawab.
Dina taun-taun ayeuna, korporasi mimiti nempel kana undang-undang privasi data saatos bukti nyiksa sareng ngalanggar. Nya kitu, tungtunan pikeun AI etika disarankeun pikeun mastikeun yén AI henteu mangaruhan négatif masarakat.
Salaku conto, sababaraha jinis AI dianggo dina cara bias atanapi perpetuate biases geus aya. Hayu urang nganggap hiji algoritma nu mantuan recruiters nyortir ngaliwatan rébuan neruskeun. Upami algoritma éta dilatih dina set data sareng seueur karyawan lalaki atanapi bodas, maka kamungkinan algoritma éta bakal langkung milih pelamar anu kalebet dina kategori éta.
Ngadegkeun Prinsip pikeun AI Etika
Kami geus mikir ngeunaan ngadegkeun sakumpulan aturan pikeun maksakeun kacerdasan buatan keur puluhan.
Malah dina 1940s, nalika komputer pangkuatna ngan bisa ngalakukeun itungan ilmiah paling husus, panulis fiksi ilmiah geus pondered leuwih gagasan ngadalikeun robot calakan.
Isaac Asimov kasohor nyiptakeun Tilu Hukum Robotika, anu anjeunna usulkeun dilebetkeun kana program robot dina carita pondokna salaku fitur kaamanan.
Undang-undang ieu parantos janten toél pikeun seueur carita sci-fi anu bakal datang sareng bahkan parantos nginpokeun kajian anu saleresna ngeunaan étika AI.
Dina panilitian kontemporer, panalungtik AI milarian sumber anu langkung dasar pikeun ngadamel daptar prinsip pikeun AI etika.
Kusabab AI pamustunganana bakal mangaruhan kahirupan manusa, urang kedah gaduh pamahaman dasar naon anu kedah sareng henteu kedah urang laksanakeun.
The Belmont Laporan
Pikeun titik rujukan, peneliti etika ningali kana Laporan Belmont salaku pituduh. The Laporan Belmont éta hiji dokumen diterbitkeun ku National Institutes of Kaséhatan AS di 1979. Atrocities biomédis dipigawé dina WW2 ngarah ka push mun legislate tungtunan etika pikeun peneliti practicing ubar.
Ieu tilu prinsip dasar anu disebatkeun dina laporan:
- Hormat pikeun jalma
- Kauntungannana
- kaadilan
Pokona anu kahiji boga tujuan pikeun ngajungjung harkat jeung otonomi sakumna umat manusa. Contona, panalungtik kudu ngaleutikan deceiving pamilon sarta kudu merlukeun unggal jalma pikeun masihan idin eksplisit maranéhanana.
Prinsip kadua, beneficence, museurkeun kana tugas panalungtik pikeun ngaleutikan poténsi ngarugikeun ka pamilon. Prinsip ieu masihan panalungtik kawajiban pikeun nyaimbangkeun rasio résiko individu pikeun kauntungan sosial poténsial.
Kaadilan, prinsip ahir anu ditetepkeun ku Laporan Belmont, museurkeun kana distribusi résiko sareng kauntungan anu sami pikeun kelompok anu tiasa nyandak kauntungan tina panalungtikan. Panalungtik boga kawajiban pikeun milih subjék panalungtikan ti populasi nu leuwih lega. Lakukeun kitu bakal ngaminimalkeun bias individu sareng sistemik anu tiasa mangaruhan négatip masarakat.
Nempatkeun Etika dina Panalungtikan AI
Nalika Laporan Belmont utamina ditargetkeun pikeun panalungtikan anu ngalibetkeun subjek manusa, prinsipna cukup lega pikeun dilarapkeun kana widang étika AI.
Big Data geus jadi sumberdaya berharga dina widang kecerdasan jieunan. Prosés anu nangtukeun kumaha panalungtik ngumpulkeun data kudu nuturkeun tungtunan etika.
Palaksanaan undang-undang privasi data di kalolobaan nagara rada ngawatesan naon anu tiasa dikumpulkeun sareng dianggo ku perusahaan data. Nanging, seuseueurna bangsa masih gaduh set hukum dasar pikeun nyegah panggunaan AI pikeun nyababkeun cilaka.
Kumaha Gawé sareng AI Ethically
Ieu sababaraha konsép konci anu tiasa ngabantosan dianggo kana panggunaan AI anu langkung étika sareng tanggung jawab.
Kontrol pikeun bias
Kecerdasan jieunan teu inherently nétral. Algoritma sok rentan kana bias diselapkeun sareng diskriminasi sabab data anu diajarna kalebet bias.
Conto umum AI diskriminatif nyaéta jinis anu sering muncul dina sistem pangenal raray. Modél ieu mindeng sukses dina identifying raray lalaki bodas, tapi kirang suksés di recognizing jalma kalawan kulit darker.
conto sejen nembongan dina OpenAI urang DALL-E 2. Pamaké boga kapanggih yén prompts tangtu mindeng baranahan gender jeung biases ras nu model geus ngajemput on tina dataset na gambar online.
Salaku conto, nalika dibéré ajakan pikeun gambar pengacara, DALL-E 2 mulihkeun gambar pengacara lalaki. Di sisi séjén, requesting pikeun gambar pramugari mulih lolobana awéwé pramugari.
Sanaos mustahil pikeun ngaleungitkeun bias tina sistem AI, urang tiasa nyandak léngkah-léngkah pikeun ngaleutikan épékna. Panaliti sareng insinyur tiasa ngahontal kadali bias anu langkung ageung ku ngartos data pelatihan sareng nyewa tim anu rupa-rupa pikeun nawiskeun input ngeunaan kumaha sistem AI kedah jalan.
pendekatan design manusa-dipuseurkeun
Algoritma dina aplikasi karesep anjeun tiasa mangaruhan négatip anjeun.
Platform sapertos Facebook sareng TikTok tiasa diajar eusi naon anu kedah dilayanan pikeun ngajaga pangguna dina platformna.
Sanaos henteu aya niat nimbulkeun cilaka, tujuan pikeun ngajaga pangguna tetep dina aplikasina salami mungkin tiasa nyababkeun masalah kaséhatan méntal. Istilah 'doomscrolling' parantos naék popularitasna salaku istilah anu nyekel-sadayana pikeun nyéépkeun waktos kaleuleuwihan maca warta négatip dina platform sapertos Twitter sareng Facebook.
Dina kasus séjén, eusi hate jeung misinformation narima platform lega sabab mantuan ngaronjatkeun Dursasana pamaké. A ulikan 2021 ti peneliti di New York University nunjukeun yen tulisan ti sumber dipikawanoh pikeun misinformation meunang genep kali leuwih likes ti sumber warta reputable.
Algoritma ieu kurang dina pendekatan desain anu dipuseurkeun ku manusa. Insinyur anu ngarancang kumaha AI ngalaksanakeun tindakan kedah salawasna ngémutan pangalaman pangguna.
Panaliti sareng insinyur kedah teras-terasan naroskeun patarosan: 'kumaha ieu mangpaat pikeun pangguna?'
Paling model AI nuturkeun model kotak hideung. Hiji kotak hideung dina learning mesin ngarujuk kana AI dimana teu aya manusa anu tiasa ngajelaskeun naha AI dugi ka hasil anu tangtu.
Kotak hideung aya masalah sabab ngirangan jumlah kapercayaan anu tiasa urang pasang dina mesin.
Salaku conto, hayu urang bayangkeun skenario dimana Facebook ngaluarkeun algoritma anu ngabantosan pamaréntahan ngalacak penjahat. Upami sistem AI nunjukkeun anjeun, moal aya anu tiasa ngajelaskeun naha éta nyandak kaputusan éta. Jenis sistem ieu henteu janten hiji-hijina alesan naha anjeun kedah ditéwak.
AI atanapi XAI anu tiasa dijelaskeun kedah ngabalikeun daptar faktor anu nyumbang kana hasil ahir. Balik deui ka tracker kriminal hypothetical urang, urang bisa tweak sistem AI pikeun balik daptar tulisan némbongkeun basa atawa istilah curiga. Ti dinya, manusa bisa pariksa naha pamaké flagged patut nalungtik atanapi henteu.
XAI nyayogikeun langkung transparansi sareng kapercayaan kana sistem AI sareng tiasa ngabantosan manusa nyandak kaputusan anu langkung saé.
kacindekan
Kawas sakabeh pamanggihan jieunan manusa, kecerdasan jieunan teu inherently alus atawa goréng. Éta cara urang ngagunakeun AI anu penting.
Anu unik ngeunaan intelijen jieunan nyaéta laju ngembangna. Dina lima taun katukang, urang ningali panemuan anyar sareng seru dina widang pembelajaran mesin unggal dinten.
Sanajan kitu, hukum teu gancang. Nalika korporasi sareng pamaréntahan terus ngungkit AI pikeun maksimalkeun kauntungan atanapi ngarebut kontrol warga, urang kedah milarian cara pikeun nyorong transparansi sareng ekuitas dina ngagunakeun algoritma ieu.
Naha anjeun pikir AI anu leres-leres etika mungkin?
Leave a Reply