Kako možemo biti sigurni da koristimo AI odgovorno?
Napredak u mašinskom učenju pokazuje da se modeli mogu brzo povećati i uticati na veliki dio društva.
Algoritmi kontrolišu newsfeed na svačijim telefonima. Vlade i korporacije počinju da koriste veštačku inteligenciju za donošenje odluka na osnovu podataka.
Kako umjetna inteligencija postaje sve više ukorijenjena u načinu na koji svijet funkcionira, kako možemo osigurati da AI djeluje pravedno?
U ovom članku ćemo razmotriti etičke izazove korištenja umjetne inteligencije i vidjeti što možemo učiniti da osiguramo odgovornu upotrebu umjetne inteligencije.
Šta je etička umjetna inteligencija?
Etička AI se odnosi na umjetnu inteligenciju koja se pridržava određenog skupa etičkih smjernica.
Drugim riječima, to je način da pojedinci i organizacije rade sa AI na odgovoran način.
Posljednjih godina, korporacije su se počele pridržavati zakona o privatnosti podataka nakon što su se pojavili dokazi o zloupotrebi i kršenju podataka. Slično tome, preporučuju se smjernice za etičku umjetnu inteligenciju kako bi se osiguralo da AI ne utiče negativno na društvo.
Na primjer, neke vrste AI rade na pristrasan način ili održavaju već postojeće predrasude. Hajde da razmotrimo algoritam koji pomaže regruterima da sortiraju hiljade životopisa. Ako je algoritam obučen na skupu podataka s pretežno muškim ili bijelim zaposlenima, onda je moguće da će algoritam favorizirati kandidate koji potpadaju pod te kategorije.
Uspostavljanje principa za etičku umjetnu inteligenciju
Razmišljali smo o uspostavljanju skupa pravila za nametanje umjetne inteligencije decenijama.
Čak i tokom 1940-ih, kada su najmoćniji kompjuteri mogli da vrše samo najspecijalizovanije naučne proračune, pisci naučne fantastike razmišljali su o ideji kontrole inteligentnih robota.
Isaac Asimov je čuveno skovao Tri zakona robotike, za koje je predložio da budu ugrađeni u programiranje robota u njegovim kratkim pričama kao sigurnosna karakteristika.
Ovi zakoni su postali kamen temeljac za mnoge buduće naučno-fantastične priče i čak su dali informacije o stvarnim studijama o etici AI.
U suvremenim istraživanjima, istraživači AI traže utemeljenije izvore kako bi uspostavili listu principa etičke AI.
Budući da će umjetna inteligencija na kraju utjecati na ljudske živote, moramo imati temeljno razumijevanje o tome šta bismo trebali, a šta ne treba da radimo.
Izvještaj Belmonta
Kao referentnu tačku, istraživači etike gledaju u Belmontov izvještaj kao vodič. The Belmontov izvještaj bio je dokument koji su objavili američki nacionalni instituti za zdravlje 1979. Biomedicinska zvjerstva počinjena u Drugom svjetskom ratu dovela su do guranja da se zakonski proglase etičke smjernice za istraživače koji se bave medicinom.
Evo tri temeljna principa spomenuta u izvještaju:
- Poštovanje osoba
- Dobrotvornost
- pravda
Prvi princip ima za cilj očuvanje dostojanstva i autonomije svih ljudskih subjekata. Na primjer, istraživači bi trebali svesti na najmanju moguću mjeru obmanjivanje učesnika i zahtijevati od svake osobe da da svoj izričiti pristanak.
Drugi princip, dobročinstvo, fokusira se na dužnost istraživača da smanji potencijalnu štetu za učesnike. Ovaj princip daje istraživačima dužnost da uravnoteže odnos individualnih rizika i potencijalnih društvenih koristi.
Pravda, konačni princip postavljen u Belmontovom izvještaju, fokusira se na jednaku raspodjelu rizika i koristi među grupama koje bi mogle imati koristi od istraživanja. Istraživači imaju dužnost da biraju subjekte istraživanja iz šire populacije. To bi smanjilo individualne i sistemske predrasude koje bi mogle negativno uticati na društvo.
Postavljanje etike u istraživanje umjetne inteligencije
Dok je Belmontov izvještaj prvenstveno bio usmjeren na istraživanja koja su uključivala ljude, principi su bili dovoljno široki da se primjenjuju na polje etike umjetne inteligencije.
Big Data je postao vrijedan resurs u području umjetne inteligencije. Procesi koji određuju kako istraživači prikupljaju podatke trebaju slijediti etičke smjernice.
Implementacija zakona o privatnosti podataka u većini zemalja donekle postavlja ograničenje na to koje kompanije podataka mogu prikupljati i koristiti. Međutim, većina nacija još uvijek ima rudimentarni set zakona koji sprječavaju korištenje AI za nanošenje štete.
Kako etički raditi sa AI
Evo nekoliko ključnih koncepata koji mogu pomoći u radu na etičnijoj i odgovornijoj upotrebi AI.
Kontrola za pristrasnost
Umjetna inteligencija nije inherentno neutralna. Algoritmi su uvijek podložni umetnutoj pristranosti i diskriminaciji jer podaci iz kojih uči uključuju pristrasnost.
Čest primjer diskriminatorne AI je tip koji se često pojavljuje u sistemima za prepoznavanje lica. Ovi modeli često uspijevaju identificirati bijela muška lica, ali su manje uspješni u prepoznavanju ljudi tamnije puti.
Drugi primjer se pojavljuje u OpenAI-jevom DALL-E 2. Korisnici imaju otkrili da određeni poticaji često reproduciraju rodne i rasne predrasude koje je model pokupio iz svog skupa podataka online slika.
Na primjer, kada se dobije upit za slike advokata, DALL-E 2 vraća slike muških advokata. S druge strane, traženjem slika stjuardesa vraćaju se uglavnom žene stjuardese.
Iako je možda nemoguće u potpunosti ukloniti pristrasnost iz AI sistema, možemo poduzeti korake da minimiziramo njegove efekte. Istraživači i inženjeri mogu postići veću kontrolu predrasuda razumijevanjem podataka o obuci i angažiranjem raznolikog tima koji će ponuditi inpute o tome kako bi AI sistem trebao raditi.
Pristup dizajnu usmjeren na čovjeka
Algoritmi na vašoj omiljenoj aplikaciji mogu negativno utjecati na vas.
Platforme kao što su Facebook i TikTok su u mogućnosti da nauče koji sadržaj služe kako bi zadržali korisnike na svojim platformama.
Čak i bez namjere da se nanese šteta, cilj da korisnici ostanu prikovani za svoju aplikaciju što je duže moguće može dovesti do problema s mentalnim zdravljem. Izraz 'doomscrolling' postao je sve popularniji kao sveobuhvatni termin za trošenje pretjerane količine vremena čitajući negativne vijesti na platformama kao što su Twitter i Facebook.
U drugim slučajevima, sadržaj mržnje i dezinformacije dobijaju širu platformu jer pomažu u povećanju angažmana korisnika. A 2021 studija Istraživači sa Univerziteta u Njujorku pokazuju da objave iz izvora poznatih po dezinformacijama dobijaju šest puta više lajkova od renomiranih izvora vesti.
Ovi algoritmi nedostaju u pristupu dizajna usmjerenom na čovjeka. Inženjeri koji dizajniraju način na koji AI izvodi radnju moraju uvijek imati na umu korisničko iskustvo.
Istraživači i inženjeri uvijek moraju postavljati pitanje: 'kako ovo koristi korisniku?'
Većina AI modela slijedi model crne kutije. Crna kutija unutra mašinsko učenje odnosi se na AI gdje nijedan čovjek ne može objasniti zašto je AI došao do određenog rezultata.
Crne kutije su problematične jer smanjuju količinu povjerenja koje možemo uložiti u mašine.
Na primjer, zamislimo scenario u kojem je Facebook objavio algoritam koji je pomogao vladama da uđu u trag kriminalcima. Ako vas sistem veštačke inteligencije označi, niko neće moći da objasni zašto je doneo tu odluku. Ova vrsta sistema ne bi trebao biti jedini razlog zašto bi trebali biti uhapšeni.
Objašnjiva AI ili XAI bi trebala vratiti listu faktora koji su doprinijeli konačnom rezultatu. Vraćajući se na naš hipotetički kriminalistički tragač, možemo podesiti AI sistem da vrati listu postova koji pokazuju sumnjiv jezik ili termine. Odatle, čovjek može provjeriti da li je označeni korisnik vrijedan istrage ili ne.
XAI pruža više transparentnosti i povjerenja u AI sisteme i može pomoći ljudima da donesu bolje odluke.
zaključak
Kao i svi izumi koje je napravio čovjek, umjetna inteligencija nije sama po sebi dobra ili loša. Važan je način na koji koristimo AI.
Ono što je jedinstveno kod umjetne inteligencije je tempo kojim raste. U proteklih pet godina svakodnevno smo viđali nova i uzbudljiva otkrića u oblasti mašinskog učenja.
Međutim, zakon nije tako brz. Kako korporacije i vlade nastavljaju da koriste umjetnu inteligenciju kako bi maksimizirali profit ili preuzeli kontrolu nad građanima, moramo pronaći načine da podstaknemo transparentnost i pravičnost u korištenju ovih algoritama.
Mislite li da je istinski etička umjetna inteligencija moguća?
Ostavite odgovor