Kako možemo biti sigurni da AI koristimo odgovorno?
Napredak u strojnom učenju pokazuje da se modeli mogu brzo skalirati i utjecati na veliki dio društva.
Algoritmi kontroliraju newsfeed na svačijim telefonima. Vlade i korporacije počinju koristiti AI za donošenje odluka na temelju podataka.
Kako AI postaje sve dublje ukorijenjen u način na koji svijet funkcionira, kako možemo biti sigurni da AI djeluje pošteno?
U ovom ćemo članku razmotriti etičke izazove korištenja umjetne inteligencije i vidjeti što možemo učiniti kako bismo osigurali odgovornu upotrebu umjetne inteligencije.
Što je Etička umjetna inteligencija?
Etička umjetna inteligencija odnosi se na umjetnu inteligenciju koja se pridržava određenog skupa etičkih smjernica.
Drugim riječima, to je način da pojedinci i organizacije rade s umjetnom inteligencijom na odgovoran način.
Posljednjih godina, korporacije su se počele pridržavati zakona o privatnosti podataka nakon što su izbili dokazi o zlouporabi i kršenju podataka. Slično tome, preporučuju se smjernice za etičku umjetnu inteligenciju kako bi se osiguralo da umjetna inteligencija ne utječe negativno na društvo.
Na primjer, neke vrste umjetne inteligencije rade na pristran način ili održavaju već postojeće pristranosti. Razmotrimo algoritam koji pomaže regrutima sortirati tisuće životopisa. Ako se algoritam obučava na skupu podataka s pretežno muškim ili bijelim zaposlenicima, tada je moguće da će algoritam favorizirati kandidate koji spadaju u te kategorije.
Uspostavljanje načela za etičku umjetnu inteligenciju
Razmišljali smo o uspostavi skupa pravila koja ćemo nametnuti umjetna inteligencija desetljećima.
Čak iu 1940-ima, kada su najmoćnija računala mogla raditi samo najspecijaliziranije znanstvene proračune, pisci znanstvene fantastike razmišljali su o ideji upravljanja inteligentnim robotima.
Isaac Asimov je slavno skovao Tri zakona robotike, za koje je predložio da su ugrađeni u programiranje robota u njegovim kratkim pričama kao sigurnosna značajka.
Ti su zakoni postali kamen temeljac za mnoge buduće znanstveno-fantastične priče i čak su poslužili za stvarne studije o etici umjetne inteligencije.
U suvremenim istraživanjima, istraživači umjetne inteligencije traže utemeljenije izvore kako bi uspostavili popis načela za etičku umjetnu inteligenciju.
Budući da će AI u konačnici utjecati na ljudske živote, moramo imati temeljno razumijevanje o tome što bismo trebali, a što ne bismo trebali raditi.
Izvješće Belmont
Kao referentnu točku, istraživači etike gledaju na Belmontovo izvješće kao vodič. The Belmontovo izvješće bio je dokument koji je 1979. godine objavio Nacionalni institut za zdravlje SAD-a. Biomedicinski zločini počinjeni u Drugom svjetskom ratu doveli su do poriva da se zakonski proglase etičke smjernice za istraživače koji se bave medicinom.
Ovo su tri temeljna načela spomenuta u izvješću:
- Poštovanje osoba
- Dobročinstvo
- Pravda
Prvo načelo ima za cilj podržati dostojanstvo i autonomiju svih ljudskih subjekata. Na primjer, istraživači bi trebali svesti na najmanju moguću mjeru obmanjivanje sudionika i trebali bi zahtijevati od svake osobe da da svoj izričiti pristanak.
Drugo načelo, dobročinstvo, usredotočuje se na dužnost istraživača da potencijalnu štetu za sudionike svede na minimum. Ovo načelo daje istraživačima dužnost da uravnoteže omjer individualnih rizika i potencijalnih društvenih koristi.
Pravednost, posljednje načelo koje je iznijelo Belmontovo izvješće, usredotočuje se na jednaku raspodjelu rizika i koristi među skupinama koje bi mogle imati koristi od istraživanja. Istraživači imaju dužnost odabrati subjekte istraživanja iz šire populacije. Time bi se minimalizirale pojedinačne i sustavne predrasude koje bi mogle negativno utjecati na društvo.
Stavljanje etike u istraživanje umjetne inteligencije
Dok je Belmontovo izvješće prvenstveno bilo usmjereno na istraživanja koja su uključivala ljudske subjekte, načela su bila dovoljno široka da se mogu primijeniti na područje etike umjetne inteligencije.
Big Data postao je vrijedan resurs u području umjetne inteligencije. Procesi koji određuju kako istraživači prikupljaju podatke trebaju slijediti etičke smjernice.
Provedba zakona o privatnosti podataka u većini zemalja donekle ograničava podatke koje tvrtke mogu prikupljati i koristiti. Međutim, većina nacija još uvijek ima rudimentarni skup zakona koji sprječavaju korištenje umjetne inteligencije za nanošenje štete.
Kako etički raditi s umjetnom inteligencijom
Evo nekoliko ključnih koncepata koji mogu pomoći u radu prema etičnijem i odgovornijem korištenju umjetne inteligencije.
Kontrola pristranosti
Umjetna inteligencija nije sama po sebi neutralna. Algoritmi su uvijek osjetljivi na umetnutu pristranost i diskriminaciju jer podaci iz kojih uče uključuju pristranost.
Uobičajen primjer diskriminirajuće AI je vrsta koja se često pojavljuje u sustavima za prepoznavanje lica. Ovi modeli često uspijevaju identificirati bjelačka muška lica, ali su manje uspješni u prepoznavanju ljudi tamnije kože.
Još jedan primjer pojavljuje se u OpenAI-jevom DALL-E 2. Korisnici imaju otkrio da određene upute često reproduciraju rodne i rasne predrasude koje je model pokupio iz skupa podataka online slika.
Na primjer, kada se zatraže slike odvjetnika, DALL-E 2 vraća slike muških odvjetnika. S druge strane, traženje slika stjuardesa vraća uglavnom žene stjuardese.
Iako je možda nemoguće u potpunosti ukloniti pristranost iz AI sustava, možemo poduzeti korake kako bismo smanjili njezine učinke. Istraživači i inženjeri mogu postići veću kontrolu pristranosti razumijevanjem podataka o obuci i angažiranjem raznolikog tima koji će ponuditi informacije o tome kako bi sustav umjetne inteligencije trebao funkcionirati.
Dizajnerski pristup usmjeren na čovjeka
Algoritmi vaše omiljene aplikacije mogu negativno utjecati na vas.
Platforme kao što su Facebook i TikTok mogu naučiti koji sadržaj poslužiti kako bi zadržale korisnike na svojim platformama.
Čak i bez namjere nanošenja štete, cilj da se korisnici što dulje zadrže na njihovoj aplikaciji mogao bi dovesti do problema s mentalnim zdravljem. Pojam 'doomscrolling' postao je sve popularniji kao sveobuhvatni izraz za provođenje pretjerane količine vremena čitajući negativne vijesti na platformama kao što su Twitter i Facebook.
U drugim slučajevima, sadržaj pun mržnje i dezinformacije dobivaju širu platformu jer pomažu povećati angažman korisnika. A 2021 studija istraživača sa Sveučilišta New York pokazuje da postovi iz izvora poznatih po dezinformacijama dobivaju šest puta više lajkova od renomiranih izvora vijesti.
Ti algoritmi nedostaju u pristupu dizajna usmjerenom na čovjeka. Inženjeri koji dizajniraju način na koji umjetna inteligencija izvodi radnju moraju uvijek imati na umu korisničko iskustvo.
Istraživači i inženjeri moraju uvijek postavljati pitanje: 'kako to koristi korisniku?'
Većina AI modela slijedi model crne kutije. Crna kutija unutra stroj za učenje odnosi se na umjetnu inteligenciju gdje nijedan čovjek ne može objasniti zašto je umjetna inteligencija došla do određenog rezultata.
Crne kutije su problematične jer smanjuju količinu povjerenja koje možemo dati u strojeve.
Na primjer, zamislimo scenarij u kojem Facebook izdaje algoritam koji pomaže vladama u pronalasku kriminalaca. Ako vas AI sustav označi, nitko neće moći objasniti zašto je donio tu odluku. Ova vrsta sustava ne bi trebala biti jedini razlog zašto biste trebali biti uhićeni.
Objašnjivi AI ili XAI trebali bi vratiti popis čimbenika koji su pridonijeli konačnom rezultatu. Vraćajući se našem hipotetskom tragaču kriminalaca, možemo podesiti AI sustav da vrati popis postova koji pokazuju sumnjiv jezik ili izraze. Odatle, čovjek može provjeriti je li označeni korisnik vrijedan istrage ili ne.
XAI pruža veću transparentnost i povjerenje u sustave umjetne inteligencije i može pomoći ljudima da donose bolje odluke.
Zaključak
Kao i svi izumi koje je napravio čovjek, umjetna inteligencija nije sama po sebi ni dobra ni loša. Važan je način na koji koristimo AI.
Ono što je jedinstveno kod umjetne inteligencije je tempo kojim ona raste. U proteklih pet godina svaki dan smo vidjeli nova i uzbudljiva otkrića u području strojnog učenja.
Međutim, zakon nije tako brz. Dok korporacije i vlade nastavljaju koristiti umjetnu inteligenciju kako bi povećale profit ili preuzele kontrolu nad građanima, moramo pronaći načine za postizanje transparentnosti i jednakosti u korištenju ovih algoritama.
Mislite li da je uistinu etička umjetna inteligencija moguća?
Ostavi odgovor