Kā nodrošināt, ka AI izmantojam atbildīgi?
Mašīnmācības sasniegumi liecina, ka modeļi var ātri mērogot un ietekmēt lielu sabiedrības daļu.
Algoritmi kontrolē ziņu plūsmu visu cilvēku tālruņos. Valdības un korporācijas sāk izmantot AI, lai pieņemtu ar datiem pamatotus lēmumus.
Tā kā mākslīgais intelekts arvien vairāk iesakņojas pasaules darbībā, kā mēs varam nodrošināt, ka AI darbojas godīgi?
Šajā rakstā mēs apskatīsim MI izmantošanas ētiskās problēmas un redzēsim, ko mēs varam darīt, lai nodrošinātu atbildīgu AI izmantošanu.
Kas ir ētiskais AI?
Ētiskais AI attiecas uz mākslīgo intelektu, kas ievēro noteiktu ētikas vadlīniju kopumu.
Citiem vārdiem sakot, tas ir veids, kā indivīdi un organizācijas var atbildīgi strādāt ar AI.
Pēdējos gados korporācijas ir sākušas ievērot datu privātuma likumus pēc tam, kad atklājās pierādījumi par ļaunprātīgu izmantošanu un pārkāpumiem. Tāpat ir ieteicamas ētiskā AI vadlīnijas, lai pārliecinātos, ka AI negatīvi neietekmē sabiedrību.
Piemēram, daži AI veidi darbojas neobjektīvi vai saglabā jau esošos aizspriedumus. Apskatīsim algoritmu, kas palīdz personāla atlases darbiniekiem šķirot tūkstošiem CV. Ja algoritms ir apmācīts, izmantojot datu kopu, kurā galvenokārt strādā vīrieši vai baltie darbinieki, iespējams, ka algoritms dos priekšroku pretendentiem, kas ietilpst šajās kategorijās.
Ētiskā AI principu noteikšana
Mēs esam domājuši par noteikumu kopuma izveidi, ko uzlikt mākslīgais intelekts desmitgadēm ilgi.
Pat 1940. gados, kad jaudīgākie datori spēja veikt tikai visspecializētākos zinātniskos aprēķinus, zinātniskās fantastikas rakstnieki ir domājuši par ideju kontrolēt viedo robotu.
Īzaks Asimovs lieliski izstrādāja Trīs robotikas likumus, kurus viņš ierosināja iekļaut robotu programmēšanā savos stāstos kā drošības līdzekli.
Šie likumi ir kļuvuši par pārbaudes akmeni daudziem nākotnes zinātniskās fantastikas stāstiem un pat ir devuši informāciju faktiskajos pētījumos par AI ētiku.
Mūsdienu pētījumos AI pētnieki meklē pamatotākus avotus, lai izveidotu ētiskā AI principu sarakstu.
Tā kā mākslīgais intelekts galu galā ietekmēs cilvēku dzīves, mums ir jābūt fundamentālai izpratnei par to, ko mums vajadzētu un ko nevajadzētu darīt.
Belmonta ziņojums
Lai iegūtu atskaites punktu, ētikas pētnieki kā ceļvedi aplūko Belmonta ziņojumu. The Belmonta ziņojums bija dokuments, ko 1979. gadā publicēja ASV Nacionālie veselības institūti. Biomedicīnas zvērības, kas tika veiktas Otrajā pasaules karā, izraisīja stimulu izstrādāt ētikas vadlīnijas pētniekiem, kas praktizē medicīnu.
Šeit ir minēti trīs ziņojumā minētie pamatprincipi.
- Cieņa pret cilvēkiem
- Labums
- Taisnīgums
Pirmais princips ir vērsts uz visu cilvēku subjektu cieņas un autonomijas ievērošanu. Piemēram, pētniekiem būtu jāsamazina dalībnieku maldināšana un jāpieprasa katrai personai sniegt nepārprotamu piekrišanu.
Otrais princips, labums, koncentrējas uz pētnieka pienākumu samazināt iespējamo kaitējumu dalībniekiem. Šis princips uzliek pētniekiem pienākumu līdzsvarot individuālo risku attiecību pret iespējamiem sociālajiem ieguvumiem.
Taisnīgums, pēdējais Belmont ziņojumā izklāstītais princips, koncentrējas uz vienlīdzīgu risku un ieguvumu sadali starp grupām, kuras varētu gūt labumu no pētījuma. Pētnieku pienākums ir atlasīt pētāmos priekšmetus no plašākas sabiedrības. Tas samazinātu individuālās un sistēmiskās aizspriedumus, kas varētu negatīvi ietekmēt sabiedrību.
Ētikas iekļaušana AI izpētē
Lai gan Belmonta ziņojums galvenokārt bija vērsts uz pētījumiem, kuros iesaistīti cilvēki, principi bija pietiekami plaši, lai tos varētu piemērot AI ētikas jomā.
Lielie dati ir kļuvuši par vērtīgu resursu mākslīgā intelekta jomā. Procesiem, kas nosaka, kā pētnieki apkopo datus, ir jāievēro ētikas vadlīnijas.
Datu privātuma likumu ieviešana lielākajā daļā valstu zināmā mērā ierobežo to, ko datu uzņēmumi var vākt un izmantot. Tomēr lielākajai daļai valstu joprojām ir spēkā elementārs likumu kopums, lai novērstu AI izmantošanu kaitējuma nodarīšanai.
Kā ētiski strādāt ar AI
Šeit ir daži galvenie jēdzieni, kas var palīdzēt ētiskāk un atbildīgāk izmantot AI.
Neobjektivitātes kontrole
Mākslīgais intelekts pēc savas būtības nav neitrāls. Algoritmi vienmēr ir pakļauti ievietotajai novirzei un diskriminācijai, jo dati, no kuriem tie mācās, ietver novirzi.
Izplatīts diskriminējošas AI piemērs ir veids, kas bieži parādās sejas atpazīšanas sistēmās. Šiem modeļiem bieži izdodas atpazīt baltas vīriešu sejas, bet mazāk veiksmīgi atpazīst cilvēkus ar tumšāku ādu.
Vēl viens piemērs parādās OpenAI DALL-E 2. Lietotājiem ir atklāja ka noteiktas uzvednes bieži atkārto dzimuma un rasu aizspriedumus, ko modelis ir ieguvis no tiešsaistes attēlu datu kopas.
Piemēram, ja tiek parādīts uzvedne ar advokātu attēliem, DALL-E 2 atgriež vīriešu advokātu attēlus. Savukārt, pieprasot stjuartu bildes, pārsvarā stjuartes atgriežas sievietes.
Lai gan var būt neiespējami pilnībā novērst novirzes no AI sistēmām, mēs varam veikt pasākumus, lai samazinātu tās ietekmi. Pētnieki un inženieri var panākt lielāku neobjektivitātes kontroli, izprotot apmācības datus un nolīgstot daudzveidīgu komandu, kas piedāvā informāciju par to, kā AI sistēmai vajadzētu darboties.
Uz cilvēku vērsta dizaina pieeja
Algoritmi jūsu iecienītākajā lietotnē var jūs negatīvi ietekmēt.
Tādas platformas kā Facebook un TikTok var uzzināt, kādu saturu apkalpot, lai lietotāji paliktu savās platformās.
Pat bez nodoma nodarīt kaitējumu, mērķis pēc iespējas ilgāk piesaistīt lietotājus savai lietotnei var izraisīt garīgās veselības problēmas. Termins “doomscrolling” ir kļuvis populārāks kā vispārējs termins, kas apzīmē pārmērīgi daudz laika, lasot negatīvas ziņas tādās platformās kā Twitter un Facebook.
Citos gadījumos naidīgs saturs un dezinformācija saņem plašāku platformu, jo tas palīdz palielināt lietotāju iesaisti. A 2021 pētījums Ņujorkas universitātes pētnieki liecina, ka ziņas no avotiem, kas pazīstami kā dezinformācija, saņem sešas reizes vairāk atzīmju Patīk nekā cienījami ziņu avoti.
Šo algoritmu trūkst uz cilvēku vērstā dizaina pieejā. Inženieriem, kuri izstrādā, kā AI veic kādu darbību, vienmēr jāpatur prātā lietotāja pieredze.
Pētniekiem un inženieriem vienmēr ir jāuzdod jautājums: "kā tas dod labumu lietotājam?"
Lielākā daļa AI modeļu seko melnās kastes modelim. Iekšā melnā kaste mašīna mācīšanās attiecas uz AI, kur neviens cilvēks nevar izskaidrot, kāpēc AI nonācis pie konkrēta rezultāta.
Melnās kastes ir problemātiskas, jo tās samazina uzticēšanos, ko varam nodot iekārtām.
Piemēram, iedomāsimies scenāriju, kurā Facebook izlaida algoritmu, kas palīdzēja valdībām izsekot noziedzniekus. Ja AI sistēma jūs atzīmēs, neviens nevarēs izskaidrot, kāpēc tā ir pieņēmusi šādu lēmumu. Šāda veida sistēma nedrīkst būt vienīgais iemesls, kāpēc jums vajadzētu tikt arestētam.
Izskaidrojamam AI vai XAI jāatgriež to faktoru saraksts, kas veicināja gala rezultātu. Atgriežoties pie mūsu hipotētiskā noziedznieku izsekotāja, mēs varam pielāgot AI sistēmu, lai atgrieztu sarakstu ar ziņām, kurās redzama aizdomīga valoda vai termini. No turienes cilvēks var pārbaudīt, vai atzīmētais lietotājs ir izmeklēšanas vērts.
XAI nodrošina lielāku pārskatāmību un uzticēšanos AI sistēmām un var palīdzēt cilvēkiem pieņemt labākus lēmumus.
Secinājumi
Tāpat kā visi cilvēka radītie izgudrojumi, mākslīgais intelekts pēc savas būtības nav labs vai slikts. Svarīgs ir veids, kā mēs izmantojam AI.
Mākslīgā intelekta unikālais ir temps, kādā tas aug. Pēdējo piecu gadu laikā mēs katru dienu esam redzējuši jaunus un aizraujošus atklājumus mašīnmācības jomā.
Tomēr likums nav tik ātrs. Tā kā korporācijas un valdības turpina izmantot mākslīgo intelektu, lai palielinātu peļņu vai pārņemtu kontroli pār iedzīvotājiem, mums ir jāatrod veidi, kā panākt pārredzamību un vienlīdzību šo algoritmu izmantošanā.
Vai jūs domājat, ka patiesi ētisks AI ir iespējams?
Atstāj atbildi