Kaip užtikrinti, kad dirbtinį intelektą naudojame atsakingai?
Mašininio mokymosi pažanga rodo, kad modeliai gali greitai keistis ir paveikti didelę visuomenės dalį.
Algoritmai valdo naujienų tiekimą visų telefonuose. Vyriausybės ir korporacijos pradeda naudoti dirbtinį intelektą priimdamos duomenimis pagrįstus sprendimus.
Kadangi dirbtinis intelektas vis labiau įsitvirtina pasaulio veikimo procese, kaip užtikrinti, kad AI elgiasi sąžiningai?
Šiame straipsnyje apžvelgsime etinius AI naudojimo iššūkius ir išsiaiškinsime, ką galime padaryti, kad užtikrintume atsakingą AI naudojimą.
Kas yra etiškas AI?
Etiškas AI reiškia dirbtinį intelektą, kuris laikosi tam tikrų etinių gairių.
Kitaip tariant, tai būdas asmenims ir organizacijoms atsakingai dirbti su AI.
Pastaraisiais metais korporacijos pradėjo laikytis duomenų privatumo įstatymų, kai paaiškėjo piktnaudžiavimo ir pažeidimo įrodymai. Taip pat rekomenduojamos etiško DI gairės, siekiant užtikrinti, kad AI nedarytų neigiamo poveikio visuomenei.
Pavyzdžiui, kai kurie AI tipai veikia neobjektyviai arba išlaiko jau esamą šališkumą. Apsvarstykime algoritmą, kuris padeda įdarbintojams rūšiuoti tūkstančius gyvenimo aprašymų. Jei algoritmas yra apmokytas duomenų rinkinyje, kuriame daugiausia dirba vyrai arba baltieji darbuotojai, gali būti, kad algoritmas bus palankus pareiškėjams, kurie patenka į tas kategorijas.
Etiško AI principų nustatymas
Sugalvojome nustatyti taisyklių rinkinį, kurį reikėtų taikyti dirbtinis intelektas dešimtmečius.
Netgi 1940-aisiais, kai galingiausi kompiuteriai galėjo atlikti tik labiausiai specializuotus mokslinius skaičiavimus, mokslinės fantastikos rašytojai svarstė idėją valdyti protingus robotus.
Isaacas Asimovas garsiai sukūrė tris robotikos dėsnius, kuriuos jis pasiūlė įtraukti į robotų programavimą jo apsakymuose kaip saugos priemonę.
Šie dėsniai tapo daugelio būsimų mokslinės fantastikos istorijų kontroliniu akmeniu ir netgi paskatino faktinius dirbtinio intelekto etikos tyrimus.
Šiuolaikiniuose tyrimuose dirbtinio intelekto tyrėjai ieško labiau pagrįstų šaltinių, kad sudarytų etiško AI principų sąrašą.
Kadangi dirbtinis intelektas galiausiai paveiks žmonių gyvenimus, turime turėti esminį supratimą, ką turėtume ir ko neturėtume daryti.
Belmonto ataskaita
Norėdami gauti atskaitos tašką, etikos tyrėjai žvelgia į Belmonto ataskaitą kaip vadovą. The Belmonto ataskaita buvo dokumentas, kurį 1979 m. paskelbė JAV nacionalinis sveikatos institutas. Antrojo pasaulinio karo metu įvykdyti biomedicininiai žiaurumai paskatino įteisinti etikos gaires mediciną praktikuojantiems mokslininkams.
Štai trys pagrindiniai ataskaitoje paminėti principai:
- Pagarba žmonėms
- Gerumas
- Teisingumas
Pirmuoju principu siekiama išlaikyti visų žmogiškųjų subjektų orumą ir savarankiškumą. Pavyzdžiui, mokslininkai turėtų kuo labiau sumažinti dalyvių apgaudinėjimą ir reikalauti, kad kiekvienas asmuo duotų aiškų sutikimą.
Antrasis principas – geranoriškumas – orientuojasi į tyrėjo pareigą sumažinti galimą žalą dalyviams. Šis principas suteikia tyrėjams pareigą subalansuoti individualios rizikos ir galimos socialinės naudos santykį.
Teisingumas, galutinis principas, nustatytas Belmonto ataskaitoje, sutelktas į vienodą rizikos ir naudos paskirstymą grupėms, kurioms tyrimas galėtų būti naudingas. Tyrėjai turi pareigą atrinkti tiriamuosius iš platesnės visuomenės. Taip būtų sumažintas individualus ir sisteminis šališkumas, galintis neigiamai paveikti visuomenę.
Etikos įtraukimas į AI tyrimus
Nors Belmonto ataskaita pirmiausia buvo skirta moksliniams tyrimams, kuriuose dalyvavo žmonės, principai buvo pakankamai platūs, kad juos būtų galima taikyti AI etikos sričiai.
Didieji duomenys tapo vertingu šaltiniu dirbtinio intelekto srityje. Procesai, nustatantys, kaip mokslininkai renka duomenis, turėtų atitikti etikos gaires.
Duomenų privatumo įstatymų įgyvendinimas daugumoje šalių šiek tiek riboja, kokius duomenis įmonės gali rinkti ir naudoti. Tačiau daugumoje šalių vis dar galioja elementarus įstatymų rinkinys, neleidžiantis dirbtinio intelekto naudojimui pakenkti.
Kaip etiškai dirbti su AI
Štai keletas pagrindinių sąvokų, kurios gali padėti siekti etiškesnio ir atsakingesnio AI naudojimo.
Šališkumo kontrolė
Dirbtinis intelektas nėra savaime neutralus. Algoritmai visada yra linkę į įterptą šališkumą ir diskriminaciją, nes duomenys, iš kurių jie mokosi, apima šališkumą.
Dažnas diskriminacinio AI pavyzdys yra tipas, kuris dažnai pasirodo veido atpažinimo sistemose. Šie modeliai dažnai sugeba atpažinti baltus vyrų veidus, bet mažiau atpažįsta žmones su tamsesne oda.
Kitas pavyzdys rodomas OpenAI DALL-E 2. Vartotojai turi atrado kad tam tikri raginimai dažnai atkuria lyties ir rasės šališkumą, kurį modelis paėmė iš savo internetinių vaizdų duomenų rinkinio.
Pavyzdžiui, kai raginama pateikti advokatų atvaizdus, DALL-E 2 pateikia vyrų advokatų vaizdus. Kita vertus, prašydamos stiuardesių nuotraukų dažniausiai grįžta moterys.
Nors gali būti neįmanoma visiškai pašalinti AI sistemų šališkumo, galime imtis veiksmų, kad sumažintume jo poveikį. Tyrėjai ir inžinieriai gali geriau kontroliuoti šališkumą, suprasdami mokymo duomenis ir pasamdydami įvairią komandą, kuri pasiūlytų informaciją apie tai, kaip AI sistema turėtų veikti.
Į žmogų orientuotas dizaino požiūris
Mėgstamiausios programos algoritmai gali jus neigiamai paveikti.
Tokios platformos kaip „Facebook“ ir „TikTok“ gali sužinoti, kokį turinį teikti, kad vartotojai liktų savo platformose.
Net ir nesiekiant pakenkti, tikslas kuo ilgiau išlaikyti naudotojus prie savo programos gali sukelti psichikos sveikatos problemų. Sąvoka „doomscrolling“ išpopuliarėjo kaip universalus terminas, leidžiantis per daug laiko praleidžiant skaitant neigiamas naujienas tokiose platformose kaip „Twitter“ ir „Facebook“.
Kitais atvejais neapykantą skatinantis turinys ir dezinformacija gauna platesnę platformą, nes tai padeda padidinti vartotojų įsitraukimą. A 2021 tyrimas Niujorko universiteto mokslininkai rodo, kad įrašai iš šaltinių, žinomų dėl dezinformacijos, sulaukia šešis kartus daugiau įvertinimų nei patikimi naujienų šaltiniai.
Šių algoritmų trūksta į žmogų orientuoto dizaino požiūriu. Inžinieriai, kuriantys, kaip AI atlieka veiksmą, visada turi turėti omenyje naudotojo patirtį.
Tyrėjai ir inžinieriai visada turi užduoti klausimą: „kaip tai naudinga vartotojui?“
Dauguma AI modelių vadovaujasi juodosios dėžės modeliu. Juoda dėžutė viduje mašininis mokymasis reiškia dirbtinį intelektą, kai joks žmogus negali paaiškinti, kodėl AI pasiekė tam tikrą rezultatą.
Juodosios dėžės yra problemiškos, nes sumažina pasitikėjimą, kurį galime suteikti mašinoms.
Pavyzdžiui, įsivaizduokime scenarijų, kai „Facebook“ išleido algoritmą, kuris padėjo vyriausybėms susekti nusikaltėlius. Jei AI sistema jus pažymės, niekas negalės paaiškinti, kodėl ji priėmė tokį sprendimą. Tokio tipo sistema neturėtų būti vienintelė priežastis, kodėl turėtumėte būti areštuoti.
Paaiškinamas AI arba XAI turėtų pateikti veiksnių, kurie prisidėjo prie galutinio rezultato, sąrašą. Grįžtant prie mūsų hipotetinio nusikaltėlių stebėjimo priemonės, galime pakoreguoti AI sistemą, kad būtų pateiktas įrašų, kuriuose rodoma įtartina kalba ar terminai, sąrašas. Iš ten žmogus gali patikrinti, ar pažymėtą vartotoją verta ištirti, ar ne.
XAI suteikia daugiau skaidrumo ir pasitikėjimo dirbtinio intelekto sistemomis ir gali padėti žmonėms priimti geresnius sprendimus.
Išvada
Kaip ir visi žmogaus sukurti išradimai, dirbtinis intelektas savaime nėra geras ar blogas. Svarbu tai, kaip naudojame AI.
Dirbtinio intelekto išskirtinumas yra jo augimo tempas. Per pastaruosius penkerius metus kiekvieną dieną matėme naujų ir įdomių atradimų mašininio mokymosi srityje.
Tačiau įstatymas nėra toks greitas. Kadangi korporacijos ir vyriausybės ir toliau naudoja dirbtinį intelektą, kad padidintų pelną arba perimtų piliečių kontrolę, turime rasti būdų, kaip siekti skaidrumo ir teisingumo naudojant šiuos algoritmus.
Ar manote, kad įmanomas tikrai etiškas AI?
Palikti atsakymą