Hoe soargje wy derfoar dat wy AI ferantwurde brûke?
Foarútgongen yn masine learen litte sjen dat modellen in grut part fan 'e maatskippij fluch kinne skaalje en beynfloedzje.
Algoritmen kontrolearje de nijsfeed op elk syn tillefoans. Oerheden en korporaasjes begjinne AI te brûken om besluten op 'e hichte te nimmen.
As AI fierder ferburgen wurdt yn hoe't de wrâld wurket, hoe soargje wy derfoar dat de AI earlik hannelet?
Yn dit artikel sille wy de etyske útdagings fan it brûken fan AI besjen en sjen wat wy kinne dwaan om it ferantwurde gebrûk fan AI te garandearjen.
Wat is etyske AI?
Etyske AI ferwiist nei keunstmjittige yntelliginsje dy't harket oan in bepaalde set etyske rjochtlinen.
Mei oare wurden, it is in manier foar yndividuen en organisaasjes om op in ferantwurde manier mei AI te wurkjen.
Yn 'e ôfrûne jierren binne bedriuwen begon te hâlden oan wetten foar privacy fan gegevens nei't bewiis fan misbrûk en ynbreuk oan it ljocht kaam. Op deselde manier wurde rjochtlinen foar etyske AI oanrikkemandearre om te soargjen dat AI de maatskippij net negatyf beynfloedet.
Bygelyks, guon soarten AI wurkje op in biased manier of behâlde al besteande biases. Litte wy in algoritme beskôgje dat recruiters helpt om tûzenen cv's te sortearjen. As it algoritme wurdt trainearre op in dataset mei foaral manlike of blanke meiwurkers, dan is it mooglik dat it algoritme oanfregers dy't ûnder dy kategoryen falle favorisearje.
It fêststellen fan prinsipes foar etyske AI
Wy hawwe tocht oer it fêststellen fan in set regels om op te lizzen keunstmjittige yntelliginsje foar desennia.
Sels yn 'e 1940's, doe't de machtichste kompjûters allinich de meast spesjalisearre wittenskiplike berekkeningen koene dwaan, hawwe science fiction-skriuwers neitocht oer it idee om yntelliginte robots te kontrolearjen.
Isaac Asimov betocht ferneamd de Three Laws of Robotics, dy't hy foarstelde waard ynbêde yn 'e programmearring fan robots yn syn koarte ferhalen as in feiligensfunksje.
Dizze wetten binne in toetsstien wurden foar in protte takomstige sci-fi-ferhalen en hawwe sels feitlike stúdzjes ynformeare oer de etyk fan AI.
Yn hjoeddeistich ûndersyk sykje AI-ûndersikers nei mear grûn boarnen om in list mei prinsipes foar etyske AI op te stellen.
Om't AI úteinlik minsklik libben sil beynfloedzje, moatte wy in fûneminteel begryp hawwe fan wat wy moatte en net moatte dwaan.
It rapport fan Belmont
Foar in referinsjepunt sjogge etykûndersikers it Belmont-rapport as in gids. De Belmont Ferslach wie in dokumint publisearre troch de Amerikaanske National Institutes of Health yn 1979. Biomedyske grouwélichheden útfierd yn WW2 late ta in druk op wetjouwing etyske rjochtlinen foar ûndersikers dy't praktisearje medisinen.
Hjir binne de trije fûnemintele prinsipes neamd yn it rapport:
- Respekt foar persoanen
- Woldiedigens
- Rjocht
It earste prinsipe hat as doel om de weardichheid en autonomy fan alle minsklike ûnderwerpen te behâlden. Undersikers moatte bygelyks ferrifeljende dielnimmers minimalisearje en moatte elke persoan fereaskje om har eksplisite tastimming te jaan.
It twadde prinsipe, beneficence, rjochtet him op de plicht fan 'e ûndersiker om potinsjele skea oan dielnimmers te minimalisearjen. Dit prinsipe jout de ûndersikers de plicht om de ferhâlding fan yndividuele risiko's te balansearjen mei potinsjele sosjale foardielen.
Justysje, it definitive prinsipe ynsteld troch it Belmont-rapport, rjochtet him op gelikense ferdieling fan risiko's en foardielen oer groepen dy't kinne profitearje fan it ûndersyk. Undersikers hawwe de plicht om ûndersiken út de bredere befolking te selektearjen. Dat dwaan soe yndividuele en systemyske foaroardielen minimalisearje dy't de maatskippij negatyf kinne beynfloedzje.
It pleatsen fan etyk yn AI-ûndersyk
Wylst it Belmont-rapport primêr rjochte wie op ûndersyk mei minsklike ûnderwerpen, wiene de prinsipes breed genôch om fan tapassing te wurden op it fjild fan AI-etyk.
Big Data is in weardefolle boarne wurden op it mêd fan keunstmjittige yntelliginsje. De prosessen dy't bepale hoe't ûndersikers gegevens sammelje moatte etyske rjochtlinen folgje.
De ymplemintaasje fan wetten foar gegevensprivacy yn 'e measte folken set wat in limyt op hokker gegevensbedriuwen kinne sammelje en brûke. De mearderheid fan 'e folken hat lykwols noch in rudimentêre set wetten yn plak om it gebrûk fan AI te foarkommen om skea te feroarsaakjen.
Hoe te wurkjen mei AI etysk
Hjir binne in pear kaaibegripen dy't kinne helpe wurkje oan in mear etysk en ferantwurde gebrûk fan AI.
Kontrôle foar Bias
Keunstmjittige yntelliginsje is net ynherent neutraal. Algoritmen binne altyd gefoelich foar ynfoege foaroardielen en diskriminaasje, om't de gegevens dy't it leart fan bias omfettet.
In gewoan foarbyld fan diskriminearjende AI is it type dat faak ferskynt yn systemen foar gesichtsherkenning. Dizze modellen slagje faaks yn it identifisearjen fan wite manlike gesichten, mar binne minder suksesfol by it herkennen fan minsken mei dûnkere hûd.
In oar foarbyld ferskynt yn OpenAI's DALL-E 2. Brûkers hawwe ûntdutsen dat bepaalde prompts faak reprodusearje geslacht en rasiale biases dat it model hat oppakt út syn dataset fan online bylden.
Bygelyks, as jo in prompt krije foar ôfbyldings fan advokaten, jout DALL-E 2 ôfbyldings fan manlike advokaten werom. Oan 'e oare kant jout it oanfreegjen fan foto's fan stewardessen meast froulike stewardessen werom.
Hoewol it miskien ûnmooglik is om foaroardielen fan AI-systemen folslein te ferwiderjen, kinne wy stappen nimme om de effekten te minimalisearjen. Undersikers en yngenieurs kinne gruttere kontrôle fan bias berikke troch de trainingsgegevens te begripen en in ferskaat team yn te hieren om ynput te bieden oer hoe't it AI-systeem moat wurkje.
Human-sintraal ûntwerp oanpak
Algoritmen op jo favorite app kinne jo negatyf beynfloedzje.
Platfoarms lykas Facebook en TikTok kinne leare hokker ynhâld te tsjinjen om brûkers op har platfoarms te hâlden.
Sels sûnder de bedoeling om skea te meitsjen, kin it doel om brûkers sa lang mooglik oan har app lijm te hâlden, liede ta problemen mei mentale sûnens. De term 'doomscrolling' is yn populariteit opstien as de catch-all term foar it besteegjen fan te folle tiid oan it lêzen fan negatyf nijs op platfoarms lykas Twitter en Facebook.
Yn oare gefallen krije hatelike ynhâld en ferkearde ynformaasje in breder platfoarm, om't it helpt te fergrutsjen fan belutsenens fan brûkers. IN 2021 stúdzje fan ûndersikers oan 'e New York University lit sjen dat berjochten fan boarnen dy't bekend binne foar ferkearde ynformaasje seis kear mear likes krije as renommearre nijsboarnen.
Dizze algoritmen ûntbrekke yn in minsklik-sintraal ûntwerp oanpak. Yngenieurs dy't ûntwerpe hoe't in AI in aksje útfiert, moatte de brûkersûnderfining altyd yn gedachten hâlde.
Undersikers en yngenieurs moatte altyd de fraach stelle: 'hoe komt dit de brûker?'
De measte AI-modellen folgje in swarte doaze-model. In swarte doaze yn masine learen ferwiist nei in AI wêr't gjin minske kin ferklearje wêrom't de AI ta in bepaald resultaat kaam.
Swarte doazen binne problematysk omdat it ferminderet it bedrach fan fertrouwen kinne wy sette yn masines.
Litte wy ús bygelyks in senario foarstelle wêr't Facebook in algoritme útbrocht dat regearingen holp kriminelen op te spoaren. As it AI-systeem jo flagge, sil gjinien yn steat wêze om út te lizzen wêrom't it dat beslút makke is. Dit soarte systeem soe net de ienige reden wêze moatte wêrom't jo arresteare moatte wurde.
Ferklearjende AI as XAI moatte in list mei faktoaren weromjaan dy't bydroegen oan it definitive resultaat. Werom nei ús hypotetyske kriminele tracker, kinne wy it AI-systeem oanpasse om in list mei berjochten werom te jaan dy't fertochte taal of termen sjen litte. Fan dêrút kin in minske ferifiearje oft de markearre brûker it ûndersiikjen wurdich is of net.
XAI leveret mear transparânsje en fertrouwen yn AI-systemen en kin minsken helpe om bettere besluten te nimmen.
Konklúzje
Lykas alle troch de minske makke útfinings, is keunstmjittige yntelliginsje net ynherent goed of min. It is de manier wêrop wy AI brûke dat fan belang is.
Wat unyk is oan keunstmjittige yntelliginsje is it tempo wêryn't it groeit. Yn 'e ôfrûne fiif jier hawwe wy elke dei nije en spannende ûntdekkingen sjoen op it mêd fan masine learen.
De wet is lykwols net sa fluch. Wylst korporaasjes en oerheden AI trochgean te benutten om winsten te maksimalisearjen of kontrôle oer boargers te gripen, moatte wy manieren fine om te drukken op transparânsje en lykweardigens yn it brûken fan dizze algoritmen.
Tinke jo dat wirklik etyske AI mooglik is?
Leave a Reply