Hvordan sikrer vi, at vi bruger AI ansvarligt?
Fremskridt inden for maskinlæring viser, at modeller hurtigt kan skalere og påvirke en stor del af samfundet.
Algoritmer styrer nyhedsfeedet på alles telefoner. Regeringer og virksomheder er begyndt at bruge kunstig intelligens til at træffe data-informerede beslutninger.
Efterhånden som AI bliver mere indgroet i, hvordan verden fungerer, hvordan sikrer vi os, at AI'en opfører sig retfærdigt?
I denne artikel vil vi se på de etiske udfordringer ved at bruge AI og se, hvad vi kan gøre for at sikre ansvarlig brug af AI.
Hvad er etisk kunstig intelligens?
Etisk AI refererer til kunstig intelligens, der overholder et bestemt sæt etiske retningslinjer.
Det er med andre ord en måde for enkeltpersoner og organisationer at arbejde med AI på en ansvarlig måde.
I de senere år er virksomheder begyndt at holde sig til databeskyttelseslovgivningen, efter at beviser for misbrug og brud kom frem. Tilsvarende anbefales retningslinjer for etisk AI for at sikre, at AI ikke påvirker samfundet negativt.
For eksempel virker nogle typer AI på en forudindtaget måde eller opretholder allerede eksisterende skævheder. Lad os overveje en algoritme, der hjælper rekrutterere med at sortere tusindvis af CV'er. Hvis algoritmen trænes på et datasæt med overvejende mandlige eller hvide medarbejdere, så er det muligt, at algoritmen vil favorisere ansøgere, der falder ind under disse kategorier.
Etablering af principper for etisk kunstig intelligens
Vi har tænkt på at etablere et sæt regler at pålægge kunstig intelligens i årtier.
Selv i 1940'erne, hvor de kraftigste computere kun kunne udføre de mest specialiserede videnskabelige beregninger, har science fiction-forfattere overvejet ideen om at kontrollere intelligente robotter.
Isaac Asimov opfandt berømt Robotics Three Laws, som han foreslog blev indlejret i programmeringen af robotter i hans noveller som en sikkerhedsfunktion.
Disse love er blevet en prøvesten for mange fremtidige sci-fi-historier og har endda informeret faktiske undersøgelser om AI-etikken.
I moderne forskning kigger AI-forskere på mere funderede kilder for at etablere en liste over principper for etisk AI.
Da kunstig intelligens i sidste ende vil påvirke menneskeliv, skal vi have en grundlæggende forståelse af, hvad vi bør og ikke bør gøre.
Belmont-rapporten
For et referencepunkt ser etiske forskere på Belmont-rapporten som en guide. Det Belmont-rapport var et dokument udgivet af US National Institutes of Health i 1979. Biomedicinske grusomheder udført i 2. verdenskrig førte til et fremstød for at lovgive etiske retningslinjer for forskere, der praktiserer medicin.
Her er de tre grundlæggende principper nævnt i rapporten:
- Respekt for personer
- godgørenhed
- Retfærdighed
Det første princip sigter mod at opretholde alle menneskelige subjekters værdighed og autonomi. For eksempel bør forskere minimere vildledende deltagere og kræve, at hver person giver deres udtrykkelige samtykke.
Det andet princip, velgørenhed, fokuserer på forskerens pligt til at minimere potentielle skader på deltagerne. Dette princip giver forskerne pligt til at balancere forholdet mellem individuelle risici og potentielle sociale fordele.
Retfærdighed, det sidste princip, der er fastlagt af Belmont-rapporten, fokuserer på ligelig fordeling af risici og fordele på tværs af grupper, der kunne drage fordel af forskningen. Forskere har pligt til at udvælge forskningsemner fra den bredere befolkning. At gøre det ville minimere individuelle og systemiske skævheder, der kan påvirke samfundet negativt.
Placering af etik i AI-forskning
Mens Belmont-rapporten primært var rettet mod forskning, der involverede menneskelige forsøgspersoner, var principperne brede nok til at gælde inden for AI-etik.
Big Data er blevet en værdifuld ressource inden for kunstig intelligens. De processer, der bestemmer, hvordan forskere indsamler data, bør følge etiske retningslinjer.
Implementeringen af databeskyttelseslovgivningen i de fleste nationer sætter en vis grænse for, hvilke data virksomheder kan indsamle og bruge. Imidlertid har flertallet af nationer stadig et rudimentært sæt love på plads for at forhindre brugen af AI til at forårsage skade.
Sådan arbejder du etisk med AI
Her er et par nøglebegreber, der kan hjælpe med at arbejde hen imod en mere etisk og ansvarlig brug af AI.
Kontrol for Bias
Kunstig intelligens er ikke i sig selv neutral. Algoritmer er altid modtagelige for indsat bias og diskrimination, fordi de data, den lærer af, inkluderer bias.
Et almindeligt eksempel på diskriminerende AI er den type, der ofte optræder i ansigtsgenkendelsessystemer. Disse modeller lykkes ofte med at identificere hvide mandlige ansigter, men har mindre succes med at genkende mennesker med mørkere hud.
Et andet eksempel vises i OpenAI's DALL-E 2. Brugere har opdaget at visse prompter ofte gengiver køns- og racemæssige skævheder, som modellen har opfanget fra sit datasæt af onlinebilleder.
For eksempel, når der bliver bedt om billeder af advokater, returnerer DALL-E 2 billeder af mandlige advokater. På den anden side returnerer anmodninger om billeder af stewardesser for det meste kvindelige stewardesser.
Selvom det kan være umuligt helt at fjerne bias fra AI-systemer, kan vi tage skridt til at minimere virkningerne. Forskere og ingeniører kan opnå større kontrol over bias ved at forstå træningsdataene og hyre et mangfoldigt team til at give input til, hvordan AI-systemet skal fungere.
Menneskecentreret designtilgang
Algoritmer på din yndlingsapp kan påvirke dig negativt.
Platforme som Facebook og TikTok er i stand til at lære, hvilket indhold der skal vises for at holde brugerne på deres platforme.
Selv uden intentionen om at forårsage skade, kan målet om at holde brugere klistret til deres app så længe som muligt føre til psykiske problemer. Begrebet 'doomscrolling' er steget i popularitet som det overordnede udtryk for at bruge for meget tid på at læse negative nyheder på platforme som Twitter og Facebook.
I andre tilfælde får hadefuldt indhold og misinformation en bredere platform, fordi det hjælper med at øge brugerengagementet. EN 2021 undersøgelse fra forskere ved New York University viser, at indlæg fra kilder kendt for misinformation får seks gange flere likes end velrenommerede nyhedskilder.
Disse algoritmer mangler i en menneskecentreret designtilgang. Ingeniører, der designer, hvordan en AI udfører en handling, skal altid have brugeroplevelsen i tankerne.
Forskere og ingeniører skal altid stille spørgsmålet: 'hvordan gavner dette brugeren?'
De fleste AI-modeller følger en sort boks-model. En sort boks i machine learning refererer til en AI, hvor intet menneske kan forklare, hvorfor AI'en nåede frem til et bestemt resultat.
Sorte bokse er problematiske, fordi det mindsker mængden af tillid, vi kan sætte til maskiner.
Lad os f.eks. forestille os et scenarie, hvor Facebook udgav en algoritme, der hjalp regeringer med at opspore kriminelle. Hvis AI-systemet markerer dig, vil ingen være i stand til at forklare, hvorfor det har truffet den beslutning. Denne type system burde ikke være den eneste grund til, at du skulle blive arresteret.
Forklarlig AI eller XAI bør returnere en liste over faktorer, der bidrog til det endelige resultat. Går vi tilbage til vores hypotetiske kriminelle tracker, kan vi justere AI-systemet for at returnere en liste over indlæg, der viser mistænkeligt sprog eller termer. Derfra kan et menneske bekræfte, om den markerede bruger er værd at undersøge eller ej.
XAI giver mere gennemsigtighed og tillid til AI-systemer og kan hjælpe mennesker med at træffe bedre beslutninger.
Konklusion
Som alle menneskeskabte opfindelser er kunstig intelligens ikke i sig selv god eller dårlig. Det er måden, vi bruger AI på, der betyder noget.
Det unikke ved kunstig intelligens er det tempo, hvormed den vokser. I de sidste fem år har vi hver dag set nye og spændende opdagelser inden for maskinlæring.
Men loven er ikke så hurtig. Efterhånden som virksomheder og regeringer fortsætter med at udnytte kunstig intelligens til at maksimere profitten eller gribe kontrollen over borgerne, må vi finde måder at presse på for gennemsigtighed og retfærdighed i brugen af disse algoritmer.
Tror du virkelig etisk kunstig intelligens er mulig?
Giv en kommentar