Hur säkerställer vi att vi använder AI på ett ansvarsfullt sätt?
Framsteg inom maskininlärning visar att modeller snabbt kan skala och påverka en stor del av samhället.
Algoritmer styr nyhetsflödet på allas telefoner. Regeringar och företag börjar använda AI för att fatta datainformerade beslut.
När AI blir mer inarbetat i hur världen fungerar, hur ser vi till att AI:n agerar rättvist?
I den här artikeln kommer vi att undersöka de etiska utmaningarna med att använda AI och se vad vi kan göra för att säkerställa en ansvarsfull användning av AI.
Vad är etisk AI?
Etisk AI avser artificiell intelligens som följer en viss uppsättning etiska riktlinjer.
Det är med andra ord ett sätt för individer och organisationer att arbeta med AI på ett ansvarsfullt sätt.
Under de senaste åren har företag börjat hålla sig till dataskyddslagar efter att bevis på missbruk och intrång kommit fram. På samma sätt rekommenderas riktlinjer för etisk AI för att säkerställa att AI inte påverkar samhället negativt.
Till exempel fungerar vissa typer av AI på ett partiskt sätt eller vidmakthåller redan existerande fördomar. Låt oss överväga en algoritm som hjälper rekryterare att sortera igenom tusentals meritförteckningar. Om algoritmen tränas på en datauppsättning med övervägande manliga eller vita anställda, är det möjligt att algoritmen kommer att gynna sökande som faller under dessa kategorier.
Fastställande av principer för etisk AI
Vi har funderat på att skapa en uppsättning regler att införa artificiell intelligens i årtionden.
Även på 1940-talet, när de mest kraftfulla datorerna bara kunde göra de mest specialiserade vetenskapliga beräkningarna, har science fiction-författare funderat över idén att kontrollera intelligenta robotar.
Isaac Asimov myntade de tre lagarna för robotik, som han föreslog var inbäddade i programmeringen av robotar i hans noveller som en säkerhetsfunktion.
Dessa lagar har blivit en prövsten för många framtida sci-fi-berättelser och har till och med informerat faktiska studier om AI-etiken.
I samtida forskning undersöker AI-forskare mer grundade källor för att upprätta en lista över principer för etisk AI.
Eftersom AI i slutändan kommer att påverka människors liv måste vi ha en grundläggande förståelse för vad vi bör och inte bör göra.
Belmont-rapporten
Som en referenspunkt tittar etikforskare på Belmont-rapporten som en vägledning. De Belmont-rapport var ett dokument som publicerades av US National Institutes of Health 1979. Biomedicinska illdåd som utfördes under andra världskriget ledde till en push för att lagstifta etiska riktlinjer för forskare som utövar medicin.
Här är de tre grundläggande principerna som nämns i rapporten:
- Respekt för personer
- Välgörenhet
- Rättvisa
Den första principen syftar till att upprätthålla alla mänskliga subjekts värdighet och autonomi. Forskare bör till exempel minimera lura deltagare och kräva att varje person ger sitt uttryckliga samtycke.
Den andra principen, välgörenhet, fokuserar på forskarens plikt att minimera potentiell skada för deltagarna. Denna princip ger forskarna en skyldighet att balansera förhållandet mellan individuella risker och potentiella sociala fördelar.
Rättvisa, den slutliga principen som anges i Belmont-rapporten, fokuserar på jämn fördelning av risker och fördelar mellan grupper som kan dra nytta av forskningen. Forskare har skyldighet att välja forskningsämnen från den bredare befolkningen. Att göra det skulle minimera individuella och systemiska fördomar som skulle kunna påverka samhället negativt.
Att placera etik i AI-forskning
Medan Belmont-rapporten främst var inriktad på forskning som involverade mänskliga försökspersoner, var principerna tillräckligt breda för att tillämpas på området för AI-etik.
Big Data har blivit en värdefull resurs inom området artificiell intelligens. De processer som avgör hur forskare samlar in data bör följa etiska riktlinjer.
Genomförandet av dataskyddslagar i de flesta nationer sätter en viss gräns för vilken dataföretag kan samla in och använda. Men de flesta nationer har fortfarande en rudimentär uppsättning lagar på plats för att förhindra användning av AI för att orsaka skada.
Hur man arbetar med AI etiskt
Här är några nyckelbegrepp som kan hjälpa till att arbeta mot en mer etisk och ansvarsfull användning av AI.
Kontroll för Bias
Artificiell intelligens är inte i sig neutral. Algoritmer är alltid mottagliga för infogade bias och diskriminering eftersom data den lär sig från inkluderar bias.
Ett vanligt exempel på diskriminerande AI är den typ som ofta förekommer i ansiktsigenkänningssystem. Dessa modeller lyckas ofta med att identifiera vita manliga ansikten, men är mindre framgångsrika med att känna igen personer med mörkare hy.
Ett annat exempel visas i OpenAI:s DALL-E 2. Användare har upptäckt att vissa uppmaningar ofta reproducerar köns- och rasfördomar som modellen har plockat upp från sin datauppsättning av onlinebilder.
Till exempel, när en uppmaning om bilder av advokater ges, returnerar DALL-E 2 bilder av manliga advokater. Å andra sidan, att begära bilder på flygvärdinnor returnerar mestadels kvinnliga flygvärdinnor.
Även om det kan vara omöjligt att helt ta bort bias från AI-system, kan vi vidta åtgärder för att minimera dess effekter. Forskare och ingenjörer kan uppnå större kontroll över bias genom att förstå utbildningsdata och anställa ett mångsidigt team för att ge input om hur AI-systemet ska fungera.
Människocentrerad designstrategi
Algoritmer på din favoritapp kan påverka dig negativt.
Plattformar som Facebook och TikTok kan lära sig vilket innehåll som ska visas för att behålla användarna på sina plattformar.
Även utan avsikten att orsaka skada kan målet att hålla användarna klistrade vid sin app så länge som möjligt leda till psykiska problem. Termen "doomscrolling" har ökat i popularitet som den samlade termen för att spendera alltför mycket tid på att läsa negativa nyheter på plattformar som Twitter och Facebook.
I andra fall får hatiskt innehåll och desinformation en bredare plattform eftersom det bidrar till att öka användarnas engagemang. A 2021 studie från forskare vid New York University visar att inlägg från källor kända för desinformation får sex gånger fler likes än välrenommerade nyhetskällor.
Dessa algoritmer saknas i ett människocentrerat tillvägagångssätt. Ingenjörer som designar hur en AI utför en åtgärd måste alltid ha användarupplevelsen i åtanke.
Forskare och ingenjörer måste alltid ställa frågan: "hur gynnar detta användaren?"
De flesta AI-modeller följer en black box-modell. En svart låda i maskininlärning hänvisar till en AI där ingen människa kan förklara varför AI:n kom fram till ett visst resultat.
Svarta lådor är problematiska eftersom det minskar mängden förtroende vi kan sätta i maskiner.
Låt oss till exempel föreställa oss ett scenario där Facebook släppte en algoritm som hjälpte regeringar att spåra brottslingar. Om AI-systemet flaggar dig kommer ingen att kunna förklara varför det har tagit det beslutet. Den här typen av system borde inte vara den enda anledningen till att du ska bli arresterad.
Förklarlig AI eller XAI bör returnera en lista över faktorer som bidrog till det slutliga resultatet. Om vi går tillbaka till vår hypotetiska brottsspårare kan vi justera AI-systemet för att returnera en lista med inlägg som visar misstänkta språk eller termer. Därifrån kan en människa verifiera om den flaggade användaren är värd att undersöka eller inte.
XAI ger mer transparens och förtroende för AI-system och kan hjälpa människor att fatta bättre beslut.
Slutsats
Liksom alla konstgjorda uppfinningar är artificiell intelligens inte i sig bra eller dåligt. Det är hur vi använder AI som spelar roll.
Det som är unikt med artificiell intelligens är i vilken takt den växer. Under de senaste fem åren har vi sett nya och spännande upptäckter inom maskininlärning varje dag.
Lagen är dock inte lika snabb. När företag och regeringar fortsätter att utnyttja AI för att maximera vinster eller ta kontroll över medborgarna, måste vi hitta sätt att driva på för transparens och rättvisa i användningen av dessa algoritmer.
Tror du att verkligt etisk AI är möjligt?
Kommentera uppropet