Inhoudsopgave[Zich verstoppen][Laten zien]
Hoe zorgen we ervoor dat we AI verantwoord inzetten?
Vooruitgang in machine learning laat zien dat modellen snel kunnen schalen en een groot deel van de samenleving kunnen beïnvloeden.
Algoritmen regelen de nieuwsfeed op ieders telefoons. Overheden en bedrijven beginnen AI te gebruiken om op gegevens gebaseerde beslissingen te nemen.
Hoe zorgen we ervoor dat AI eerlijk handelt naarmate AI verder verankerd raakt in hoe de wereld werkt?
In dit artikel gaan we in op de ethische uitdagingen van het gebruik van AI en kijken we wat we kunnen doen om een verantwoord gebruik van AI te waarborgen.
Wat is ethische AI?
Ethische AI verwijst naar kunstmatige intelligentie die zich houdt aan een bepaalde reeks ethische richtlijnen.
Met andere woorden, het is een manier voor individuen en organisaties om op een verantwoorde manier met AI te werken.
In de afgelopen jaren zijn bedrijven zich gaan houden aan de wetgeving inzake gegevensprivacy nadat bewijzen van misbruik en inbreuk aan het licht kwamen. Evenzo worden richtlijnen voor ethische AI aanbevolen om ervoor te zorgen dat AI de samenleving niet negatief beïnvloedt.
Sommige soorten AI werken bijvoorbeeld op een bevooroordeelde manier of bestendigen reeds bestaande vooroordelen. Laten we eens kijken naar een algoritme dat recruiters helpt bij het doorzoeken van duizenden cv's. Als het algoritme is getraind op een dataset met overwegend mannelijke of blanke werknemers, dan is het mogelijk dat het algoritme de voorkeur geeft aan sollicitanten die onder die categorieën vallen.
Principes vaststellen voor ethische AI
We hebben nagedacht over het opstellen van een reeks regels om op te leggen kunstmatige intelligentie al decenia.
Zelfs in de jaren veertig, toen de krachtigste computers alleen de meest gespecialiseerde wetenschappelijke berekeningen konden doen, hebben sciencefictionschrijvers nagedacht over het idee om intelligente robots te besturen.
Isaac Asimov bedacht de beroemde drie wetten van de robotica, die hij voorstelde als een veiligheidsfunctie in de programmering van robots in zijn korte verhalen.
Deze wetten zijn een toetssteen geworden voor veel toekomstige sci-fi-verhalen en hebben zelfs geleid tot feitelijke studies over de ethiek van AI.
In hedendaags onderzoek zoeken AI-onderzoekers naar meer gefundeerde bronnen om een lijst met principes voor ethische AI op te stellen.
Aangezien AI uiteindelijk mensenlevens zal beïnvloeden, moeten we een fundamenteel begrip hebben van wat we wel en niet zouden moeten doen.
Het Belmont-rapport
Voor een referentiepunt kijken ethiekonderzoekers naar het Belmont-rapport als leidraad. De Belmont-rapport was een document dat in 1979 door de Amerikaanse National Institutes of Health werd gepubliceerd. Biomedische gruweldaden tijdens de Tweede Wereldoorlog leidden tot een drang om ethische richtlijnen vast te stellen voor onderzoekers die geneeskunde beoefenen.
Dit zijn de drie fundamentele principes die in het rapport worden genoemd:
- Respect voor personen
- Weldadigheid
- gerechtigheid
Het eerste principe is gericht op het hooghouden van de waardigheid en autonomie van alle menselijke subjecten. Onderzoekers moeten bijvoorbeeld het misleiden van deelnemers tot een minimum beperken en moeten van elke persoon hun uitdrukkelijke toestemming vragen.
Het tweede principe, weldadigheid, richt zich op de plicht van de onderzoeker om mogelijke schade aan deelnemers tot een minimum te beperken. Dit principe geeft de onderzoekers de plicht om de verhouding tussen individuele risico's en potentiële maatschappelijke baten af te wegen.
Justitie, het laatste principe dat in het Belmont-rapport wordt uiteengezet, is gericht op een gelijke verdeling van risico's en voordelen over groepen die baat kunnen hebben bij het onderzoek. Onderzoekers hebben de plicht om onderzoeksonderwerpen uit de bredere populatie te selecteren. Dit zou individuele en systemische vooroordelen minimaliseren die een negatieve invloed zouden kunnen hebben op de samenleving.
Ethiek in AI-onderzoek plaatsen
Hoewel het Belmont-rapport in de eerste plaats gericht was op onderzoek met menselijke proefpersonen, waren de principes breed genoeg om van toepassing te zijn op het gebied van AI-ethiek.
Big Data is een waardevolle hulpbron geworden op het gebied van kunstmatige intelligentie. De processen die bepalen hoe onderzoekers gegevens verzamelen, moeten ethische richtlijnen volgen.
De implementatie van gegevensprivacywetten in de meeste landen legt enigszins een limiet op wat gegevensbedrijven kunnen verzamelen en gebruiken. De meeste landen hebben echter nog steeds een rudimentaire reeks wetten om het gebruik van AI om schade te veroorzaken, te voorkomen.
Ethisch werken met AI
Hier zijn een paar sleutelconcepten die kunnen helpen bij het werken aan een ethischer en verantwoorder gebruik van AI.
Controle voor bias
Kunstmatige intelligentie is niet inherent neutraal. Algoritmen zijn altijd vatbaar voor vooringenomenheid en discriminatie, omdat de gegevens waaruit het leert, vooringenomenheid bevatten.
Een veelvoorkomend voorbeeld van discriminerende AI is het type dat vaak voorkomt in gezichtsherkenningssystemen. Deze modellen slagen er vaak in om blanke mannelijke gezichten te identificeren, maar zijn minder succesvol in het herkennen van mensen met een donkere huid.
Een ander voorbeeld verschijnt in OpenAI's DALL-E 2. Gebruikers hebben: ontdekt dat bepaalde aanwijzingen vaak gender- en raciale vooroordelen reproduceren die het model heeft opgepikt uit zijn dataset met online afbeeldingen.
Als DALL-E 2 bijvoorbeeld wordt gevraagd om afbeeldingen van advocaten, retourneert DALL-E XNUMX afbeeldingen van mannelijke advocaten. Aan de andere kant levert het opvragen van foto's van stewardessen meestal vrouwelijke stewardessen op.
Hoewel het misschien onmogelijk is om vooringenomenheid volledig uit AI-systemen te verwijderen, kunnen we stappen ondernemen om de effecten ervan te minimaliseren. Onderzoekers en ingenieurs kunnen vooringenomenheid beter onder controle krijgen door de trainingsgegevens te begrijpen en een divers team in te huren om input te geven over hoe het AI-systeem zou moeten werken.
Mensgerichte ontwerpbenadering
Algoritmen op uw favoriete app kunnen u negatief beïnvloeden.
Platforms zoals Facebook en TikTok kunnen leren welke inhoud moet worden weergegeven om gebruikers op hun platform te houden.
Zelfs zonder de bedoeling om schade aan te richten, kan het doel om gebruikers zo lang mogelijk aan hun app gekluisterd te houden, leiden tot psychische problemen. De term 'doomscrolling' is in populariteit gestegen als de verzamelnaam voor het buitensporig veel tijd besteden aan het lezen van negatief nieuws op platforms als Twitter en Facebook.
In andere gevallen krijgen hatelijke inhoud en verkeerde informatie een breder platform omdat het de betrokkenheid van gebruikers helpt vergroten. EEN 2021 studie van onderzoekers van de New York University laat zien dat berichten van bronnen die bekend staan om desinformatie zes keer meer likes krijgen dan gerenommeerde nieuwsbronnen.
Deze algoritmen missen een mensgerichte ontwerpbenadering. Ingenieurs die ontwerpen hoe een AI een actie uitvoert, moeten altijd rekening houden met de gebruikerservaring.
Onderzoekers en ingenieurs moeten altijd de vraag stellen: 'wat levert dit de gebruiker op?'
De meeste AI-modellen volgen een black box-model. Een zwarte doos in machine learning verwijst naar een AI waarbij geen mens kan verklaren waarom de AI tot een bepaald resultaat is gekomen.
Zwarte dozen zijn problematisch omdat het het vertrouwen dat we in machines kunnen stellen, vermindert.
Laten we ons bijvoorbeeld een scenario voorstellen waarin Facebook een algoritme uitbracht dat overheden hielp criminelen op te sporen. Als het AI-systeem je markeert, kan niemand uitleggen waarom het die beslissing heeft genomen. Dit type systeem zou niet de enige reden moeten zijn waarom je gearresteerd zou moeten worden.
Verklaarbare AI of XAI zou een lijst met factoren moeten retourneren die hebben bijgedragen aan het eindresultaat. Terugkomend op onze hypothetische criminele tracker, kunnen we het AI-systeem aanpassen om een lijst met berichten terug te sturen met verdachte taal of termen. Van daaruit kan een mens verifiëren of de gemarkeerde gebruiker het onderzoeken waard is of niet.
XAI zorgt voor meer transparantie en vertrouwen in AI-systemen en kan mensen helpen betere beslissingen te nemen.
Conclusie
Zoals alle door de mens gemaakte uitvindingen, is kunstmatige intelligentie niet inherent goed of slecht. Het is de manier waarop we AI gebruiken die ertoe doet.
Het unieke aan kunstmatige intelligentie is het tempo waarmee het groeit. In de afgelopen vijf jaar hebben we elke dag nieuwe en opwindende ontdekkingen gezien op het gebied van machine learning.
De wet is echter niet zo snel. Terwijl bedrijven en overheden AI blijven gebruiken om de winst te maximaliseren of de controle over burgers te grijpen, moeten we manieren vinden om transparantie en rechtvaardigheid bij het gebruik van deze algoritmen te stimuleren.
Denk je dat echt ethische AI mogelijk is?
Laat een reactie achter