Hoe maak ons seker dat ons KI verantwoordelik gebruik?
Vooruitgang in masjienleer toon dat modelle vinnig kan skaal en 'n groot deel van die samelewing kan beïnvloed.
Algoritmes beheer die nuusvoer op almal se fone. Regerings en korporasies begin KI gebruik om data-ingeligte besluite te neem.
Namate KI verder ingeburger raak in hoe die wêreld funksioneer, hoe maak ons seker dat die KI regverdig optree?
In hierdie artikel sal ons kyk na die etiese uitdagings van die gebruik van KI en kyk wat ons kan doen om die verantwoordelike gebruik van KI te verseker.
Wat is etiese KI?
Etiese KI verwys na kunsmatige intelligensie wat aan 'n sekere stel etiese riglyne voldoen.
Met ander woorde, dit is 'n manier vir individue en organisasies om op 'n verantwoordelike manier met KI te werk.
In onlangse jare het korporasies by dataprivaatheidswette begin hou nadat bewyse van misbruik en oortreding aan die lig gekom het. Net so word riglyne vir etiese KI aanbeveel om seker te maak dat KI nie die samelewing negatief beïnvloed nie.
Sommige tipes KI werk byvoorbeeld op 'n bevooroordeelde manier of hou reeds bestaande vooroordele voort. Kom ons kyk na 'n algoritme wat werwers help om deur duisende CV's te sorteer. As die algoritme opgelei word op 'n datastel met oorwegend manlike of wit werknemers, dan is dit moontlik dat die algoritme aansoekers wat onder daardie kategorieë val, sal bevoordeel.
Vestiging van beginsels vir etiese KI
Ons het daaraan gedink om 'n stel reëls op te stel om op te dwing kunsmatige intelligensie vir dekades.
Selfs in die 1940's, toe die kragtigste rekenaars net die mees gespesialiseerde wetenskaplike berekeninge kon doen, het wetenskapfiksieskrywers nagedink oor die idee om intelligente robotte te beheer.
Isaac Asimov het beroemd die Three Laws of Robotics geskep, wat hy voorgestel het as 'n veiligheidskenmerk in die programmering van robotte in sy kortverhale ingebed.
Hierdie wette het 'n toetssteen geword vir baie toekomstige sci-fi-verhale en het selfs werklike studies oor die etiek van KI ingelig.
In kontemporêre navorsing kyk KI-navorsers na meer gegronde bronne om 'n lys beginsels vir etiese KI daar te stel.
Aangesien KI uiteindelik menselewens sal beïnvloed, moet ons 'n fundamentele begrip hê van wat ons moet en nie moet doen nie.
Die Belmont-verslag
Vir 'n verwysingspunt kyk etieknavorsers na die Belmont-verslag as 'n riglyn. Die Belmont-verslag was 'n dokument wat in 1979 deur die Amerikaanse Nasionale Instituut van Gesondheid gepubliseer is. Biomediese gruweldade wat in die Tweede Wêreldoorlog uitgevoer is, het gelei tot 'n poging om etiese riglyne vir navorsers wat medisyne praktiseer te wetgewing.
Hier is die drie grondbeginsels wat in die verslag genoem word:
- Respek vir persone
- Weldadigheid
- geregtigheid
Die eerste skoolhoof het ten doel om die waardigheid en outonomie van alle menslike subjekte te handhaaf. Navorsers moet byvoorbeeld misleidende deelnemers tot die minimum beperk en moet van elke persoon vereis om hul uitdruklike toestemming te gee.
Die tweede beginsel, weldadigheid, fokus op die navorser se plig om potensiële skade aan deelnemers te minimaliseer. Hierdie beginsel gee die navorsers die plig om die verhouding van individuele risiko's tot potensiële maatskaplike voordele te balanseer.
Geregtigheid, die finale beginsel wat deur die Belmont-verslag uiteengesit word, fokus op gelyke verdeling van risiko's en voordele oor groepe wat by die navorsing kan baat. Navorsers het die plig om navorsingsvakke uit die breër bevolking te kies. Deur dit te doen, sal individuele en sistemiese vooroordele wat die samelewing negatief kan beïnvloed, tot die minimum beperk.
Die plasing van etiek in KI-navorsing
Terwyl die Belmont-verslag hoofsaaklik gemik was op navorsing waarby menslike proefpersone betrokke was, was die beginsels wyd genoeg om op die veld van KI-etiek van toepassing te wees.
Big Data het 'n waardevolle hulpbron op die gebied van kunsmatige intelligensie geword. Die prosesse wat bepaal hoe navorsers data insamel, moet etiese riglyne volg.
Die implementering van dataprivaatheidswette in die meeste lande plaas ietwat 'n beperking op watter data maatskappye kan insamel en gebruik. Die meerderheid nasies het egter steeds 'n rudimentêre stel wette in plek om te verhoed dat die gebruik van KI om skade te veroorsaak.
Hoe om eties met KI te werk
Hier is 'n paar sleutelkonsepte wat kan help om te werk na 'n meer etiese en verantwoordelike gebruik van KI.
Beheer vir vooroordeel
Kunsmatige intelligensie is nie inherent neutraal nie. Algoritmes is altyd vatbaar vir ingevoegde vooroordeel en diskriminasie omdat die data wat dit leer, vooroordeel insluit.
'n Algemene voorbeeld van diskriminerende KI is die tipe wat gereeld in gesigsherkenningstelsels voorkom. Hierdie modelle slaag dikwels daarin om wit manlike gesigte te identifiseer, maar is minder suksesvol om mense met donkerder vel te herken.
Nog 'n voorbeeld verskyn in OpenAI se DALL-E 2. Gebruikers het ontdek dat sekere aansporings dikwels geslags- en rassevooroordele weergee wat die model uit sy datastel van aanlynbeelde opgetel het.
Byvoorbeeld, wanneer 'n versoek vir beelde van prokureurs gegee word, gee DALL-E 2 beelde van manlike prokureurs terug. Aan die ander kant, om foto's van vlugkelners te versoek, gee meestal vroulike vlugkelners terug.
Alhoewel dit onmoontlik is om vooroordeel heeltemal van KI-stelsels te verwyder, kan ons stappe doen om die uitwerking daarvan te verminder. Navorsers en ingenieurs kan groter beheer van vooroordeel verkry deur die opleidingsdata te verstaan en 'n diverse span aan te stel om insette te lewer oor hoe die KI-stelsel moet werk.
Mensgesentreerde ontwerpbenadering
Algoritmes op jou gunsteling toepassing kan jou negatief beïnvloed.
Platforms soos Facebook en TikTok kan leer watter inhoud om te bedien om gebruikers op hul platforms te hou.
Selfs sonder die voorneme om skade aan te rig, kan die doelwit om gebruikers so lank as moontlik aan hul toepassing vasgenael te hou tot geestesgesondheidskwessies lei. Die term 'doomscrolling' het in gewildheid toegeneem as die mees algemene term vir die besteding van oormatige hoeveelhede tyd aan die lees van negatiewe nuus op platforms soos Twitter en Facebook.
In ander gevalle kry haatlike inhoud en verkeerde inligting 'n wyer platform omdat dit gebruikersbetrokkenheid help verhoog. A 2021 studie van navorsers aan die Universiteit van New York wys dat plasings van bronne wat bekend is vir verkeerde inligting ses keer meer likes kry as betroubare nuusbronne.
Hierdie algoritmes ontbreek in 'n mensgesentreerde ontwerpbenadering. Ingenieurs wat ontwerp hoe 'n KI 'n aksie uitvoer, moet altyd die gebruikerservaring in gedagte hou.
Navorsers en ingenieurs moet altyd die vraag vra: 'hoe baat dit die gebruiker?'
Die meeste KI-modelle volg 'n swartboksmodel. 'n Swart boks in machine learning verwys na 'n KI waar geen mens kan verduidelik hoekom die KI tot 'n bepaalde resultaat gekom het nie.
Swart bokse is problematies omdat dit die hoeveelheid vertroue wat ons in masjiene kan stel, verminder.
Kom ons stel ons byvoorbeeld 'n scenario voor waar Facebook 'n algoritme vrygestel het wat regerings gehelp het om misdadigers op te spoor. As die KI-stelsel jou vlag, sal niemand kan verduidelik hoekom dit daardie besluit geneem het nie. Hierdie tipe stelsel behoort nie die enigste rede te wees waarom jy gearresteer moet word nie.
Verduidelikbare KI of XAI moet 'n lys faktore gee wat tot die finale resultaat bygedra het. As ons teruggaan na ons hipotetiese kriminele spoorsnyer, kan ons die KI-stelsel aanpas om 'n lys plasings terug te gee wat verdagte taal of terme toon. Van daar af kan 'n mens verifieer of die gemerkte gebruiker die moeite werd is om te ondersoek of nie.
XAI bied meer deursigtigheid en vertroue in KI-stelsels en kan mense help om beter besluite te neem.
Gevolgtrekking
Soos alle mensgemaakte uitvindings, is kunsmatige intelligensie nie inherent goed of sleg nie. Dit is die manier waarop ons KI gebruik wat saak maak.
Wat uniek is aan kunsmatige intelligensie, is die tempo waarteen dit groei. In die afgelope vyf jaar het ons elke dag nuwe en opwindende ontdekkings op die gebied van masjienleer gesien.
Die wet is egter nie so vinnig nie. Aangesien korporasies en regerings voortgaan om KI te benut om winste te maksimeer of beheer oor burgers te gryp, moet ons maniere vind om te druk vir deursigtigheid en billikheid in die gebruik van hierdie algoritmes.
Dink jy werklik etiese KI is moontlik?
Lewer Kommentaar