Cum ne asigurăm că folosim AI în mod responsabil?
Progresele în învățarea automată arată că modelele se pot scala rapid și pot afecta o mare parte a societății.
Algoritmii controlează fluxul de știri de pe telefoanele tuturor. Guvernele și corporațiile încep să folosească AI pentru a lua decizii bazate pe date.
Pe măsură ce IA devine și mai înrădăcinată în modul în care funcționează lumea, cum ne asigurăm că AI acționează corect?
În acest articol, vom analiza provocările etice ale utilizării AI și vom vedea ce putem face pentru a asigura utilizarea responsabilă a AI.
Ce este IA etică?
Inteligența artificială etică se referă la inteligența artificială care aderă la un anumit set de linii directoare etice.
Cu alte cuvinte, este o modalitate prin care indivizii și organizațiile pot lucra cu AI într-un mod responsabil.
În ultimii ani, corporațiile au început să respecte legile privind confidențialitatea datelor după ce au apărut dovezi de abuz și încălcare. În mod similar, orientările pentru IA etică sunt recomandate pentru a vă asigura că IA nu afectează negativ societatea.
De exemplu, unele tipuri de IA funcționează într-o manieră părtinitoare sau perpetuează părtiniri deja existente. Să luăm în considerare un algoritm care îi ajută pe recrutori să trimită mii de CV-uri. Dacă algoritmul este antrenat pe un set de date cu angajați predominant bărbați sau albi, atunci este posibil ca algoritmul să favorizeze solicitanții care se încadrează în acele categorii.
Stabilirea principiilor pentru IA etică
Ne-am gândit să stabilim un set de reguli pe care să le impunem inteligență artificială de zeci de ani.
Chiar și în anii 1940, când cele mai puternice calculatoare nu puteau face decât cele mai specializate calcule științifice, scriitorii de science fiction s-au gândit la ideea de a controla roboții inteligenți.
Isaac Asimov a inventat cele Trei Legi ale Roboticii, despre care el a propus să fie încorporate în programarea roboților în povestirile sale scurte ca o caracteristică de siguranță.
Aceste legi au devenit o piatră de încercare pentru multe viitoare povești SF și chiar au informat studii reale despre etica AI.
În cercetarea contemporană, cercetătorii AI caută surse mai fundamentate pentru a stabili o listă de principii pentru IA etică.
Deoarece AI va afecta în cele din urmă viețile umane, trebuie să avem o înțelegere fundamentală a ceea ce ar trebui și nu ar trebui să facem.
Raportul Belmont
Pentru un punct de referință, cercetătorii în etică analizează Raportul Belmont ca un ghid. The Raportul Belmont a fost un document publicat de Institutul Național de Sănătate din SUA în 1979. Atrocitățile biomedicale comise în cel de-al Doilea Război Mondial au condus la un impuls pentru a legifera orientări etice pentru cercetătorii care practică medicina.
Iată cele trei principii fundamentale menționate în raport:
- Respect pentru persoane
- Beneficiență
- Justiție
Primul principal urmărește să susțină demnitatea și autonomia tuturor subiecților umani. De exemplu, cercetătorii ar trebui să reducă la minimum înșelarea participanților și ar trebui să solicite fiecărei persoane să-și dea consimțământul explicit.
Al doilea principiu, binefacerea, se concentrează pe datoria cercetătorului de a minimiza potențialul prejudiciu adus participanților. Acest principiu conferă cercetătorilor datoria de a echilibra raportul dintre riscurile individuale și potențialele beneficii sociale.
Justiția, principiul final stabilit de Raportul Belmont, se concentrează pe distribuția egală a riscurilor și beneficiilor între grupurile care ar putea beneficia de pe urma cercetării. Cercetătorii au datoria de a selecta subiecții de cercetare din populația mai largă. Acest lucru ar minimiza prejudecățile individuale și sistemice care ar putea afecta negativ societatea.
Plasarea eticii în cercetarea AI
În timp ce Raportul Belmont a vizat în primul rând cercetările care implică subiecți umani, principiile au fost suficient de ample pentru a fi aplicate în domeniul eticii AI.
Big Data a devenit o resursă valoroasă în domeniul inteligenței artificiale. Procesele care determină modul în care cercetătorii colectează date ar trebui să urmeze liniile directoare etice.
Implementarea legilor privind confidențialitatea datelor în majoritatea națiunilor pune oarecum o limită asupra datelor pe care companiile le pot colecta și utiliza. Cu toate acestea, majoritatea națiunilor au încă un set rudimentar de legi în vigoare pentru a preveni utilizarea IA pentru a provoca rău.
Cum să lucrezi cu AI în mod etic
Iată câteva concepte cheie care pot ajuta la lucrul către o utilizare mai etică și responsabilă a AI.
Control pentru părtinire
Inteligența artificială nu este în mod inerent neutră. Algoritmii sunt întotdeauna susceptibili la prejudecăți introduse și la discriminare, deoarece datele din care învață includ părtinire.
Un exemplu comun de IA discriminatorie este tipul care apare frecvent în sistemele de recunoaștere facială. Aceste modele reușesc adesea să identifice fețele masculine albe, dar au mai puțin succes în recunoașterea persoanelor cu pielea mai închisă la culoare.
Un alt exemplu apare în DALL-E 2 de la OpenAI. Utilizatorii au a descoperit că anumite solicitări reproduc adesea prejudecățile de gen și rasiale pe care modelul le-a preluat din setul său de date de imagini online.
De exemplu, când primește o solicitare pentru imagini cu avocați, DALL-E 2 returnează imagini cu avocați bărbați. Pe de altă parte, solicitarea de fotografii ale însoțitorilor de bord returnează în mare parte femei însoțitoare de bord.
Deși poate fi imposibil să eliminam complet părtinirea sistemelor AI, putem lua măsuri pentru a minimiza efectele acesteia. Cercetătorii și inginerii pot obține un control mai mare asupra părtinirii prin înțelegerea datelor de formare și angajând o echipă diversă care să ofere informații despre modul în care ar trebui să funcționeze sistemul AI.
Abordare de proiectare centrată pe om
Algoritmii din aplicația ta preferată te pot afecta negativ.
Platforme precum Facebook și TikTok pot afla ce conținut să servească pentru a menține utilizatorii pe platformele lor.
Chiar și fără intenția de a provoca rău, obiectivul de a menține utilizatorii lipiți de aplicația lor cât mai mult timp posibil ar putea duce la probleme de sănătate mintală. Termenul „doomscrolling” a crescut în popularitate ca termen general pentru a petrece cantități excesive de timp citind știri negative pe platforme precum Twitter și Facebook.
În alte cazuri, conținutul instigator la ură și dezinformarea primesc o platformă mai largă, deoarece ajută la creșterea implicării utilizatorilor. A 2021 studiu de la cercetătorii de la Universitatea din New York arată că postările din surse cunoscute pentru dezinformare primesc de șase ori mai multe aprecieri decât sursele de știri de renume.
Acești algoritmi lipsesc într-o abordare de proiectare centrată pe om. Inginerii care proiectează modul în care o IA realizează o acțiune trebuie să țină întotdeauna cont de experiența utilizatorului.
Cercetătorii și inginerii trebuie să pună întotdeauna întrebarea: „cum beneficiază acest lucru utilizatorului?”
Majoritatea modelelor AI urmează un model cutie neagră. O cutie neagră înăuntru masina de învățare se referă la o IA în care niciun om nu poate explica de ce AI a ajuns la un anumit rezultat.
Cutiile negre sunt problematice, deoarece scade cantitatea de încredere pe care o putem pune în mașini.
De exemplu, să ne imaginăm un scenariu în care Facebook a lansat un algoritm care a ajutat guvernele să urmărească criminalii. Dacă sistemul AI vă semnalează, nimeni nu va putea explica de ce a luat această decizie. Acest tip de sistem nu ar trebui să fie singurul motiv pentru care ar trebui să fii arestat.
AI explicabil sau XAI ar trebui să returneze o listă de factori care au contribuit la rezultatul final. Revenind la ipoteticul nostru instrument de urmărire a criminalității, putem modifica sistemul AI pentru a returna o listă de postări care arată limbaj sau termeni suspecti. De acolo, un om poate verifica dacă utilizatorul semnalat merită investigat sau nu.
XAI oferă mai multă transparență și încredere în sistemele AI și poate ajuta oamenii să ia decizii mai bune.
Concluzie
Ca toate invențiile create de om, inteligența artificială nu este în mod inerent bună sau rea. Modul în care folosim inteligența artificială contează.
Ceea ce este unic la inteligența artificială este ritmul în care aceasta crește. În ultimii cinci ani, am văzut zilnic descoperiri noi și interesante în domeniul învățării automate.
Cu toate acestea, legea nu este la fel de rapidă. Pe măsură ce corporațiile și guvernele continuă să folosească inteligența artificială pentru a maximiza profiturile sau pentru a prelua controlul asupra cetățenilor, trebuie să găsim modalități de a promova transparența și echitatea în utilizarea acestor algoritmi.
Crezi că este posibilă IA cu adevărat etică?
Lasă un comentariu