Cumu assicurà chì usemu l'AI in modu rispunsevule?
L'avanzamenti in l'apprendimentu automaticu mostranu chì i mudelli ponu scala rapidamente è impacte una grande parte di a sucità.
L'algoritmi cuntrollanu a newsfeed in i telefoni di tutti. I guverni è e corporazioni cumincianu à aduprà AI per piglià decisioni infurmati nantu à e dati.
Cume l'IA diventa più arradicata in u funziunamentu di u mondu, cumu si assicura chì l'IA agisce in modu ghjustu?
In questu articulu, guardemu i sfidi etichi di l'usu di l'AI è vede ciò chì pudemu fà per assicurà l'usu rispunsevule di l'AI.
Cosa hè l'IA Etica?
L'IA etica si riferisce à l'intelligenza artificiale chì aderisce à un certu settore di linee etiche.
In altre parolle, hè un modu per l'individui è l'urganisazione di travaglià cù l'AI in modu rispunsevule.
Nta l'ultimi anni, e corporazioni anu cuminciatu à aderisce à e liggi di privacy di dati dopu chì l'evidenza di abusu è di violazione sò ghjunte à a luce. In listessu modu, e linee guida per l'IA etica sò cunsigliate per assicurà chì l'IA ùn hà micca un impattu negativu nantu à a società.
Per esempiu, certi tipi di AI funzionanu in una manera biased o perpetuate preghjudizii digià esistenti. Cunsideremu un algoritmu chì aiuta i reclutatori à sorte à traversu millaie di currículum. Se l'algoritmu hè furmatu nantu à un inseme di dati cù impiegati principarmenti maschili o bianchi, allora hè pussibule chì l'algoritmu favurizeghja i candidati chì cadenu in queste categurie.
Stabbilimentu di principii per l'IA etica
Avemu pensatu à stabilisce un inseme di regule per impone ntilliggenza artificiali duranti decenni.
Ancu in l'anni 1940, quandu l'urdinatori più putenti pudianu fà solu i calculi scientifichi più spicializati, i scrittori di fantascienza anu meditatu annantu à l'idea di cuntrullà i robot intelligenti.
Isaac Asimov hà famosu incununatu e Trè Leggi di Robotica, chì hà prupostu chì era incrustatu in a prugrammazione di robots in i so brevi storie cum'è una funzione di salvezza.
Queste liggi sò diventate una pietra di toccu per parechje storie di sci-fi futuri è anu ancu infurmatu studii attuali nantu à l'etica di l'IA.
In a ricerca cuntempuranea, i circadori AI cercanu fonti più fundate per stabilisce una lista di principii per l'IA etica.
Siccomu l'AI infine affetterà a vita umana, duvemu avè una cunniscenza fundamentale di ciò chì duvemu è ùn deve micca fà.
A relazione Belmont
Per un puntu di riferimentu, i circadori di l'etica cercanu u Rapportu Belmont cum'è una guida. U Rapportu Belmont era un documentu publicatu da l'Istituti Naziunali di Salute di i Stati Uniti in 1979. L'atrocità biomediche realizate in a Seconda Guerra Mondiale hà purtatu à una spinta per legislate linee etiche per i circadori chì praticanu a medicina.
Eccu i trè principii fundamenti citati in u rapportu:
- U rispettu di e persone
- Beneficenza
- giustizia
U primu principale hà per scopu di mantene a dignità è l'autonomia di tutti i sughjetti umani. Per esempiu, i circadori duveranu minimizzà i participanti ingannati è devenu esse dumandate à ogni persona per dà u so accunsentu esplicitu.
U sicondu principiu, a beneficenza, si focalizeghja nantu à u duvere di l'investigatore per minimizzà u dannu potenziale à i participanti. Stu principiu dà à i circadori u duvere di equilibriu u rapportu di risichi individuali à benefici suciali potenziali.
A ghjustizia, u principiu finali stabilitu da u Rapportu Belmont, si concentra in a distribuzione uguale di risichi è benefici trà i gruppi chì puderanu prufittà di a ricerca. I ricercatori anu u duvere di selezziunà i sughjetti di ricerca da a populazione più larga. Fate cusì minimizeghja i preghjudizii individuali è sistemichi chì puderanu affettà negativamente a sucità.
Mettre l'éthique dans la recherche sur l'IA
Mentre u Rapportu Belmont era principalmente destinatu à a ricerca chì implicava sughjetti umani, i principii eranu abbastanza larghi per applicà à u campu di l'etica AI.
Big Data hè diventatu una risorsa preziosa in u campu di l'intelligenza artificiale. I prucessi chì determinanu cumu i ricercatori recullanu e dati anu da seguità e linee etiche.
L'implementazione di e lege di privacy di dati in a maiò parte di e nazioni mette un pocu un limite à ciò chì e cumpagnie di dati ponu cullà è aduprà. In ogni casu, a maiuranza di e nazioni anu sempre un rudimentariu inseme di lege in u locu per impedisce l'usu di l'AI per causà danni.
Cumu travaglià cù l'IA Ethically
Eccu alcuni cuncetti chjave chì ponu aiutà à travaglià versu un usu più eticu è rispunsevule di l'IA.
Cuntrolla per Bias
L'intelligenza artificiale ùn hè micca intrinsecamente neutra. L'algoritmi sò sempre suscettibili à u preghjudiziu inseritu è a discriminazione perchè e dati chì amparanu includenu bias.
Un esempiu cumuni di AI discriminatoriu hè u tipu chì spessu appare in i sistemi di ricunniscenza faciale. Sti mudelli sò spessu riesciuti à identificà facci maschili bianchi, ma sò menu successu à ricunnosce e persone cù a pelle più scura.
Un altru esempiu appare in DALL-E 2 di OpenAI. L'utilizatori anu Scupertu chì certi prompti spessu riproducenu preghjudizii di genere è razziali chì u mudellu hà pigliatu da u so dataset d'imaghjini in linea.
Per esempiu, quandu dà un prompt per l'imaghjini di l'avucati, DALL-E 2 torna l'imaghjini di l'avucati maschili. Per d 'altra banda, a dumanda di ritratti di l'assistenti di volu torna soprattuttu donne assistenti di volu.
Mentre pò esse impussibile di sguassà cumplettamente u preghjudiziu da i sistemi AI, pudemu piglià passi per minimizzà i so effetti. I ricercatori è l'ingegneri ponu ottene un cuntrollu più grande di u preghjudiziu, cumprendendu i dati di furmazione è assumendu una squadra diversa per offre input nantu à cumu si deve travaglià u sistema AI.
Approcciu di cuncepimentu centratu in l'omu
L'algoritmi nantu à a vostra app preferita ponu affettà negativamente.
Piattaforme cum'è Facebook è TikTok sò capaci di amparà quale cuntenutu serve per mantene l'utilizatori nantu à e so piattaforme.
Ancu senza l'intenzione di causà danni, l'ughjettu di mantene l'utilizatori incollati à a so app per u più longu pussibule puderia purtà à prublemi di salute mentale. U terminu "doomscrolling" hè cresciutu in pupularità cum'è u termine catch-all per passà quantità eccessive di tempu à leghje nutizie negative nantu à piattaforme cum'è Twitter è Facebook.
In altri casi, u cuntenutu odioso è a misinformazione ricevenu una piattaforma più larga perchè aiuta à aumentà l'ingaghjamentu di l'utilizatori. A studiu 2021 da i circadori di l'Università di New York mostra chì i posti da fonti cunnisciuti per a misinformazione ricevenu sei volte di più piace chè fonti di nutizie reputable.
Questi algoritmi mancanu in un approcciu di designu centru umanu. L'ingegneri chì cuncepiscenu cumu una IA esegue un'azzione deve sempre tene in mente l'esperienza di l'utilizatore.
L'investigatore è l'ingegneri anu da sempre dumandà a quistione: "cumu questu benefica l'utilizatori?"
A maiò parte di i mudelli AI seguitanu un mudellu di scatula negra. Una scatula nera in machine learning si riferisce à una AI induve nimu umanu pò spiegà perchè l'AI hè ghjuntu à un risultatu particulari.
I scatuli neri sò problematiche perchè diminuite a quantità di fiducia chì pudemu mette in macchine.
Per esempiu, imaginemu un scenariu induve Facebook hà liberatu un algoritmu chì aiutava i guverni à seguità i criminali. Se u sistema AI ti marca, nimu ùn serà capace di spiegà perchè hè stata presa quella decisione. Stu tipu di sistema ùn deve esse l'unicu mutivu perchè duvete esse arrestatu.
L'AI spiegà o XAI deve rinvià una lista di fatturi chì anu cuntribuitu à u risultatu finali. Riturnendu à u nostru ipoteticu tracker criminale, pudemu aghjustà u sistema AI per rinvià una lista di posti chì mostranu lingua o termini sospetti. Da quì, un umanu pò verificà se l'utilizatore marcatu vale a pena investigà o micca.
XAI furnisce più trasparenza è fiducia in i sistemi AI è pò aiutà l'omu à piglià decisioni megliu.
cunchiusioni
Cum'è tutti l'invenzioni artificiali, l'intelligenza artificiale ùn hè micca intrinsecamente bona o cattiva. Hè a manera chì usemu AI chì importa.
Ciò chì hè unicu di l'intelligenza artificiale hè u ritmu à u quale hè in crescita. In l'ultimi cinque anni, avemu vistu scuperte novi è eccitanti in u campu di l'apprendimentu automaticu ogni ghjornu.
Tuttavia, a lege ùn hè micca cusì rapida. Cume e corporazioni è i guverni cuntinueghjanu à sfruttà l'AI per maximizà i profitti o piglià u cuntrollu di i citadini, duvemu truvà modi per spinghje a trasparenza è l'equità in l'usu di questi algoritmi.
Pensate chì l'IA veramente etica hè pussibule?
Lascia un Audiolibro