Com ens assegurem que utilitzem la IA de manera responsable?
Els avenços en l'aprenentatge automàtic mostren que els models poden escalar i afectar ràpidament una gran part de la societat.
Els algorismes controlen el canal de notícies als telèfons de tothom. Els governs i les corporacions comencen a utilitzar la IA per prendre decisions basades en dades.
A mesura que la IA s'arrela més en el funcionament del món, com ens assegurem que la IA actua de manera justa?
En aquest article, analitzarem els reptes ètics de l'ús de la IA i veurem què podem fer per garantir l'ús responsable de la IA.
Què és l'IA ètica?
La IA ètica fa referència a la intel·ligència artificial que s'adhereix a un determinat conjunt de directrius ètiques.
En altres paraules, és una manera perquè les persones i les organitzacions treballin amb la IA d'una manera responsable.
En els darrers anys, les corporacions han començat a respectar les lleis de privadesa de dades després de sortir a la llum proves d'abús i violació. De la mateixa manera, es recomanen directrius per a la IA ètica per assegurar-se que la IA no afecti negativament la societat.
Per exemple, alguns tipus d'IA funcionen de manera esbiaixada o perpetuen biaixos ja existents. Considerem un algorisme que ajuda els reclutadors a ordenar milers de currículums. Si l'algorisme s'entrena en un conjunt de dades amb empleats majoritàriament homes o blancs, és possible que l'algorisme afavoreixi els sol·licitants que pertanyen a aquestes categories.
Establiment de principis per a una IA ètica
Hem pensat a establir un conjunt de normes per imposar intel·ligència artificial durant dècades.
Fins i tot a la dècada de 1940, quan els ordinadors més potents només podien fer els càlculs científics més especialitzats, els escriptors de ciència ficció han reflexionat sobre la idea de controlar robots intel·ligents.
Isaac Asimov va encunyar les Tres Lleis de la Robòtica, que va proposar que s'incorporaven a la programació de robots en els seus contes com a característica de seguretat.
Aquestes lleis s'han convertit en una pedra de toc per a moltes històries futures de ciència-ficció i fins i tot han informat estudis reals sobre l'ètica de la IA.
En la investigació contemporània, els investigadors d'IA busquen fonts més fonamentades per establir una llista de principis per a una IA ètica.
Com que la IA afectarà en última instància a les vides humanes, hem de tenir una comprensió fonamental del que hem de fer i què no hem de fer.
L'informe Belmont
Com a punt de referència, els investigadors d'ètica consideren l'Informe Belmont com a guia. El Informe Belmont va ser un document publicat pels Instituts Nacionals de Salut dels EUA l'any 1979. Les atrocitats biomèdiques realitzades a la Segona Guerra Mundial van provocar una empenta per legislar directrius ètiques per als investigadors que practiquen la medicina.
Aquests són els tres principis fonamentals esmentats a l'informe:
- Respecte a les persones
- Beneficència
- Justícia
El primer principal pretén defensar la dignitat i l'autonomia de tots els subjectes humans. Per exemple, els investigadors haurien de minimitzar l'engany dels participants i haurien d'exigir que cada persona doni el seu consentiment explícit.
El segon principi, la beneficència, se centra en el deure de l'investigador de minimitzar el dany potencial als participants. Aquest principi atorga als investigadors el deure d'equilibrar la relació entre els riscos individuals i els beneficis socials potencials.
La justícia, el principi final establert per l'Informe Belmont, se centra en la distribució equitativa de riscos i beneficis entre els grups que podrien beneficiar-se de la investigació. Els investigadors tenen el deure de seleccionar temes de recerca d'entre la població més àmplia. En fer-ho, es minimitzarien els biaixos individuals i sistèmics que podrien afectar negativament la societat.
Col·locar l'ètica en la investigació en IA
Tot i que l'Informe Belmont es va dirigir principalment a la investigació amb subjectes humans, els principis eren prou amplis per aplicar-los al camp de l'ètica de la IA.
El Big Data s'ha convertit en un recurs valuós en el camp de la intel·ligència artificial. Els processos que determinen com els investigadors recullen dades han de seguir les directrius ètiques.
La implementació de les lleis de privadesa de dades a la majoria de nacions posa un límit a les dades que les empreses poden recopilar i utilitzar. No obstant això, la majoria de les nacions encara tenen un conjunt rudimentari de lleis per evitar l'ús de la IA per causar danys.
Com treballar amb IA de manera ètica
Aquests són alguns conceptes clau que poden ajudar a treballar cap a un ús més ètic i responsable de la IA.
Control de biaix
La intel·ligència artificial no és inherentment neutral. Els algorismes sempre són susceptibles de biaix inserit i discriminació perquè les dades de les quals aprèn inclouen biaix.
Un exemple comú d'IA discriminatòria és el tipus que apareix amb freqüència als sistemes de reconeixement facial. Aquests models sovint aconsegueixen identificar cares masculins blancs, però tenen menys èxit a l'hora de reconèixer persones amb pell més fosca.
Un altre exemple apareix al DALL-E 2 d'OpenAI. Els usuaris ho tenen descobert que algunes indicacions sovint reprodueixen els biaixos de gènere i racials que el model ha recollit del seu conjunt de dades d'imatges en línia.
Per exemple, quan es sol·licita imatges d'advocats, DALL-E 2 retorna imatges d'advocats. D'altra banda, sol·licitar fotografies d'assistents de vol retorna majoritàriament dones assistents de vol.
Tot i que pot ser impossible eliminar completament el biaix dels sistemes d'IA, podem prendre mesures per minimitzar-ne els efectes. Els investigadors i enginyers poden aconseguir un major control del biaix entenent les dades de formació i contractant un equip divers per oferir informació sobre com hauria de funcionar el sistema d'IA.
Enfocament de disseny centrat en l'ésser humà
Els algorismes de la vostra aplicació preferida us poden afectar negativament.
Plataformes com Facebook i TikTok poden aprendre quin contingut servir per mantenir els usuaris a les seves plataformes.
Fins i tot sense la intenció de causar dany, l'objectiu de mantenir els usuaris enganxats a la seva aplicació durant el major temps possible podria provocar problemes de salut mental. El terme "doomscrolling" ha augmentat en popularitat com a terme general per passar una quantitat excessiva de temps llegint notícies negatives a plataformes com Twitter i Facebook.
En altres casos, el contingut odiós i la desinformació reben una plataforma més àmplia perquè ajuda a augmentar la participació dels usuaris. A 2021 estudi d'investigadors de la Universitat de Nova York mostra que les publicacions de fonts conegudes per la desinformació obtenen sis vegades més likes que les fonts de notícies de bona reputació.
Aquests algorismes manquen d'un enfocament de disseny centrat en l'ésser humà. Els enginyers que estan dissenyant com una IA realitza una acció sempre han de tenir en compte l'experiència de l'usuari.
Els investigadors i els enginyers sempre s'han de fer la pregunta: 'com beneficia això a l'usuari?'
La majoria dels models d'IA segueixen un model de caixa negra. Una caixa negra dins màquina d'aprenentatge es refereix a una IA on cap humà pot explicar per què la IA va arribar a un resultat determinat.
Les caixes negres són problemàtiques perquè disminueixen la quantitat de confiança que podem posar en les màquines.
Per exemple, imaginem un escenari en què Facebook va publicar un algorisme que va ajudar els governs a localitzar els criminals. Si el sistema d'IA us marca, ningú no podrà explicar per què s'ha pres aquesta decisió. Aquest tipus de sistema no hauria de ser l'únic motiu pel qual hauríeu de ser arrestat.
La IA explicativa o la XAI hauria de retornar una llista de factors que van contribuir al resultat final. Tornant al nostre hipotètic rastrejador de criminals, podem modificar el sistema d'IA per tornar una llista de publicacions que mostren llenguatge o termes sospitosos. A partir d'aquí, un humà pot verificar si val la pena investigar l'usuari marcat o no.
XAI proporciona més transparència i confiança en els sistemes d'IA i pot ajudar els humans a prendre millors decisions.
Conclusió
Com tots els invents fets per l'home, la intel·ligència artificial no és inherentment bona o dolenta. És la manera com fem servir la IA el que importa.
El que és únic de la intel·ligència artificial és el ritme al qual està creixent. En els últims cinc anys, hem vist nous i emocionants descobriments en el camp de l'aprenentatge automàtic cada dia.
Tanmateix, la llei no és tan ràpida. A mesura que les corporacions i els governs continuen aprofitant la IA per maximitzar els beneficis o prendre el control dels ciutadans, hem de trobar maneres d'impulsar la transparència i l'equitat en l'ús d'aquests algorismes.
Creus que una IA realment ètica és possible?
Deixa un comentari