Como nos aseguramos de usar a IA de forma responsable?
Os avances na aprendizaxe automática mostran que os modelos poden escalar e impactar rapidamente nunha gran parte da sociedade.
Os algoritmos controlan a fonte de noticias nos teléfonos de todos. Os gobernos e as corporacións comezan a utilizar a IA para tomar decisións fundamentadas en datos.
A medida que a IA se arraiga máis no modo en que opera o mundo, como nos aseguramos de que a IA actúe de forma xusta?
Neste artigo, analizaremos os retos éticos do uso da IA e veremos o que podemos facer para garantir o uso responsable da IA.
Que é a IA Ética?
A IA ética refírese á intelixencia artificial que se adhire a un determinado conxunto de pautas éticas.
Noutras palabras, é unha forma de que os individuos e as organizacións traballen coa IA dun xeito responsable.
Nos últimos anos, as corporacións comezaron a aterse ás leis de privacidade de datos despois de que saíse á luz evidencias de abuso e violación. Do mesmo xeito, recoméndanse pautas para a IA ética para asegurarse de que a IA non afecte negativamente á sociedade.
Por exemplo, algúns tipos de IA funcionan de forma tendenciosa ou perpetúan prexuízos xa existentes. Consideremos un algoritmo que axuda aos reclutadores a clasificar miles de currículos. Se o algoritmo está adestrado nun conxunto de datos con empregados predominantemente masculinos ou brancos, entón é posible que o algoritmo favoreza aos candidatos que pertencen a esas categorías.
Establecemento de principios para a IA ética
Pensamos en establecer un conxunto de normas para impoñer intelixencia artificial por décadas.
Mesmo na década de 1940, cando os ordenadores máis poderosos só podían facer os cálculos científicos máis especializados, os escritores de ciencia ficción reflexionaron sobre a idea de controlar robots intelixentes.
Isaac Asimov acuñou as Tres Leis da Robótica, que propuxo que se incorporaran á programación de robots nos seus contos como unha característica de seguridade.
Estas leis convertéronse nunha pedra de toque para moitas historias futuras de ciencia ficción e incluso serviron de base para estudos reais sobre a ética da IA.
Na investigación contemporánea, os investigadores de IA buscan fontes máis fundamentadas para establecer unha lista de principios para a IA ética.
Dado que a IA afectará en última instancia ás vidas humanas, debemos ter unha comprensión fundamental do que debemos e non debemos facer.
Informe Belmont
Como punto de referencia, os investigadores de ética consideran o Informe Belmont como guía. O Informe Belmont foi un documento publicado polos Institutos Nacionais de Saúde dos Estados Unidos en 1979. As atrocidades biomédicas cometidas na Segunda Guerra Mundial levaron a un impulso para lexislar pautas éticas para os investigadores que exercen a medicina.
Estes son os tres principios fundamentais mencionados no informe:
- Respecto polas persoas
- Beneficencia
- Xustiza
O primeiro principal ten como obxectivo defender a dignidade e autonomía de todos os suxeitos humanos. Por exemplo, os investigadores deberían minimizar o engano dos participantes e deberían esixir que cada persoa dea o seu consentimento explícito.
O segundo principio, a beneficencia, céntrase no deber do investigador de minimizar o posible dano aos participantes. Este principio outorga aos investigadores o deber de equilibrar a relación entre os riscos individuais e os potenciais beneficios sociais.
A xustiza, o principio final establecido polo Informe Belmont, céntrase na distribución equitativa de riscos e beneficios entre os grupos que poderían beneficiarse da investigación. Os investigadores teñen o deber de seleccionar temas de investigación entre a poboación máis ampla. Facelo minimizaríase os prexuízos individuais e sistémicos que poderían afectar negativamente á sociedade.
Colocando a ética na investigación da IA
Aínda que o Informe Belmont estaba dirixido principalmente á investigación con seres humanos, os principios eran o suficientemente amplos como para aplicarse ao campo da ética da IA.
O Big Data converteuse nun recurso valioso no campo da intelixencia artificial. Os procesos que determinan como os investigadores recollen datos deben seguir pautas éticas.
A implementación das leis de privacidade de datos na maioría dos países pon un límite ao que as empresas poden recoller e utilizar. Non obstante, a maioría das nacións aínda teñen un conxunto rudimentario de leis en vigor para evitar o uso da IA para causar danos.
Como traballar coa IA de forma ética
Aquí tes algúns conceptos clave que poden axudar a traballar cara a un uso máis ético e responsable da IA.
Control por sesgo
A intelixencia artificial non é inherentemente neutral. Os algoritmos sempre son susceptibles de sesgo inserido e discriminación porque os datos dos que aprende inclúen sesgo.
Un exemplo común de IA discriminatoria é o tipo que aparece con frecuencia nos sistemas de recoñecemento facial. Estes modelos adoitan identificar caras masculinas brancas, pero teñen menos éxito en recoñecer as persoas con pel máis escura.
Outro exemplo aparece no DALL-E 2 de OpenAI. Os usuarios teñen descuberto que certas indicacións adoitan reproducir prexuízos de xénero e raza que o modelo recolleu do seu conxunto de datos de imaxes en liña.
Por exemplo, cando se lle solicita imaxes de avogados, DALL-E 2 devolve imaxes de avogados. Por outra banda, a solicitude de imaxes de azafatas devólvese principalmente mulleres.
Aínda que pode ser imposible eliminar completamente o sesgo dos sistemas de IA, podemos tomar medidas para minimizar os seus efectos. Os investigadores e enxeñeiros poden lograr un maior control do sesgo ao comprender os datos de formación e contratar un equipo diverso para ofrecer información sobre como debería funcionar o sistema de IA.
Enfoque do deseño centrado no ser humano
Os algoritmos da túa aplicación favorita poden afectarche negativamente.
Plataformas como Facebook e TikTok poden saber que contidos servir para manter os usuarios nas súas plataformas.
Aínda sen a intención de causar dano, o obxectivo de manter os usuarios pegados á súa aplicación durante o maior tempo posible pode provocar problemas de saúde mental. O termo "doomscrolling" aumentou en popularidade como o termo xeral para pasar un tempo excesivo lendo noticias negativas en plataformas como Twitter e Facebook.
Noutros casos, o contido de odio e a información errónea reciben unha plataforma máis ampla porque axudan a aumentar o compromiso dos usuarios. A 2021 study de investigadores da Universidade de Nova York mostra que as publicacións de fontes coñecidas pola desinformación reciben seis veces máis gústame que fontes de noticias de boa reputación.
Estes algoritmos carecen dun enfoque de deseño centrado no ser humano. Os enxeñeiros que deseñan como unha IA realiza unha acción sempre deben ter presente a experiencia do usuario.
Os investigadores e enxeñeiros sempre deben facerse a pregunta: 'como beneficia isto ao usuario?'
A maioría dos modelos de IA seguen un modelo de caixa negra. Unha caixa negra dentro aprendizaxe de máquina refírese a unha IA onde ningún humano pode explicar por que a IA chegou a un resultado determinado.
As caixas negras son problemáticas porque diminúe a cantidade de confianza que podemos poñer nas máquinas.
Por exemplo, imaxinemos un escenario no que Facebook lanzou un algoritmo que axudou aos gobernos a rastrexar aos criminais. Se o sistema de IA te marca, ninguén poderá explicar por que se tomou esa decisión. Este tipo de sistema non debería ser o único motivo polo que deberías ser arrestado.
AI ou XAI explicables deberían devolver unha lista de factores que contribuíron ao resultado final. Volvendo ao noso hipotético rastreador de criminais, podemos modificar o sistema de IA para devolver unha lista de publicacións que amosan linguaxe ou termos sospeitosos. A partir de aí, un humano pode verificar se paga a pena investigar o usuario marcado ou non.
XAI ofrece máis transparencia e confianza nos sistemas de IA e pode axudar aos humanos a tomar mellores decisións.
Conclusión
Como todos os inventos feitos polo home, a intelixencia artificial non é inherentemente boa nin mala. É a forma en que usamos a IA o que importa.
O único da intelixencia artificial é o ritmo ao que está crecendo. Nos últimos cinco anos, vimos descubrimentos novos e emocionantes no campo da aprendizaxe automática todos os días.
Non obstante, a lei non é tan rápida. Mentres as corporacións e os gobernos seguen aproveitando a IA para maximizar os beneficios ou facerse co control dos cidadáns, debemos atopar formas de impulsar a transparencia e a equidade no uso destes algoritmos.
Cres que é posible unha IA verdadeiramente ética?
Deixe unha resposta