Índice del contenido[Esconder][Espectáculo]
¿Cómo nos aseguramos de que usamos la IA de manera responsable?
Los avances en el aprendizaje automático muestran que los modelos pueden escalar rápidamente e impactar a una gran parte de la sociedad.
Los algoritmos controlan las noticias en los teléfonos de todos. Los gobiernos y las corporaciones están comenzando a utilizar la IA para tomar decisiones basadas en datos.
A medida que la IA se vuelve más arraigada en la forma en que opera el mundo, ¿cómo nos aseguramos de que la IA esté actuando de manera justa?
En este artículo, analizaremos los desafíos éticos del uso de la IA y veremos qué podemos hacer para garantizar el uso responsable de la IA.
¿Qué es la IA ética?
La IA ética se refiere a la inteligencia artificial que se adhiere a un determinado conjunto de pautas éticas.
En otras palabras, es una forma de que las personas y las organizaciones trabajen con IA de manera responsable.
En los últimos años, las corporaciones han comenzado a apegarse a las leyes de privacidad de datos después de que salieran a la luz pruebas de abuso y violación. De manera similar, se recomiendan pautas para una IA ética para garantizar que la IA no afecte negativamente a la sociedad.
Por ejemplo, algunos tipos de IA funcionan de manera sesgada o perpetúan sesgos ya existentes. Consideremos un algoritmo que ayuda a los reclutadores a clasificar miles de currículos. Si el algoritmo se entrena en un conjunto de datos con empleados predominantemente hombres o blancos, entonces es posible que el algoritmo favorezca a los solicitantes que pertenecen a esas categorías.
Establecimiento de principios para una IA ética
Hemos pensado en establecer un conjunto de reglas para imponer a inteligencia artificial por décadas.
Incluso en la década de 1940, cuando las computadoras más poderosas solo podían hacer los cálculos científicos más especializados, los escritores de ciencia ficción han reflexionado sobre la idea de controlar robots inteligentes.
Isaac Asimov acuñó las Tres leyes de la robótica, que propuso que se incrustaran en la programación de robots en sus cuentos como una característica de seguridad.
Estas leyes se han convertido en una piedra de toque para muchas historias de ciencia ficción futuras e incluso han informado estudios reales sobre la ética de la IA.
En la investigación contemporánea, los investigadores de IA buscan fuentes más fundamentadas para establecer una lista de principios para una IA ética.
Dado que la IA finalmente afectará la vida humana, debemos tener una comprensión fundamental de lo que debemos y no debemos hacer.
El Informe Belmont
Como punto de referencia, los investigadores de ética miran el Informe Belmont como guía. los Informe Belmont fue un documento publicado por los Institutos Nacionales de Salud de EE. UU. en 1979. Las atrocidades biomédicas cometidas en la Segunda Guerra Mundial dieron lugar a un impulso para legislar pautas éticas para los investigadores que practican la medicina.
Estos son los tres principios fundamentales mencionados en el informe:
- Respeto a las personas
- Beneficencia
- Justice
El primer principio tiene como objetivo defender la dignidad y la autonomía de todos los sujetos humanos. Por ejemplo, los investigadores deben minimizar el engaño a los participantes y deben exigir que cada persona dé su consentimiento explícito.
El segundo principio, la beneficencia, se centra en el deber del investigador de minimizar el daño potencial a los participantes. Este principio otorga a los investigadores el deber de equilibrar la relación entre los riesgos individuales y los posibles beneficios sociales.
La justicia, el principio final establecido por el Informe Belmont, se centra en la distribución equitativa de riesgos y beneficios entre los grupos que podrían beneficiarse de la investigación. Los investigadores tienen el deber de seleccionar sujetos de investigación de la población más amplia. Hacerlo minimizaría los sesgos individuales y sistémicos que podrían afectar negativamente a la sociedad.
Colocando la ética en la investigación de IA
Si bien el Informe Belmont estaba dirigido principalmente a la investigación con seres humanos, los principios eran lo suficientemente amplios como para aplicarse al campo de la ética de la IA.
Big Data se ha convertido en un recurso valioso en el campo de la inteligencia artificial. Los procesos que determinan cómo los investigadores recopilan datos deben seguir pautas éticas.
La implementación de las leyes de privacidad de datos en la mayoría de las naciones pone un límite a los datos que las empresas pueden recopilar y usar. Sin embargo, la mayoría de las naciones todavía tienen un conjunto rudimentario de leyes para evitar el uso de IA para causar daño.
Cómo trabajar con IA de manera ética
Aquí hay algunos conceptos clave que pueden ayudar a trabajar hacia un uso más ético y responsable de la IA.
Control de sesgo
La inteligencia artificial no es inherentemente neutral. Los algoritmos siempre son susceptibles de sesgo y discriminación insertados porque los datos de los que aprenden incluyen sesgo.
Un ejemplo común de IA discriminatoria es el tipo que aparece con frecuencia en los sistemas de reconocimiento facial. Estos modelos a menudo logran identificar rostros de hombres blancos, pero tienen menos éxito al reconocer a personas con piel más oscura.
Otro ejemplo aparece en DALL-E 2 de OpenAI. Los usuarios tienen descubierto CRISPR que ciertas indicaciones a menudo reproducen sesgos raciales y de género que el modelo ha recogido de su conjunto de datos de imágenes en línea.
Por ejemplo, cuando se le solicitan imágenes de abogados, DALL-E 2 devuelve imágenes de abogados varones. Por otro lado, solicitar fotografías de asistentes de vuelo devuelve en su mayoría asistentes de vuelo mujeres.
Si bien puede ser imposible eliminar por completo el sesgo de los sistemas de IA, podemos tomar medidas para minimizar sus efectos. Los investigadores e ingenieros pueden lograr un mayor control del sesgo mediante la comprensión de los datos de entrenamiento y la contratación de un equipo diverso para ofrecer información sobre cómo debería funcionar el sistema de IA.
Enfoque de diseño centrado en el ser humano
Los algoritmos de tu aplicación favorita pueden afectarte negativamente.
Las plataformas como Facebook y TikTok pueden aprender qué contenido ofrecer para mantener a los usuarios en sus plataformas.
Incluso sin la intención de causar daño, el objetivo de mantener a los usuarios pegados a su aplicación durante el mayor tiempo posible podría generar problemas de salud mental. El término 'doomscrolling' ha ganado popularidad como el término general para pasar una cantidad excesiva de tiempo leyendo noticias negativas en plataformas como Twitter y Facebook.
En otros casos, el contenido de odio y la información errónea reciben una plataforma más amplia porque ayuda a aumentar la participación de los usuarios. A estudio del 2021 de investigadores de la Universidad de Nueva York muestra que las publicaciones de fuentes conocidas por desinformación obtienen seis veces más Me gusta que las fuentes de noticias acreditadas.
Estos algoritmos carecen de un enfoque de diseño centrado en el ser humano. Los ingenieros que están diseñando cómo una IA realiza una acción siempre deben tener en cuenta la experiencia del usuario.
Los investigadores e ingenieros siempre deben hacerse la pregunta: '¿cómo beneficia esto al usuario?'
La mayoría de los modelos de IA siguen un modelo de caja negra. una caja negra en máquina de aprendizaje se refiere a una IA en la que ningún ser humano puede explicar por qué la IA llegó a un resultado particular.
Las cajas negras son problemáticas porque disminuyen la cantidad de confianza que podemos depositar en las máquinas.
Por ejemplo, imaginemos un escenario en el que Facebook lanzó un algoritmo que ayudó a los gobiernos a rastrear a los delincuentes. Si el sistema de IA te marca, nadie podrá explicar por qué tomó esa decisión. Este tipo de sistema no debería ser la única razón por la que debería ser arrestado.
La IA explicable o XAI debe devolver una lista de factores que contribuyeron al resultado final. Volviendo a nuestro rastreador criminal hipotético, podemos modificar el sistema de IA para que muestre una lista de publicaciones que muestren lenguaje o términos sospechosos. A partir de ahí, un humano puede verificar si vale la pena investigar al usuario marcado o no.
XAI proporciona más transparencia y confianza en los sistemas de IA y puede ayudar a los humanos a tomar mejores decisiones.
Conclusión
Como todos los inventos hechos por el hombre, la inteligencia artificial no es inherentemente buena o mala. Es la forma en que usamos la IA lo que importa.
Lo que es único acerca de la inteligencia artificial es el ritmo al que está creciendo. En los últimos cinco años, hemos visto descubrimientos nuevos y emocionantes en el campo del aprendizaje automático todos los días.
Sin embargo, la ley no es tan rápida. A medida que las corporaciones y los gobiernos continúan aprovechando la IA para maximizar las ganancias o tomar el control de los ciudadanos, debemos encontrar formas de impulsar la transparencia y la equidad en el uso de estos algoritmos.
¿Crees que la IA verdaderamente ética es posible?
Deje un comentario