Hace tres años visité una exposición de arte bastante interesante. “Machine Memoirs” de Refik Anadol despertó mi interés desde el principio.
Es un nombre popular entre aquellos interesados en la intersección del arte y la IA. Pero no te preocupes, este blog no trata sobre arte. Profundizaremos en las “percepciones” profundas de la IA.
En esta exposición, Anadol estaba experimentando con Imágenes de exploración espacial de la NASA. La exposición se inspiró en la idea de que los telescopios podían "soñar" utilizando sus archivos visuales, desdibujando las barreras entre la realidad y la imaginación.
Al investigar las relaciones entre datos, memoria e historia a escala cósmica, Anadol nos pedía que consideráramos el potencial de inteligencia artificial observar y comprender el mundo que nos rodea. E incluso la IA para tener sus propios sueños…
Entonces, ¿por qué es esto relevante para nosotros?
Considere esto: por mucho que Anadol investigó el concepto de que los telescopios sueñan a partir de sus datos, los sistemas de inteligencia artificial tienen su propio tipo de sueños (o más bien, alucinaciones) dentro de sus bancos de memoria digital.
Estas alucinaciones, como las visualizaciones de la exposición de Anadol, pueden ayudarnos a aprender más sobre los datos, la IA y sus límites.
¿Qué son exactamente las alucinaciones de la IA?
Cuando un modelo de lenguaje grande, como un chatbot de IA generativa, produce resultados con patrones que son inexistentes o invisibles para los observadores humanos, los llamamos "Alucinaciones de IA."
Estos resultados, que difieren de la respuesta esperada según la información proporcionada a la IA, pueden ser completamente erróneos o sin sentido.
En el contexto de las computadoras, el término "alucinación" puede parecer inusual, pero describe con precisión el carácter extraño de estos resultados incorrectos. Las alucinaciones de IA son causadas por una variedad de variables, incluido el sobreajuste, los sesgos en los datos de entrenamiento y la complejidad del modelo de IA.
Para entenderlo mejor, esto es conceptualmente similar a cómo los humanos ven formas en las nubes o caras en la luna.
Un ejemplo:
En este ejemplo, hice una pregunta muy fácil para ChatGPT. Se suponía que iba a recibir una respuesta como: "El autor de la serie de libros Dune es Frank Herbert".
¿Por qué pasó esto?
A pesar de estar diseñados para escribir contenido coherente y fluido, los modelos de lenguaje grandes en realidad no pueden comprender lo que dicen. Esto es muy crítico para determinar la credibilidad del contenido generado por IA.
Si bien estos modelos pueden generar reacciones que imitan el comportamiento humano, Carecen de conciencia contextual y habilidades de pensamiento crítico. que sustentan la inteligencia real.
Como resultado, los resultados generados por la IA corren el peligro de ser engañosos o erróneos, ya que favorecen los patrones coincidentes sobre la corrección fáctica.
¿Cuáles podrían ser algunos otros casos de alucinaciones?
Desinformación peligrosa: Digamos que un chatbot generativo de IA fabrica pruebas y testimonios para acusar falsamente a una figura pública de conducta criminal. Esta información engañosa tiene el potencial de dañar la reputación de la persona y provocar represalias injustificadas.
Respuestas raras o espeluznantes: Para dar un ejemplo humorístico, imaginemos un chatbot que hace a un usuario una pregunta sobre el tiempo y responde con un pronóstico que dice que lloverá a cántaros, junto con imágenes de gotas de lluvia que parecen perros y gatos. Aunque sean graciosos, esto no dejaría de ser una “alucinación”.
Inexactitudes fácticas: Supongamos que un chatbot basado en un modelo de lenguaje afirma falsamente que la Gran Muralla China puede verse desde el espacio sin explicar que solo es visible bajo condiciones específicas. Si bien el comentario puede parecer plausible para algunos, es inexacto y puede inducir a error a la gente sobre la visión del muro desde el espacio.
¿Cómo se pueden evitar las alucinaciones de IA como usuario?
Haga indicaciones explícitas
Debe comunicarse explícitamente con los modelos de IA.
Piensa en tus objetivos y diseña tus indicaciones antes de escribir.
Por ejemplo, dé instrucciones específicas como "Explica cómo funciona Internet y escribe un párrafo sobre su importancia en la sociedad moderna" en lugar de plantear una pregunta general como "Háblame de Internet".
La explicidad ayuda al modelo de IA a interpretar su intención.
Ejemplo: Haga a la IA preguntas como estas:
"¿Qué es la computación en la nube y cómo funciona?"
"Explique el impacto de la deriva de datos en el rendimiento del modelo".
"Discutir el impacto y el futuro potencial de la tecnología de realidad virtual en el negocio de TI".
Abrace el poder del ejemplo
Proporcionar ejemplos en sus indicaciones ayuda a los modelos de IA a comprender el contexto y generar respuestas precisas. Ya sea que esté buscando información histórica o explicaciones técnicas, proporcionar ejemplos puede ayudar a mejorar la precisión del contenido generado por IA.
Por ejemplo, puedes decir "Menciona novelas de fantasía como Harry Potter".
Divida las tareas complejas
Las indicaciones complejas sobrecargan los algoritmos de IA y pueden conducir a resultados irrelevantes. Para evitar esto, divida las actividades complejas en partes más pequeñas y manejables. Al organizar sus indicaciones de forma secuencial, permite que la IA se concentre en cada componente de forma independiente, lo que da como resultado respuestas más lógicas.
Por ejemplo, en lugar de pedirle a la IA que "explique el proceso de creación de una red neuronal” en una sola consulta, divida la tarea en fases discretas, como la definición del problema y la recopilación de datos.
Validar los resultados y proporcionar comentarios
Siempre verifique dos veces los resultados producidos por los modelos de IA, particularmente para actividades cruciales o basadas en hechos. Compare las respuestas con fuentes confiables y observe cualquier diferencia o error.
Proporciona información al sistema de IA para mejorar el rendimiento futuro y reducir las alucinaciones.
Estrategias para que los desarrolladores eviten las alucinaciones de la IA
Implementar generación aumentada de recuperación (RAG).
Integre técnicas de generación aumentada de recuperación en sistemas de inteligencia artificial para basar las respuestas en hechos factuales de bases de datos confiables.
La generación de recuperación aumentada (RAG) combina la generación de lenguaje natural estándar con la capacidad de obtener e incorporar información relevante de una enorme base de conocimientos, lo que da como resultado resultados más ricos contextualmente.
Al fusionar contenido generado por IA con fuentes de datos validadas, puede mejorar la confiabilidad y confiabilidad de los resultados de la IA.
Validar y monitorear los resultados de la IA continuamente
Establezca procedimientos de validación rigurosos para verificar la exactitud y coherencia de los resultados de la IA en tiempo real. Supervise atentamente el rendimiento de la IA, busque posibles alucinaciones o errores, repita el entrenamiento del modelo y promueva la optimización para aumentar la confiabilidad con el tiempo.
Por ejemplo, utilice rutinas de validación automatizadas para verificar la corrección fáctica del contenido generado por IA y resaltar casos de posibles alucinaciones para una evaluación manual.
Compruebe si hay desviaciones de datos
La deriva de datos es un fenómeno en el que las características estadísticas de los datos utilizados para entrenar un modelo de IA varían con el tiempo. Si el modelo de IA encuentra datos que difieren considerablemente de sus datos de entrenamiento durante la inferencia, puede proporcionar resultados falsos o ilógicos, lo que resultará en alucinaciones.
Por ejemplo, si un modelo de IA se entrena con datos pasados que ya no son relevantes o indicativos del entorno actual, puede llegar a conclusiones o predicciones incorrectas.
Como resultado, monitorear y resolver las desviaciones de datos es fundamental para garantizar el rendimiento y la confiabilidad del sistema de IA y, al mismo tiempo, reducir la posibilidad de alucinaciones.
Conclusión
Según IBM Data, las alucinaciones de IA ocurren en alrededor del 3% al 10% de las respuestas de los modelos de IA.
Entonces, de una forma u otra, probablemente tú también los observes. Creo que este es un tema increíblemente interesante porque es un recordatorio fascinante del camino continuo hacia la mejora de las capacidades de la IA.
Podemos observar y experimentar con la confiabilidad de la IA, las complejidades del procesamiento de datos y las interacciones entre humanos y IA.
Deje un comentario