Hai tres anos, visitei unha exposición de arte bastante interesante. "Machine Memoirs" de Refik Anadol espertou o meu interese desde o principio.
É un nome popular entre aqueles que están interesados na intersección da arte e a IA. Pero non te preocupes, este blog non trata de arte. Afondaremos nas "percepcións" profundas da IA.
Nesta exposición, Anadol estaba experimentando Imaxes de exploración espacial da NASA. A exposición inspirouse na idea de que os telescopios podían "soñar" usando os seus arquivos visuais, difuminando as barreiras entre o feito e a imaxinación.
Ao investigar as relacións entre datos, memoria e historia a escala cósmica, Anadol pedíanos que considerásemos o potencial de intelixencia artificial para observar e comprender o mundo que nos rodea. E ata a IA para ter os seus propios soños...
Entón, por que é relevante para nós?
Considere isto: por moito que Anadol investigou o concepto de telescopios soñando a partir dos seus datos, os sistemas de IA teñen o seu propio tipo de soño -ou mellor dito, alucinacións- dentro dos seus bancos de memoria dixital.
Estas alucinacións, como as visualizacións da exposición de Anadol, poden axudarnos a aprender máis sobre os datos, a IA e os seus límites.
Que son exactamente as alucinacións da IA?
Cando un gran modelo de linguaxe, como un chatbot de IA xerativa, produce resultados con patróns que son inexistentes ou invisibles para os observadores humanos, chamámoslles "Alucinacións de IA."
Estas saídas, que difiren da resposta esperada en función da entrada dada á IA, poden ser completamente erróneas ou sen sentido.
No contexto das computadoras, o termo "alucinación" pode parecer inusual, pero describe con precisión o carácter estraño destas saídas incorrectas. As alucinacións da IA son causadas por unha serie de variables, incluíndo o sobreajuste, os prexuízos nos datos de adestramento e a complexidade do modelo de IA.
Para entender mellor, isto é conceptualmente similar a como os humanos ven as formas nas nubes ou as caras na lúa.
Un exemplo:
Neste exemplo, fixen unha pregunta moi sinxela Chat GPT. Debería ter unha resposta como: "O autor da serie de libros Dune é Frank Herbert".
Por que isto ocorre?
A pesar de estar construídos para escribir contidos coherentes e fluídos, os grandes modelos lingüísticos son realmente incapaces de comprender o que están dicindo. Isto é moi crítico para determinar a credibilidade do contido xerado pola IA.
Aínda que estes modelos poden xerar reaccións que imitan o comportamento humano, carecen da conciencia contextual e das habilidades de pensamento crítico que sustentan a intelixencia real.
Como resultado, as saídas xeradas pola IA corren o perigo de ser enganosas ou erróneas xa que favorecen os patróns de coincidencia antes que a corrección fáctica.
Cales poden ser outros casos de alucinacións?
Desinformación perigosa: Digamos que un chatbot de IA xerativa fabrica probas e testemuños para acusar falsamente a unha figura pública de conduta criminal. Esta información enganosa pode danar a reputación da persoa e causar represalias inxustificadas.
Respostas estrañas ou espeluznantes: Para dar un exemplo humorístico, imaxínate un chatbot que lle fai unha pregunta meteorolóxica a un usuario e responde cunha previsión que di que choverá cans e gatos, xunto con imaxes de gotas de choiva que semellan cans e gatos. Aínda que son divertidos, isto aínda sería unha "alucinación".
Inexactitudes de feito: Supoñamos que un chatbot baseado en modelos lingüísticos afirma falsamente que a Gran Muralla Chinesa pode verse desde o espazo sen explicar que só é visible en condicións específicas. Aínda que a observación pode parecer plausible para algúns, é inexacta e pode enganar á xente sobre a vista do muro desde o espazo.
Como evitas as alucinacións da IA como usuario?
Facer solicitudes explícitas
Debes comunicarte cos modelos de IA de forma explícita.
Pensa nos teus obxectivos e deseña as túas indicacións antes de escribir.
Por exemplo, dá instrucións específicas como "Explica como funciona Internet e escribe un parágrafo sobre a súa importancia na sociedade moderna" en lugar de formular unha pregunta xeral como "Fálame de Internet".
A claridade axuda ao modelo de IA a interpretar a túa intención.
Exemplo: fai preguntas á IA como estas:
"Que é a computación en nube e como funciona?"
"Explique o impacto da deriva de datos no rendemento do modelo".
"Discute o impacto e o futuro potencial da tecnoloxía VR no negocio de TI".
Abrace o poder do exemplo
Proporcionar exemplos nas túas solicitudes axuda aos modelos de IA a comprender o contexto e a xerar respostas precisas. Tanto se buscas información histórica como explicacións técnicas, proporcionar exemplos pode axudar a mellorar a precisión do contido xerado pola IA.
Por exemplo, podes dicir: "Menciona novelas fantásticas como Harry Potter".
Desglosar tarefas complexas
As solicitudes complexas sobrecargan os algoritmos de IA e poden dar lugar a resultados irrelevantes. Para evitar isto, divide as actividades complexas en pezas máis pequenas e máis manexables. Ao organizar as túas solicitudes secuencialmente, permites que a IA se centre en cada compoñente de forma independente, obtendo respostas máis lóxicas.
Por exemplo, en lugar de pedirlle á IA que "explique o proceso de creación de un rede neuronal" nunha única consulta, divide a asignación en fases discretas, como a definición do problema e a recollida de datos.
Validar as saídas e proporcionar comentarios
Comprobe sempre os resultados producidos polos modelos de IA, especialmente para actividades fundamentadas ou fundamentadas. Compara as respostas con fontes fiables e observa calquera diferenza ou erro.
Proporciona información ao sistema de IA para mellorar o rendemento futuro e reducir as alucinacións.
Estratexias para que os desenvolvedores eviten alucinacións de IA
Implementar Retrieval-Augmented Generation (RAG).
Integra técnicas de xeración de recuperación aumentada nos sistemas de IA para basear as respostas en feitos feitos de bases de datos fiables.
A xeración aumentada por recuperación (RAG) combina a xeración de linguaxe natural estándar coa capacidade de obter e incorporar información relevante a partir dunha enorme base de coñecemento, obtendo un resultado máis rico contextualmente.
Ao combinar contido xerado pola IA con fontes de datos validadas, podes mellorar a fiabilidade e a fiabilidade dos resultados da IA.
Validar e supervisar as saídas da IA continuamente
Establece procedementos de validación rigorosos para verificar a corrección e a coherencia das saídas da IA en tempo real. Supervisa atentamente o rendemento da IA, busca posibles alucinacións ou erros e repite o adestramento do modelo e a optimización rápida para aumentar a fiabilidade ao longo do tempo.
Por exemplo, use rutinas de validación automatizadas para comprobar o contido xerado pola intelixencia artificial para a corrección dos feitos e destacar casos de posibles alucinacións para a súa avaliación manual.
Comprobar a deriva de datos
A deriva de datos é un fenómeno no que as características estatísticas dos datos utilizados para adestrar un modelo de IA varían co tempo. Se o modelo de IA reúne datos que difieren considerablemente dos seus datos de adestramento durante a inferencia, pode proporcionar resultados falsos ou ilóxicos, o que provoca alucinacións.
Por exemplo, se un modelo de IA está adestrado en datos pasados que xa non son relevantes ou indicativos do entorno actual, pode sacar conclusións ou predicións incorrectas.
Como resultado, supervisar e resolver as derivas de datos é fundamental para garantir o rendemento e a fiabilidade do sistema de IA ao mesmo tempo que se reduce a posibilidade de alucinacións.
Conclusión
Segundo IBM Data, as alucinacións de intelixencia artificial ocorren en preto do 3% ao 10% das respostas dos modelos de intelixencia artificial.
Entón, dun xeito ou doutro, probablemente tamén os observes. Creo que este é un tema incriblemente interesante porque é un recordatorio fascinante do camiño continuo cara a mellorar as capacidades da IA.
Observamos e experimentamos coa fiabilidade da IA, as complejidades do procesamento de datos e as interaccións entre humanos e IA.
Deixe unha resposta