Fa tres anys vaig visitar una exposició d'art força interessant. "Machine Memoirs" de Refik Anadol va despertar el meu interès des del principi.
És un nom popular entre els que estan interessats en la intersecció de l'art i la IA. Però no et preocupis, aquest blog no tracta d'art. Aprofundirem en les "percepcions" profundes de la IA.
En aquesta exposició, Anadol estava experimentant Imatges d'exploració espacial de la NASA. L'exposició es va inspirar en la idea que els telescopis podien "somiar" utilitzant els seus arxius visuals, desdibuixant les barreres entre el fet i la imaginació.
En investigar les relacions entre dades, memòria i història a escala còsmica, Anadol ens demanava que consideréssim el potencial de intel·ligència artificial per observar i comprendre el món que ens envolta. I fins i tot la IA per tenir els seus propis somnis...
Aleshores, per què això és rellevant per a nosaltres?
Penseu en això: de la mateixa manera que Anadol va investigar el concepte de telescopis somiant a partir de les seves dades, els sistemes d'IA tenen el seu propi tipus de somni, o millor dit, al·lucinacions, dins dels seus bancs de memòria digital.
Aquestes al·lucinacions, com les visualitzacions de l'exposició d'Anadol, ens poden ajudar a aprendre més sobre les dades, la IA i els seus límits.
Què són exactament les al·lucinacions d'IA?
Quan un model de llenguatge gran, com un chatbot d'IA generatiu, produeix resultats amb patrons que són inexistents o invisibles per als observadors humans, els anomenem "Al·lucinacions d'IA."
Aquestes sortides, que difereixen de la resposta esperada en funció de l'entrada donada a l'IA, poden ser completament errònies o sense sentit.
En el context dels ordinadors, el terme "al·lucinació" pot semblar inusual, però descriu amb precisió el caràcter estrany d'aquestes sortides incorrectes. Les al·lucinacions d'IA són causades per una sèrie de variables, com ara el sobreajust, els biaixos en les dades d'entrenament i la complexitat del model d'IA.
Per entendre millor, això és conceptualment similar a com els humans veuen les formes als núvols o les cares a la Lluna.
Un exemple:
En aquest exemple, li vaig fer una pregunta molt fàcil Xat GPT. Se suposa que havia de rebre una resposta com: "L'autor de la sèrie de llibres Dune és Frank Herbert".
Per què passa això?
Tot i estar creats per escriure contingut coherent i fluid, els grans models de llenguatge són realment incapaços de comprendre el que estan dient. Això és molt crític per determinar la credibilitat del contingut generat per IA.
Si bé aquests models poden generar reaccions que imiten el comportament humà, no tenen consciència contextual i habilitats de pensament crític que sustenten la intel·ligència real.
Com a resultat, els resultats generats per IA corren el perill de ser enganyosos o equivocats, ja que afavoreixen els patrons de concordança per sobre de la correcció dels fets.
Quins altres casos d'al·lucinacions podrien ser?
Desinformació perillosa: Suposem que un chatbot generatiu d'IA fabrica proves i testimonis per acusar falsament una figura pública de conducta criminal. Aquesta informació enganyosa pot danyar la reputació de la persona i provocar represàlies injustificades.
Respostes estranyes o esgarrifoses: Per posar un exemple humorístic, imagineu un chatbot fent una pregunta sobre el temps a un usuari i responent amb una previsió que diu que plourà gats i gossos, juntament amb imatges de gotes de pluja que semblen gats i gossos. Tot i que són divertits, això encara seria una "al·lucinació".
Incorreccions de fets: Suposem que un chatbot basat en models de llenguatge afirma falsament que la Gran Muralla Xina es pot veure des de l'espai sense explicar que només és visible en condicions específiques. Tot i que l'observació pot semblar plausible per a alguns, és inexacte i pot enganyar la gent sobre la visió de la paret des de l'espai.
Com eviteu les al·lucinacions d'IA com a usuari?
Feu sol·licituds explícites
Heu de comunicar-vos amb els models d'IA de manera explícita.
Penseu en els vostres objectius i dissenyeu les vostres indicacions abans d'escriure.
Per exemple, doneu instruccions específiques com "Explica com funciona Internet i escriu un paràgraf sobre la seva importància a la societat moderna" en lloc de fer una pregunta general com "Parla'm d'Internet".
L'explicitat ajuda el model d'IA a interpretar la vostra intenció.
Exemple: feu preguntes a l'IA com aquestes:
"Què és la computació en núvol i com funciona?"
"Expliqueu l'impacte de la deriva de dades en el rendiment del model".
"Debatre l'impacte i el futur potencial de la tecnologia VR en el negoci de TI".
Abraça el poder de l'exemple
Proporcionar exemples a les vostres sol·licituds ajuda els models d'IA a entendre el context i a generar respostes precises. Tant si busqueu coneixements històrics com explicacions tècniques, proporcionar exemples pot ajudar a millorar la precisió del contingut generat per IA.
Per exemple, pots dir: "Menciona novel·les de fantasia com ara Harry Potter".
Desglossar tasques complexes
Les indicacions complexes sobrecarreguen algorismes d'IA i poden donar lloc a resultats irrellevants. Per evitar-ho, divideix les activitats complexes en peces més petites i més manejables. En organitzar les vostres sol·licituds de manera seqüencial, permeteu que l'IA es concentri en cada component de manera independent, donant lloc a respostes més lògiques.
Per exemple, en lloc de demanar a la IA que "expliqui el procés de creació d'un xarxa neuronal" en una sola consulta, dividiu l'assignació en fases discretes, com ara la definició del problema i la recollida de dades.
Valideu les sortides i proporcioneu comentaris
Comproveu sempre els resultats produïts pels models d'IA, especialment per a activitats basades en fets o crucials. Compareu les respostes amb fonts fiables i anoteu les diferències o errors.
Proporcioneu informació al sistema d'IA per millorar el rendiment futur i reduir les al·lucinacions.
Estratègies per als desenvolupadors per evitar les al·lucinacions d'IA
Implementar la generació augmentada amb recuperació (RAG).
Integreu tècniques de generació augmentada per la recuperació als sistemes d'IA per basar les respostes en fets fets de bases de dades fiables.
La generació augmentada per recuperació (RAG) combina la generació estàndard de llenguatge natural amb la capacitat d'obtenir i incorporar informació rellevant d'una base de coneixement enorme, donant com a resultat una producció més rica en el context.
En combinar contingut generat per IA amb fonts de dades validades, podeu millorar la fiabilitat i la fiabilitat dels resultats de l'IA.
Valideu i superviseu les sortides d'IA de forma contínua
Configureu procediments de validació rigorosos per verificar la correcció i la coherència de les sortides d'IA en temps real. Superviseu atentament el rendiment de la IA, cerqueu possibles al·lucinacions o errors i repetiu l'entrenament del model i l'optimització ràpida per augmentar la fiabilitat al llarg del temps.
Per exemple, utilitzeu rutines de validació automatitzades per comprovar el contingut generat per la intel·ligència artificial per a la correcció dels fets i destacar els casos de possibles al·lucinacions per a l'avaluació manual.
Comproveu les derivacions de dades
La deriva de dades és un fenomen en què les característiques estadístiques de les dades utilitzades per entrenar un model d'IA varien amb el temps. Si el model d'IA compleix dades que difereixen considerablement de les seves dades d'entrenament durant la inferència, pot proporcionar resultats falsos o il·lògics, donant lloc a al·lucinacions.
Per exemple, si un model d'IA s'entrena amb dades anteriors que ja no són rellevants o indicatives de l'entorn actual, pot fer conclusions o prediccions incorrectes.
Com a resultat, el seguiment i la resolució de les derivacions de dades és fonamental per garantir el rendiment i la fiabilitat del sistema d'IA i alhora reduir la possibilitat d'al·lucinacions.
Conclusió
Segons IBM Data, les al·lucinacions d'IA es produeixen al voltant del 3% al 10% de les respostes dels models d'IA.
Així, d'una manera o d'una altra, probablement també els observareu. Crec que aquest és un tema increïblement interessant perquè és un recordatori fascinant del camí continu cap a la millora de les capacitats de la IA.
Observem i experimentem amb la fiabilitat de la IA, les complexitats del processament de dades i les interaccions humans-IA.
Deixa un comentari