Il y a trois ans, j'ai visité une exposition d'art plutôt intéressante. « Machine Memoirs » de Refik Anadol a suscité mon intérêt dès le début.
Il est un nom populaire parmi ceux qui s’intéressent à l’intersection de l’art et de l’IA. Mais ne vous inquiétez pas, ce blog n'est pas consacré à l'art. Nous approfondirons les « perceptions » profondes de l’IA.
Dans cette exposition, Anadol expérimentait Images d'exploration spatiale de la NASA. L’exposition s’inspire de l’idée selon laquelle les télescopes pourraient « rêver » en utilisant leurs archives visuelles, brouillant ainsi les frontières entre réalité et imagination.
En étudiant les relations entre les données, la mémoire et l'histoire à l'échelle cosmique, Anadol nous demandait de considérer le potentiel de intelligence artificielle observer et comprendre le monde qui nous entoure. Et même l’IA d’avoir ses propres rêves…
Alors, pourquoi est-ce pertinent pour nous ?
Considérez ceci : tout comme Anadol a étudié le concept de télescopes rêvant à partir de leurs données, les systèmes d’IA ont leur propre type de rêve – ou plutôt d’hallucinations – dans leurs banques de mémoire numérique.
Ces hallucinations, comme les visualisations de l'exposition d'Anadol, peuvent nous aider à en apprendre davantage sur les données, l'IA et leurs limites.
Que sont exactement les hallucinations de l’IA ?
Lorsqu'un grand modèle de langage, tel qu'un chatbot génératif d'IA, produit des sorties avec des modèles qui sont soit inexistants, soit invisibles pour les observateurs humains, nous les appelons « Hallucinations de l'IA. »
Ces résultats, qui diffèrent de la réponse attendue en fonction des informations fournies à l'IA, peuvent être complètement erronées ou absurdes.
Dans le contexte informatique, le terme « hallucination » peut sembler inhabituel, mais il décrit avec précision le caractère bizarre de ces résultats incorrects. Les hallucinations de l’IA sont causées par une série de variables, notamment le surapprentissage, les biais dans les données d’entraînement et la complexité du modèle d’IA.
Pour mieux comprendre, cela est conceptuellement similaire à la façon dont les humains voient les formes dans les nuages ou les visages sur la lune.
Un exemple:
Dans cet exemple, j'ai posé une question très simple à ChatGPT. J'étais censé obtenir une réponse du type : « L'auteur de la série de livres Dune est Frank Herbert. ».
Pourquoi cela arrive-t-il?
Bien qu’ils soient conçus pour écrire un contenu cohérent et fluide, les grands modèles de langage sont en réalité incapables de comprendre ce qu’ils disent. Ceci est très critique pour déterminer la crédibilité du contenu généré par l’IA.
Bien que ces modèles puissent générer des réactions qui imitent le comportement humain, ils n’ont pas la conscience contextuelle et les capacités de pensée critique qui sous-tendent l’intelligence réelle.
En conséquence, les résultats générés par l’IA risquent d’être trompeurs ou erronés, car ils favorisent la correspondance des modèles plutôt que l’exactitude des faits.
Quels pourraient être d’autres cas d’hallucinations ?
Désinformation dangereuse : Supposons qu'un chatbot à IA générative fabrique des preuves et des témoignages pour accuser à tort une personnalité publique de conduite criminelle. Ces informations trompeuses peuvent potentiellement nuire à la réputation de la personne et provoquer des représailles injustifiées.
Réponses étranges ou effrayantes : Pour donner un exemple humoristique, imaginez un chatbot posant à un utilisateur une question météo et répondant avec une prévision indiquant qu'il va pleuvoir des chats et des chiens, ainsi que des images de gouttes de pluie qui ressemblent à des chats et des chiens. Même s’ils sont drôles, ce serait quand même une « hallucination ».
Inexactitudes factuelles: Supposons qu’un chatbot basé sur un modèle de langage déclare faussement que la Grande Muraille de Chine peut être vue depuis l’espace sans expliquer qu’elle n’est visible que dans des conditions spécifiques. Même si cette remarque peut paraître plausible à certains, elle est inexacte et peut induire les gens en erreur quant à la vue du mur depuis l'espace.
Comment éviter les hallucinations de l’IA en tant qu’utilisateur ?
Faire des invites explicites
Vous devez communiquer explicitement avec les modèles d’IA.
Pensez à vos objectifs et concevez vos invites avant d'écrire.
Par exemple, donnez des instructions spécifiques telles que « Expliquez comment fonctionne Internet et rédigez un paragraphe sur son importance dans la société moderne » au lieu de poser une question générale comme « Parlez-moi d'Internet ».
Explicity aide le modèle d'IA à interpréter votre intention.
Exemple : posez à l'IA des questions telles que celles-ci :
« Qu'est-ce que le cloud computing et comment ça marche ? »
"Expliquez l'impact de la dérive des données sur les performances du modèle."
"Discutez de l'impact et de l'avenir potentiel de la technologie VR sur le secteur informatique."
Adoptez le pouvoir de l’exemple
Fournir des exemples dans vos invites aide les modèles d’IA à comprendre le contexte et à générer des réponses précises. Que vous recherchiez des informations historiques ou des explications techniques, fournir des exemples peut contribuer à améliorer la précision du contenu généré par l'IA.
Par exemple, vous pouvez dire : « Mentionnez des romans fantastiques tels que Harry Potter ».
Décomposer les tâches complexes
Les invites complexes surchargent les algorithmes d’IA et peuvent conduire à des résultats non pertinents. Pour éviter cela, divisez les activités complexes en éléments plus petits et plus faciles à gérer. En organisant vos invites de manière séquentielle, vous permettez à l'IA de se concentrer sur chaque composant indépendamment, ce qui entraîne des réponses plus logiques.
Par exemple, plutôt que de demander à l’IA « d’expliquer le processus de création d’un réseau neuronal" en une seule requête, divisez la mission en phases distinctes telles que la définition du problème et la collecte de données.
Valider les résultats et fournir des commentaires
Vérifiez toujours les résultats produits par les modèles d’IA, en particulier pour les activités basées sur des faits ou cruciales. Comparez les réponses à des sources fiables et notez toute différence ou erreur.
Fournir une contribution au système d’IA pour améliorer les performances futures et réduire les hallucinations.
Stratégies permettant aux développeurs d'éviter les hallucinations de l'IA
Implémentez la génération augmentée par récupération (RAG).
Intégrez des techniques de génération augmentée par récupération dans les systèmes d’IA pour baser les réponses sur des faits factuels provenant de bases de données fiables.
La génération augmentée par récupération (RAG) combine la génération standard de langage naturel avec la capacité d'obtenir et d'incorporer des informations pertinentes à partir d'une vaste base de connaissances, ce qui donne lieu à des résultats plus riches en contexte.
En fusionnant le contenu généré par l'IA avec des sources de données validées, vous pouvez améliorer la fiabilité et la fiabilité des résultats de l'IA.
Valider et surveiller les résultats de l'IA en continu
Mettez en place des procédures de validation rigoureuses pour vérifier l’exactitude et la cohérence des résultats de l’IA en temps réel. Surveillez attentivement les performances de l'IA, recherchez les hallucinations ou les erreurs potentielles, et répétez la formation du modèle et l'optimisation rapide pour augmenter la fiabilité au fil du temps.
Par exemple, utilisez des routines de validation automatisées pour vérifier l’exactitude factuelle du contenu généré par l’IA et mettre en évidence les cas d’hallucinations possibles pour une évaluation manuelle.
Vérifier les dérives de données
La dérive des données est un phénomène dans lequel les caractéristiques statistiques des données utilisées pour entraîner un modèle d'IA varient avec le temps. Si le modèle d'IA rencontre des données qui diffèrent considérablement de ses données d'entraînement lors de l'inférence, il peut fournir des résultats faux ou illogiques, entraînant des hallucinations.
Par exemple, si un modèle d’IA est entraîné sur des données passées qui ne sont plus pertinentes ou qui ne sont plus indicatives de l’environnement actuel, il peut tirer des conclusions ou des prédictions incorrectes.
En conséquence, la surveillance et la résolution des dérives de données sont essentielles pour garantir les performances et la fiabilité du système d’IA tout en réduisant le risque d’hallucinations.
Conclusion
Selon IBM Data, les hallucinations de l'IA surviennent dans environ 3 à 10 % des réponses des modèles d'IA.
Donc, d’une manière ou d’une autre, vous les observerez probablement aussi. Je pense qu’il s’agit d’un sujet incroyablement intéressant car il constitue un rappel fascinant du chemin continu vers l’amélioration des capacités de l’IA.
Nous pouvons observer et expérimenter la fiabilité de l’IA, les subtilités du traitement des données et les interactions homme-IA.
Soyez sympa! Laissez un commentaire