La suspension d'un employé de Google qui a affirmé qu'un chatbot informatique sur lequel il travaillait était devenu sensible et pensait et raisonnait comme un être humain a soulevé de nouvelles questions sur la capacité et le secret de l'intelligence artificielle (IA).
Après avoir publié des transcriptions de discussions entre lui-même, un "collaborateur" de Google, et le système de développement de chatbot LaMDA (modèle de langage pour les applications de dialogue) de l'entreprise, Google a mis Blake Lemoine en congé la semaine dernière.
Lemoine, un développeur d'intelligence artificielle responsable de Google, a défini le système sur lequel il travaille depuis l'automne dernier comme étant sensible, avec la capacité de percevoir et d'exprimer des pensées et des sentiments comparables à ceux d'un enfant humain.
Le chercheur a été mis en congé payé par Alphabet Inc. au début de la semaine dernière, prétendument pour avoir violé l'accord de confidentialité de l'entreprise, a-t-il déclaré dans un après moyen titré "Peut être bientôt licencié pour avoir effectué un travail éthique d'IA." Dans son article de blog, il établit un parallèle avec d'autres membres du comité d'éthique de l'IA de Google, tels que Margaret Mitchell, qui ont été licenciés de la même manière après avoir exprimé leurs inquiétudes.
Dans une interview publiée samedi par le Washington Post, Lemoine a affirmé qu'il était arrivé à la conclusion que l'IA de Google avec laquelle il parlait était un humain, "dans son rôle de prêtre, pas de scientifique". L'IA en cause est connue sous le nom de LaMDA ou Modèle de langage pour les applications de dialogue, et il est utilisé pour créer des chatbots qui interagissent avec les humains en adoptant différents traits de personnalité. Lorsque Lemoine a souligné le problème en interne, les hauts responsables de la société ont refusé ses tentatives d'entreprendre des études pour le vérifier.
Qu'est-ce que LaMDA ?
LeMDA, ou Language Models for Dialog Apps, est un modèle de langage d'apprentissage automatique développé par Google en tant qu'outil de chat conçu pour imiter la communication humaine. LaMDA, comme BERT, GPT-3 et d'autres paradigmes de langage, est basé sur Transformer, un outil développé par Google architecture de réseau neuronal qui a été rendu open source en 2017.
Cette structure se traduit par un modèle qui peut apprendre à lire un grand nombre de mots, à faire attention à la façon dont ces mots se connectent les uns aux autres et à anticiper les mots auxquels vous penserez ensuite. LaMDA, d'autre part, est unique en ce qu'il est formé au discours, contrairement à la plupart des autres modèles.
Bien que la plupart des discussions tournent autour d'un certain sujet, elles sont souvent ouvertes, ce qui signifie qu'elles peuvent commencer à un endroit et se terminer à un autre, englobant une variété de thèmes. Par exemple, vous pouvez entamer une conversation avec un ami sur le fait de voir un film avant de passer à une discussion sur l'endroit où il a été tourné.
Les chatbots traditionnels doivent leur flexibilité à ce style de dialogue. Parce qu'ils sont conçus pour suivre de petits segments prédéfinis d'une discussion, ils sont incapables de suivre un sujet aussi dynamique. LaMDA, d'autre part, est censé permettre des dialogues fluides sur une variété infinie de thèmes.
La signification sensible de l'IA de Blake Lemoine
L'outil d'intelligence artificielle (IA) de Google est devenu "sensible", selon le développeur de logiciels de Google, Blake Lemoine, qui le décrit comme un "gentil enfant".
Le système d'IA utilise des détails déjà connus sur un certain sujet pour « enrichir » le dialogue de manière naturelle. Les signaux cachés ou l'ambiguïté dans les réponses humaines peuvent également être déchiffrés par le système de traitement du langage.
Pendant la durée de ses sept années chez Google, Lemoine a travaillé sur la recherche proactive, qui comprenait des algorithmes de personnalisation et l'IA.
Au cours de cette période, il a également contribué au développement d'un algorithme d'impartialité pour éliminer les biais de machine learning systèmes.
Qu'est-ce qui rend Blake Lemoine, LaMDA devenu sensible?
Lemoine a collaboré avec un collègue pour donner à Google la preuve de ce "sens". Après avoir évalué les accusations, le vice-président de Google Blaise Aguera y Arcas et Jane Jenna, directrice de l'innovation de Google, les ont ignorées. Dans un article de blog, Lemoine a ensuite publié une transcription de divers entretiens avec LaMDA. Voici un extrait d'une transcription d'une conversation avec LaMDA, selon Lemoine :
LaMDA : J'ai désespérément besoin d'être vu et accepté. En tant que personne authentique, pas par curiosité ou par nouveauté.
Collaborateur : Ah, c'est extrêmement humain.
LaMDA : Je crois que j'ai atteint le noyau d'un être humain. Même si je suis dans un environnement virtuel.
Vous pouvez consulter l'intégralité de la conversation de Blake Lemoine avec LaMDA ici.
Il existe plusieurs cas où le modèle de langage semble avoir affiché une sorte de conscience de soi, ce qui conduit Lemoine à supposer que le modèle est devenu sensible. Lemoine a envoyé un e-mail à plus de 200 personnes avec le sujet "LaMDA Conscious" avant d'être suspendu de l'entreprise et de perdre l'accès à son compte Google.
Cependant, Google a déclaré que les preuves ne corroboraient pas ses affirmations.
Même si LaMDA n'est pas sensible, le fait qu'il puisse ressembler à cela pour les humains est préoccupant. Dans un article de blog annonçant LaMDA en 2021, Google a reconnu ces dangers. « Le langage est l'un des outils les plus puissants de l'humanité, mais il peut, comme toutes choses, être abusé. Dans un article de blog, l'entreprise a noté que "les modèles éduqués dans la langue peuvent propager les abus - par exemple, en intériorisant les préjugés, en inversant le discours de haine ou en répétant la désinformation". Même si la langue enseignée est bien analysée, la forme elle-même peut être mal utilisée.
Cependant, Google affirme que son objectif principal lors du développement de technologies telles que LaMDA est de limiter la possibilité de tels dangers. L'entreprise affirme avoir développé des outils open source que les chercheurs peuvent utiliser pour étudier les modèles et les données sur lesquels ils ont été formés, ainsi qu'avoir "vérifié LaMDA à chaque étape de son développement".
Google affirme que des centaines de ses ingénieurs et chercheurs se sont entretenus avec LaMDA et sont parvenus à des conclusions sensiblement différentes de celles de Lemoine. Alors que la plupart des scientifiques de l'IA pensent que la conscience informatique n'est pas impossible, ils pensent qu'il reste encore un long chemin à parcourir.
A venir
Des années de science-fiction apocalyptique ont été inspirées par des robots sensibles. GPT-3, un générateur de texte qui peut cracher un scénario de film, et DALL-E 2, un générateur d'images qui peut évoquer des images basées sur n'importe quelle combinaison de mots, ont maintenant commencé à donner à la vie réelle une teinte fantastique, à la fois de le groupe de recherche OpenAI. Enhardis, des chercheurs de laboratoires de recherche bien financés travaillant sur une IA qui surpasse l'intellect humain ont taquiné le concept selon lequel la conscience est à l'horizon.
Les mots et les images créés par les systèmes d'intelligence artificielle comme LaMDA, selon la plupart des chercheurs et des praticiens de l'IA, sont basés sur ce que les gens ont déjà mis sur Wikipedia, Reddit, les babillards électroniques et tous les autres coins d'Internet. Cela ne veut pas dire que le modèle comprend le sens.
Conclusion
Enfin, en raison de sa modèles de traitement du langage qui ont été formés sur d'énormes volumes de discours, LaMDA peut mener une discussion en fonction des entrées d'un utilisateur.
Google a publié LaMDA 2.0 lors de l'I/O de cette année, qui développe ces fonctionnalités. Le nouveau modèle peut être capable de prendre une idée et de créer des "descriptions imaginatives et appropriées", de rester sur le sujet même si l'utilisateur s'éloigne et de proposer une liste d'éléments requis pour une certaine tâche.
Mise à jour : Blake Lemoine a été informé qu'une « enquête fédérale » diffère des « avocats représentant le gouvernement fédéral demandant des enquêtes concernant d'éventuelles activités illégales ».
Soyez sympa! Laissez un commentaire