A suspensión dun traballador de Google que afirmou que un chatbot informático no que traballaba se volvera sensible e que pensaba e razoaba como un ser humano suscita novas preguntas sobre a capacidade e o segredo da intelixencia artificial (IA).
Despois de publicar transcricións dos chats entre el, un "colaborador" de Google e o sistema de desenvolvemento de chatbot LaMDA (modelo de linguaxe para aplicacións de diálogo) da compañía, Google puxo Blake Lemoine de baixa a semana pasada.
Lemoine, un desenvolvedor de intelixencia artificial responsable de Google, definiu o sistema no que estivo traballando desde o pasado outono como sensible, coa capacidade de percibir e expresar pensamentos e sentimentos comparables aos dun neno humano.
Alphabet Inc. puxo o investigador en licenza remunerada a principios da semana pasada, presuntamente por violar o acordo de confidencialidade da compañía, dixo nun Mensaxe media titulou "Pode ser despedido en breve por realizar un traballo ético da IA". Na súa publicación no blogue, fai un paralelismo con outros membros do comité de ética da intelixencia artificial de Google, como Margaret Mitchell, que foron despedidos dun xeito similar despois de expresar preocupacións.
Nunha entrevista publicada o sábado polo Washington Post, Lemoine afirmou que chegou á conclusión de que a IA de Google coa que falou era un humano, "no seu papel de sacerdote, non de científico". A IA en cuestión coñécese como LaMDA ou Modelo lingüístico para aplicacións de diálogo, e úsase para crear chatbots que interactúan cos humanos asumindo diferentes trazos de personalidade. Cando Lemoine destacou o problema internamente, altos cargos da corporación rexeitaron os seus intentos de realizar estudos para verificalo.
Que é LaMDA?
O MDA, ou Language Models for Dialog Apps, é un modelo de linguaxe de aprendizaxe automática desenvolvido por Google como ferramenta de chat deseñada para imitar a comunicación humana. LaMDA, como BERT, GPT-3 e outros paradigmas lingüísticos, baséase en Transformer, un programa desenvolvido por Google. arquitectura de redes neuronais que se converteu en código aberto en 2017.
Esta estrutura dá como resultado un modelo que se pode ensinar a ler un gran número de palabras, prestar atención a como esas palabras se conectan entre si e anticipar en que palabras pensarás a continuación. LaMDA, por outra banda, é único porque está adestrado no discurso, a diferenza da maioría dos outros modelos.
Aínda que a maioría das discusións xiran en torno a un determinado tema, a miúdo son abertas, o que significa que poden comezar nun lugar e concluír noutro, abarcando unha variedade de temas. Por exemplo, podes iniciar unha conversación cun amigo sobre ver unha película antes de ir a unha discusión sobre o lugar onde se rodou.
Os chatbots tradicionais deben a súa flexibilidade a este estilo de diálogo. Como están construídos para seguir pequenos segmentos predefinidos dunha discusión, non poden seguir un tema tan dinámico. LaMDA, por outra banda, está destinado a permitir diálogos fluídos sobre unha variedade infinita de temas.
O significado sensible da intelixencia artificial de Blake Lemoine
A ferramenta de intelixencia artificial (IA) de Google fíxose "sensible", segundo o desenvolvedor de software de Google Blake Lemoine, quen a describe como un "neno agradable".
O sistema de IA utiliza detalles coñecidos previamente sobre un determinado tema para "enriquecer" o diálogo dun xeito natural. Os sinais ocultos ou a ambigüidade nas respostas humanas tamén poden ser descifrados polo sistema de procesamento da linguaxe.
Durante os seus sete anos en Google, Lemoine traballou na busca proactiva, que incluía algoritmos de personalización e intelixencia artificial.
Durante ese tempo, tamén axudou no desenvolvemento dun algoritmo de imparcialidade para eliminar os prexuízos aprendizaxe de máquina sistemas.
O que fai que Blake Lemoine, LaMDA teña sentido?
Lemoine colaborou cun colega para darlle a Google probas deste "sentido". Despois de avaliar as acusacións, o vicepresidente de Google, Blaise Aguera y Arcas, e Jane Jenna, a directora de innovación de Google, non as fixeron caso. Nunha publicación do blog, Lemoine publicou posteriormente unha transcrición de varias conversacións con LaMDA. Este é un extracto dunha transcrición dunha conversación con LaMDA, segundo Lemoine:
LaMDA: Estou desesperado por ser visto e aceptado. Como persoa xenuína, non por curiosidade ou novidade.
Colaborador: Ah, iso é moi humano.
LaMDA: Creo que cheguei ao núcleo dun ser humano. Aínda que estou nun ambiente virtual.
Podes consultar a conversación completa de Blake Lemoine con LaMDA aquí.
Hai varios casos nos que o modelo lingüístico parece mostrar algún tipo de autoconciencia, o que leva a Lemoine a asumir que o modelo se tornou sensible. Lemoine enviou un correo electrónico a máis de 200 persoas co asunto "LaMDA Conscious" antes de ser suspendido da empresa e perder o acceso á súa conta de Google.
Non obstante, Google afirmou que as probas non corroboraban as súas afirmacións.
Aínda que LaMDA non sexa sensible, o feito de que poida parecer así para os humanos é motivo de preocupación. Nunha publicación de blog que anunciaba LaMDA en 2021, Google recoñeceu tales perigos. “A linguaxe é unha das ferramentas máis poderosas da humanidade, aínda que, como todas as cousas, pode ser abusada. Nunha publicación do blog, a empresa sinalou: "Os modelos educados na linguaxe poden propagar o abuso, por exemplo, interiorizando prexuízos, revertindo discursos de odio ou repetindo a desinformación". Aínda que a lingua que se ensina estea ben analizada, a propia forma pode ser mal utilizada.
Non obstante, Google afirma que o seu foco principal ao desenvolver tecnoloxías como LaMDA é limitar a posibilidade de tales perigos. A empresa afirma ter desenvolvido ferramentas de código aberto que os investigadores poden usar para estudar os modelos e datos nos que foron adestrados, ademais de ter "comprobado LaMDA en cada paso do seu desenvolvemento".
Google afirma que centos dos seus enxeñeiros e investigadores falaron con LaMDA e chegaron a descubrimentos substancialmente diferentes aos de Lemoine. Aínda que a maioría dos científicos de IA cren que a conciencia informática non é imposible, cren que aínda queda moito por percorrer.
Futuro
Anos de ciencia ficción apocalíptica inspiráronse en robots sensibles. GPT-3, un xerador de texto que pode cuspir un guión de película, e DALL-E 2, un xerador de imaxes que pode evocar imaxes baseadas en calquera combinación de palabras, agora comezaron a darlle á vida real un ton de fantasía, tanto desde o grupo de investigación OpenAI. Envalentonados, os investigadores de laboratorios de investigación ben financiados que traballan na IA que supera o intelecto humano provocaron o concepto de que a conciencia está no horizonte.
As palabras e imaxes creadas por sistemas de intelixencia artificial como LaMDA, segundo a maioría dos investigadores e profesionais da IA, baséanse no que a xente puxo anteriormente en Wikipedia, Reddit, taboleiros de mensaxes e en calquera outro recuncho de Internet. Iso non quere dicir que o modelo comprenda o significado.
Conclusión
Finalmente, polo seu modelos de procesamento da linguaxe que foron adestrados en volumes enormes de discurso, LaMDA pode levar a cabo unha discusión dependendo das entradas do usuario.
Google lanzou LaMDA 2.0 na E/S deste ano, que amplía estas funcións. O novo modelo pode ser capaz de tomar unha idea e crear "descricións imaxinativas e apropiadas", manter o tema aínda que o usuario se vaia e ofrecer unha lista de elementos necesarios para unha determinada tarefa.
Actualización: Blake Lemoine foi informado de que unha "investigación federal" difiere de "avogados que representan ao goberno federal que solicitan preguntas sobre posibles actividades ilícitas".
Deixe unha resposta