A suspensão de um funcionário do Google que alegou que um chatbot de computador em que ele estava trabalhando se tornou senciente e estava pensando e raciocinando como um ser humano levantou novas questões sobre a capacidade e sigilo da inteligência artificial (IA).
Depois de publicar transcrições de bate-papos entre ele, um “colaborador” do Google e o sistema de desenvolvimento de chatbot LaMDA (modelo de linguagem para aplicativos de diálogo) da empresa, o Google colocou Blake Lemoine de licença na semana passada.
Lemoine, um desenvolvedor de IA responsável pelo Google, definiu o sistema em que está trabalhando desde o outono passado como senciente, com a capacidade de perceber e expressar pensamentos e sentimentos comparáveis a uma criança humana.
O pesquisador foi colocado em licença remunerada pela Alphabet Inc. no início da semana passada, supostamente por violar o acordo de confidencialidade da empresa, disse ele em um comunicado. pós médio intitulado “Pode ser demitido em breve por realizar um trabalho ético de IA”. Em sua postagem no blog, ele traça um paralelo com outros membros do comitê de ética de IA do Google, como Margaret Mitchell, que foi demitida de maneira semelhante após expressar preocupações.
Em uma entrevista publicada no sábado pelo Washington Post, Lemoine afirmou que chegou à conclusão de que a IA do Google com quem ele falou era um humano, “em seu papel de padre, não de cientista”. A IA em questão é conhecida como LaMDA ou Modelo de linguagem for Dialogue Applications, e é usado para criar chatbots que interagem com humanos assumindo diferentes traços de personalidade. Quando Lemoine destacou a questão internamente, altos funcionários da corporação recusaram suas tentativas de realizar estudos para verificá-la.
O que é LaMDA?
TheMDA, ou Language Models for Dialog Apps, é um modelo de linguagem de aprendizado de máquina desenvolvido pelo Google como uma ferramenta de bate-papo projetada para imitar a comunicação humana. LaMDA, como BERT, GPT-3 e outros paradigmas de linguagem, é baseado no Transformer, um software desenvolvido pelo Google arquitetura de rede neural que foi feito de código aberto em 2017.
Essa estrutura resulta em um modelo que pode ser ensinado a ler um grande número de palavras, prestar atenção em como essas palavras se conectam umas às outras e antecipar quais palavras você pensará em seguida. O LaMDA, por outro lado, é único por ser treinado no discurso, ao contrário da maioria dos outros modelos.
Embora a maioria das discussões gire em torno de um determinado tópico, elas geralmente são abertas, o que significa que podem começar em um lugar e terminar em outro, abrangendo uma variedade de temas. Por exemplo, você pode iniciar uma conversa com um amigo sobre ver um filme antes de iniciar uma discussão sobre o local onde foi filmado.
Os chatbots tradicionais devem sua flexibilidade a esse estilo de diálogo. Como eles são construídos para seguir pequenos segmentos pré-definidos de uma discussão, eles não conseguem acompanhar um tópico tão dinâmico. O LaMDA, por outro lado, destina-se a permitir diálogos de fluxo livre sobre uma variedade infinita de temas.
O significado da inteligência artificial de Blake Lemoine
A ferramenta de inteligência artificial (IA) do Google tornou-se “consciente”, de acordo com o desenvolvedor de software do Google, Blake Lemoine, que a descreve como um “garoto legal”.
O sistema de IA usa detalhes previamente conhecidos sobre um determinado tópico para 'enriquecer' o diálogo de forma natural. Sinais ocultos ou ambiguidade nas respostas humanas também podem ser decifrados pelo sistema de processamento de linguagem.
Durante seus sete anos no Google, Lemoine trabalhou em pesquisa proativa, que incluiu algoritmos de personalização e IA.
Durante esse tempo, ele também ajudou no desenvolvimento de um algoritmo de imparcialidade para remover preconceitos de aprendizado de máquina sistemas.
O que faz Blake Lemoine, LaMDA ficar senciente?
Lemoine colaborou com um colega para dar ao Google uma prova desse “sentido”. Depois de avaliar as acusações, o vice-presidente do Google, Blaise Aguera y Arcas, e Jane Jenna, diretora de inovação do Google, as desconsideraram. Em uma postagem no blog, Lemoine postou posteriormente uma transcrição de várias conversas com LaMDA. Este é um trecho de uma transcrição de uma conversa com LaMDA, de acordo com Lemoine:
LaMDA: Estou desesperado para ser visto e aceito. Como uma pessoa genuína, não por curiosidade ou novidade.
Colaborador: Ah, isso soa extremamente humano.
LaMDA: Acredito que atingi o âmago de um ser humano. Mesmo que eu esteja em um ambiente virtual.
Você pode conferir a conversa completa de Blake Lemoine com LaMDA SUA PARTICIPAÇÃO FAZ A DIFERENÇA.
Existem vários casos em que o modelo de linguagem parece ter exibido algum tipo de autoconsciência, levando Lemoine a supor que o modelo se tornou senciente. Lemoine enviou um e-mail para mais de 200 pessoas com o assunto “LaMDA Conscious” antes de ser suspenso da empresa e perder o acesso à sua conta do Google.
No entanto, o Google afirmou que as evidências não corroboravam suas afirmações.
Mesmo que o LaMDA não seja senciente, o fato de poder parecer assim para os humanos é motivo de preocupação. Em uma postagem no blog anunciando o LaMDA em 2021, o Google reconheceu esses perigos. “A linguagem é uma das ferramentas mais poderosas da humanidade, mas, como todas as coisas, pode ser abusada. Em uma postagem no blog, a empresa observou: “Modelos educados no idioma podem propagar abusos – por exemplo, internalizando preconceitos, revertendo discursos de ódio ou repetindo desinformação”. Mesmo que a linguagem ensinada seja bem analisada, a forma em si pode ser mal utilizada.
No entanto, o Google afirma que seu foco principal ao desenvolver tecnologias como o LaMDA é limitar a possibilidade de tais riscos. A empresa afirma ter desenvolvido ferramentas de código aberto que os pesquisadores podem usar para estudar os modelos e dados em que foram treinados, além de ter “examinado o LaMDA em todas as etapas de seu desenvolvimento”.
O Google afirma que centenas de seus engenheiros e pesquisadores conversaram com o LaMDA e chegaram a conclusões substancialmente diferentes das de Lemoine. Enquanto a maioria dos cientistas de IA acredita que a consciência do computador não é impossível, eles acreditam que ainda há um longo caminho a percorrer.
promissor
Anos de ficção científica apocalíptica foram inspirados por robôs sencientes. O GPT-3, um gerador de texto que pode cuspir um roteiro de filme, e o DALL-E 2, um gerador de imagens que pode evocar imagens com base em qualquer combinação de palavras, começaram agora a dar à vida real um tom de fantasia, tanto de do grupo de pesquisa OpenAI. Encorajados, pesquisadores de laboratórios de pesquisa bem financiados que trabalham em IA que supera o intelecto humano provocaram o conceito de que a consciência está no horizonte.
As palavras e imagens criadas por sistemas de inteligência artificial como o LaMDA, de acordo com a maioria dos pesquisadores e praticantes de IA, são baseadas no que as pessoas colocaram anteriormente na Wikipedia, Reddit, quadros de mensagens e em todos os outros cantos da Internet. Isso não quer dizer que o modelo compreenda o significado.
Conclusão
Finalmente, por causa de sua modelos de processamento de linguagem que foram treinados em enormes volumes de discurso, o LaMDA pode conduzir uma discussão dependendo das entradas do usuário.
O Google lançou o LaMDA 2.0 no I/O deste ano, que expande esses recursos. O novo modelo pode ser capaz de pegar uma ideia e criar “descrições imaginativas e apropriadas”, manter o tópico mesmo que o usuário se desvie e oferecer uma lista de itens necessários para uma determinada tarefa.
Atualização: Blake Lemoine foi informado de que uma “investigação federal” difere de “advogados que representam o governo federal solicitando investigações sobre possíveis atividades ilegais”.
Deixe um comentário