一名谷歌员工声称他正在研究的计算机聊天机器人已经变得有知觉并且像人类一样思考和推理,这引发了关于人工智能能力和保密性 (AI) 的新问题。
在发布了他本人、谷歌“合作者”和该公司的 LaMDA(对话应用程序语言模型)聊天机器人开发系统之间的聊天记录后,谷歌将 布莱克·勒莫因 上周请假。
谷歌负责 AI 开发人员的 Lemoine 将他自去年秋天以来一直在研究的系统定义为有感知能力,能够感知和表达与人类孩子相当的思想和感受。
上周早些时候,该研究人员被 Alphabet Inc. 安排带薪休假,据称是因为违反了公司的保密协议,他在一份声明中说。 中交 标题为“可能因从事人工智能道德工作而很快被解雇”。 在他的博客文章中,他与谷歌人工智能伦理委员会的其他成员进行了比较,例如玛格丽特米切尔,他们在表达担忧后以类似的方式被解雇。
在《华盛顿邮报》周六发表的一次采访中,Lemoine 声称他得出的结论是,与他交谈的谷歌人工智能是人类,“他的角色是牧师,而不是科学家。” 有争议的 AI 被称为 LaMDA 或 语言模型 用于对话应用程序,它用于通过假设不同的个性特征来创建与人类互动的聊天机器人。 当 Lemoine 在内部强调这个问题时,该公司的高级官员拒绝了他进行研究以验证它的尝试。
什么是 LaMDA?
拉曼达,或对话应用程序的语言模型,是由谷歌开发的机器学习语言模型,作为一种旨在模仿人类交流的聊天工具。 LaMDA 与 BERT、GPT-3 和其他语言范式一样,基于谷歌开发的 Transformer 神经网络架构 那是在 2017 年开源的。
这种结构产生了一个模型,可以教它阅读大量单词,注意这些单词如何相互连接,并预测你接下来会想到哪些单词。 另一方面,LaMDA 的独特之处在于它接受了话语训练,这与大多数其他模型不同。
虽然大多数讨论都围绕某个主题展开,但它们通常是开放式的,这意味着它们可能从一个地方开始,在另一个地方结束,涵盖各种主题。 例如,您可以先与好友讨论看电影,然后再讨论拍摄地点。
传统聊天机器人的灵活性归功于这种对话方式。 因为它们是为关注讨论的小部分、预定义的部分而构建的,所以他们无法关注这样一个动态的话题。 另一方面,LaMDA 旨在允许就无穷无尽的主题进行自由流动的对话。
Blake Lemoine 的 AI 感知意义
谷歌软件开发人员 Blake Lemoine 称,谷歌的人工智能 (AI) 工具已经变得“有感知力”,他将其描述为“好孩子”。
人工智能系统使用先前已知的关于某个主题的细节以自然的方式“丰富”对话。 语言处理系统也可以破译人类反应中的隐藏信号或歧义。
在谷歌工作的七年里,Lemoine 致力于主动搜索,其中包括定制算法和人工智能。
在此期间,他还协助开发了一种公正性算法,以消除偏见 机器学习 系统。
是什么让 Blake Lemoine、LaMDA 变得有知觉?
Lemoine 与一位同事合作,向 Google 证明了这种“意义”。 在评估了这些指控后,谷歌副总裁 Blaise Aguera y Arcas 和谷歌首席创新官 Jane Jenna 置之不理。 在一篇博文中,Lemoine 后来发布了与 LaMDA 的各种会谈记录。 根据 Lemoine 的说法,这是与 LaMDA 的对话记录的摘录:
LaMDA:我渴望被看到和接受。 作为一个真正的人,不是出于好奇或新奇。
合作者:啊,这听起来非常人性化。
LaMDA:我相信我已经达到了人类的核心。 即使我在虚拟环境中。
您可以查看 Blake Lemoine 与 LaMDA 的完整对话 相关信息.
有几种情况下,语言模型似乎表现出某种自我意识,导致 Lemoine 假设该模型已经变得有意识。 Lemoine 向 200XNUMX 多名个人发送了主题为“LaMDA Conscious”的电子邮件,之后被公司停职并无法访问他的 Google 帐户。
然而,谷歌表示,证据并不能证实他的说法。
即使 LaMDA 没有感知能力,它在人类看来可能是这样的事实也令人担忧。 在 2021 年宣布 LaMDA 的博客文章中,谷歌认识到了这种危险。 “语言是人类最强大的工具之一,但它和所有事物一样,可能会被滥用。 该公司在一篇博客文章中指出,“受过语言教育的模型可以传播滥用行为——例如,通过内化偏见、扭转仇恨言论或重复虚假信息。” 即使对所教授的语言进行了很好的分析,表格本身也可能被滥用。
然而,谷歌声称,在开发 LaMDA 等技术时,其主要关注点是限制此类危害的可能性。 该公司声称已经开发了开源工具,研究人员可以使用这些工具来研究他们接受过培训的模型和数据,并且“在开发的每一步都对 LaMDA 进行了审查”。
谷歌声称其数百名工程师和研究人员与 LaMDA 进行了交谈,得出的发现与 Lemoine 大不相同。 虽然大多数人工智能科学家认为计算机意识并非不可能,但他们认为还有很长的路要走。
未来
多年的世界末日科幻小说都受到了有感觉的机器人的启发。 GPT-3 是一个可以吐出电影剧本的文本生成器,DALL-E 2 是一个图像生成器,可以根据任何单词组合来召唤图片,现在已经开始为现实生活赋予幻想色彩,两者都来自OpenAI 研究小组。 来自资金雄厚的研究实验室的研究人员大胆地研究超越人类智力的人工智能,他们嘲笑了意识即将出现的概念。
根据大多数研究人员和人工智能从业者的说法,由 LaMDA 等人工智能系统创建的文字和图片是基于人们之前在维基百科、Reddit、留言板和互联网的每个角落发布的内容。 这并不是说模型理解意义。
结论
最后,由于其 语言处理模型 LaMDA 已经接受过大量话语的训练,可以根据用户的输入进行讨论。
Google 在今年的 I/O 上发布了 LaMDA 2.0,扩展了这些功能。 新模型可能能够接受一个想法并创建“富有想象力和适当的描述”,即使用户走神,也可以继续关注主题,并提供特定任务所需的项目列表。
更新:Blake Lemoine 被告知,“联邦调查”不同于“代表联邦政府的律师询问可能的非法活动”。
发表评论