三年前,我参观了一个相当有趣的艺术展览。雷菲克·阿纳多尔的《机器回忆录》从一开始就引起了我的兴趣。
对于那些对艺术与人工智能交叉感兴趣的人来说,他是一个很受欢迎的名字。但别担心,这个博客不是关于艺术的。我们将深入探讨人工智能的深层“感知”。
在这次展览中,阿纳多尔正在尝试 NASA 的太空探索图像。 该展览的灵感来自于望远镜可以利用其视觉档案“梦想”,模糊事实与想象之间的障碍。
通过在宇宙尺度上研究数据、记忆和历史之间的关系,阿纳多尔要求我们考虑以下方面的潜力: 人工智能 观察和理解我们周围的世界。甚至人工智能也有自己的梦想……
那么,为什么这与我们相关呢?
考虑一下:就像阿纳多尔研究望远镜根据数据做梦的概念一样,人工智能系统在其数字存储库中也有自己的梦想类型,或者更确切地说,幻觉。
这些幻觉,就像阿纳多尔展览中的可视化一样,可以帮助我们更多地了解数据、人工智能及其局限性。
AI幻觉到底是什么?
当大型语言模型(例如生成式人工智能聊天机器人)产生的输出具有人类观察者不存在或不可见的模式时,我们将其称为“AI幻觉。=
这些输出与基于人工智能输入的预期答案不同,可能是完全错误或无意义的。
在计算机的背景下,“幻觉”一词可能看起来不寻常,但它准确地描述了这些不正确输出的奇异特征。人工智能幻觉是由一系列变量引起的,包括过度拟合、训练数据的偏差以及人工智能模型的复杂性。
为了更好地理解,这在概念上类似于人类如何看待云中的形状或月球上的面孔。
一个例子:
在这个例子中,我问了一个非常简单的问题 ChatGPT。我应该得到这样的答案:“沙丘系列丛书的作者是弗兰克·赫伯特”。
为什么会这样?
尽管构建的目的是编写连贯且流畅的内容,但大型语言模型实际上无法理解它们所说的内容。这对于确定人工智能生成内容的可信度非常关键。
虽然这些模型可以产生模仿人类行为的反应, 他们缺乏情境意识和批判性思维能力 支撑实际智力。
因此,人工智能生成的输出存在误导或错误的危险,因为它们更喜欢匹配模式而不是事实正确性。
幻觉的其他情况可能是什么?
危险的错误信息: 假设一个生成式人工智能聊天机器人捏造证据和证词来错误地指控公众人物有犯罪行为。这种误导性信息可能会损害该人的声誉并导致不正当的报复。
奇怪或令人毛骨悚然的答案: 举一个幽默的例子,想象一个聊天机器人向用户提出一个天气问题,并回复天气预报说将会下猫狗雨,并附上看起来像猫狗的雨滴图片。尽管它们很有趣,但这仍然是一个“幻觉”。
事实不准确: 假设基于语言模型的聊天机器人错误地指出可以从太空看到中国的长城,但没有解释它仅在特定条件下可见。虽然这种说法对某些人来说似乎有道理,但它是不准确的,并且可能会误导人们对隔离墙从太空的视线的认识。
作为用户如何避免人工智能幻觉?
做出明确的提示
您需要与人工智能模型进行明确的沟通。
在写作之前考虑你的目标并设计你的提示。
例如,给出诸如“解释互联网如何工作并写一段关于其在现代社会中的重要性的段落”之类的具体说明,而不是提出诸如“告诉我有关互联网的信息”之类的一般性询问。
明确性有助于人工智能模型解释您的意图。
示例:向 AI 提出如下问题:
“什么是云计算,它是如何工作的?”
“解释数据漂移对模型性能的影响。”
“讨论 VR 技术对 IT 业务的影响和潜在的未来。”
拥抱榜样的力量
在提示中提供示例有助于 AI 模型理解上下文并生成准确的回复。无论您是在寻找历史见解还是技术解释,提供示例都可以帮助提高人工智能生成内容的准确性。
例如,您可以说:“提及《哈利·波特》等奇幻小说。”
分解复杂的任务
复杂的提示会使人工智能算法超载,并且可能会导致不相关的结果。为了防止这种情况发生,请将复杂的活动分成更小、更易于管理的部分。通过按顺序组织提示,您可以让人工智能独立关注每个组件,从而产生更合乎逻辑的答复。
例如,不要要求人工智能“解释创建一个 神经网络” 在单个查询中,将任务分解为离散的阶段,例如问题定义和数据收集。
验证输出并提供反馈
始终仔细检查人工智能模型产生的结果,特别是对于基于事实或关键的活动。将回复与可靠来源进行比较,并记下任何差异或错误。
为人工智能系统提供输入,以提高未来的表现并减少幻觉。
开发人员避免人工智能幻觉的策略
实施检索增强生成 (RAG)。
将检索增强生成技术集成到人工智能系统中,以基于可靠数据库中的事实进行回复。
检索增强生成 (RAG) 将标准自然语言生成与从庞大知识库获取和合并相关信息的能力相结合,从而产生上下文更丰富的输出。
通过将 AI 生成的内容与经过验证的数据源合并,您可以提高 AI 结果的可靠性和可信度。
持续验证和监控 AI 输出
建立严格的验证程序,实时验证人工智能输出的正确性和一致性。仔细监控人工智能性能,寻找潜在的幻觉或错误,并迭代模型训练和提示优化,以随着时间的推移提高可靠性。
例如,使用自动验证例程来检查人工智能生成的内容的事实正确性,并突出显示可能出现幻觉的实例以进行手动评估。
检查数据漂移
数据漂移是一种用于训练人工智能模型的数据的统计特征随时间变化的现象。如果人工智能模型在推理过程中遇到与其训练数据有很大差异的数据,它可能会提供错误或不合逻辑的结果,从而导致幻觉。
例如,如果人工智能模型是根据过去的数据进行训练的,而这些数据不再与当前环境相关或表明当前环境,则它可能会做出错误的结论或预测。
因此,监控和解决数据漂移对于确保人工智能系统的性能和可靠性,同时减少产生幻觉的可能性至关重要。
结论
根据 IBM Data 的数据,AI 模型的答案中大约有 3% 到 10% 出现了 AI 幻觉。
因此,无论怎样,您也可能会观察到它们。我相信这是一个非常有趣的话题,因为它令人着迷地提醒我们不断增强人工智能能力的道路。
我们可以观察和实验人工智能的可靠性、数据处理的复杂性以及人机交互。
发表评论