目录[隐藏][展示]
我们如何确保负责任地使用人工智能?
机器学习的进步表明,模型可以快速扩展并影响社会的很大一部分。
算法控制每个人手机上的新闻源。 政府和企业开始使用人工智能来做出基于数据的决策。
随着人工智能在世界运作方式中变得更加根深蒂固,我们如何确保人工智能公平行事?
在本文中,我们将研究使用人工智能的道德挑战,看看我们可以做些什么来确保负责任地使用人工智能。
什么是道德人工智能?
道德人工智能是指遵循一定的道德准则的人工智能。
换句话说,这是个人和组织以负责任的方式使用人工智能的一种方式。
近年来,在滥用和违规的证据曝光后,企业开始遵守数据隐私法。 同样,建议使用道德 AI 指南,以确保 AI 不会对社会产生负面影响。
例如,某些类型的 AI 以有偏见的方式工作,或者延续已经存在的偏见。 让我们考虑一种算法,它可以帮助招聘人员对数千份简历进行分类。 如果该算法是在以男性或白人雇员为主的数据集上进行训练的,那么该算法可能会偏向属于这些类别的申请人。
建立道德人工智能的原则
我们已经考虑过建立一套规则来强加于 人工智能 几十年
甚至在 1940 年代,当最强大的计算机只能进行最专业的科学计算时,科幻作家们也开始思考控制智能机器人的想法。
艾萨克·阿西莫夫(Isaac Asimov)著名地创造了机器人三定律,他在他的短篇小说中提议将其嵌入到机器人编程中,作为一项安全功能。
这些法律已成为许多未来科幻故事的试金石,甚至为人工智能伦理的实际研究提供了信息。
在当代研究中,人工智能研究人员正在寻找更可靠的资源,以建立道德人工智能原则清单。
由于人工智能最终会影响人类的生活,我们必须对我们应该做什么和不应该做什么有一个基本的了解。
贝尔蒙特报告
作为参考,伦理研究人员将贝尔蒙特报告作为指导。 这 贝尔蒙报告 是美国国立卫生研究院于 1979 年发表的一份文件。二战中发生的生物医学暴行推动了为从事医学研究的研究人员制定的伦理准则。
以下是报告中提到的三个基本原则:
- 尊重人
- Beneficence
- 司法
第一原则旨在维护所有人类主体的尊严和自主权。 例如,研究人员应尽量减少欺骗参与者,并应要求每个人明确表示同意。
第二个原则,善意,侧重于研究人员有责任尽量减少对参与者的潜在伤害。 这一原则使研究人员有责任平衡个人风险与潜在社会收益的比率。
正义是贝尔蒙特报告提出的最终原则,侧重于在可以从研究中受益的群体之间平均分配风险和收益。 研究人员有责任从更广泛的人群中选择研究对象。 这样做可以最大限度地减少可能对社会产生负面影响的个人和系统偏见。
将伦理置于人工智能研究中
虽然贝尔蒙特报告主要针对涉及人类受试者的研究,但这些原则足够广泛,可以应用于人工智能伦理领域。
大数据已成为人工智能领域的宝贵资源。 确定研究人员如何收集数据的过程应遵循道德准则。
大多数国家数据隐私法的实施在某种程度上限制了公司可以收集和使用的数据。 然而,大多数国家仍然有一套基本的法律来防止使用人工智能造成伤害。
如何合乎道德地使用人工智能
以下是一些关键概念,可以帮助我们以更合乎道德和负责任的方式使用人工智能。
偏差控制
人工智能本质上不是中立的。 算法总是容易受到插入偏差和歧视的影响,因为它从中学习的数据包括偏差。
歧视性 AI 的一个常见示例是面部识别系统中经常出现的类型。 这些模型通常能成功识别白人男性面孔,但在识别肤色较深的人方面不太成功。
另一个例子出现在 OpenAI 的 DALL-E 2 中。用户有 发现 某些提示通常会重现模型从其在线图像数据集中发现的性别和种族偏见。
例如,当提示输入律师图像时,DALL-E 2 返回男性律师的图像。 另一方面,索要空乘人员的照片返回的大多是女性空乘人员。
虽然可能无法完全消除人工智能系统的偏见,但我们可以采取措施将其影响降至最低。 研究人员和工程师可以通过了解训练数据并聘请多元化团队就人工智能系统的工作方式提供意见,从而更好地控制偏见。
以人为本的设计方法
您最喜欢的应用程序上的算法可能会对您产生负面影响。
Facebook 和 TikTok 等平台能够了解提供哪些内容来让用户留在他们的平台上。
即使没有造成伤害的意图,让用户尽可能长时间地使用他们的应用程序的目标也可能导致心理健康问题。 “doomscrolling”这个词越来越受欢迎,因为它是一个包罗万象的词,用于在 Twitter 和 Facebook 等平台上花费大量时间阅读负面新闻。
在其他情况下,仇恨内容和错误信息会获得更广泛的平台,因为它有助于提高用户参与度。 一个 2021研究 来自纽约大学研究人员的研究表明,来自以错误信息而闻名的消息来源的帖子获得的点赞数是信誉良好的新闻来源的六倍。
这些算法缺乏以人为本的设计方法。 设计 AI 如何执行操作的工程师必须始终牢记用户体验。
研究人员和工程师必须始终提出以下问题:“这对用户有何好处?”
大多数 AI 模型都遵循黑盒模型。 里面有个黑盒子 机器学习 指的是没有人能解释为什么人工智能会得出特定结果的人工智能。
黑匣子是有问题的,因为它降低了我们对机器的信任度。
例如,让我们想象一个场景,Facebook 发布了一种算法来帮助政府追踪犯罪分子。 如果人工智能系统标记你,没有人能够解释它为什么做出这个决定。 这种类型的系统不应该是你应该被捕的唯一原因。
可解释的 AI 或 XAI 应返回有助于最终结果的因素列表。 回到我们假设的犯罪追踪器,我们可以调整人工智能系统以返回显示可疑语言或术语的帖子列表。 从那里,人们可以验证标记的用户是否值得调查。
XAI 为 AI 系统提供了更高的透明度和信任度,并可以帮助人类做出更好的决策。
结论
像所有人造发明一样,人工智能本质上没有好坏之分。 重要的是我们使用人工智能的方式。
人工智能的独特之处在于它的发展速度。 在过去的五年里,我们每天都在机器学习领域看到令人兴奋的新发现。
然而,法律并没有那么快。 随着企业和政府继续利用人工智能实现利润最大化或控制公民,我们必须找到方法来推动使用这些算法的透明度和公平性。
你认为真正合乎道德的人工智能是可能的吗?
发表评论