目录[隐藏][展示]
人工智能有能力提高商业和医疗保健等各个领域的效率。 然而,缺乏可解释性阻碍了我们对使用它进行决策的依赖。
我们应该相信算法的判断吗?
对于任何行业的决策者来说,了解其局限性和潜在偏见都非常重要。 机器学习模型. 为确保这些模型按预期运行,任何 AI 系统的输出都应该可以向人类解释。
在本文中,我们将讨论可解释性在 AI 中的重要性。 我们将简要概述用于从机器学习模型中获得解释的方法类型。
什么是可解释的人工智能?
可解释的 人工智能 或 XAI 是指用于让人类了解机器学习模型如何达到特定输出的技术和方法。
很多受欢迎 机器学习算法 就好像它是一个“黑匣子”一样工作。 在机器学习中, 黑盒算法 参考 ML 模型,其中无法验证特定输入如何导致特定输出。 即使是人工智能的开发者也无法完全解释算法的工作原理。
例如,深度学习算法使用 神经网络 从大量数据中识别模式。 尽管 AI 研究人员和开发人员从技术角度了解神经网络的工作原理,但即使他们也无法完全解释神经网络是如何得出特定结果的。
一些神经网络处理数百万个参数,所有这些参数都协同工作以返回最终结果。
在决策很重要的情况下,缺乏可解释性可能会成为问题。
为什么可解释性很重要
可解释性 深入了解模型如何做出决策。 计划让人工智能做出决策的企业必须确定人工智能是否使用了正确的输入来做出最佳决策。
无法解释的模型在多个行业都是一个问题。 例如,如果一家公司要使用算法来做出招聘决定,那么让算法决定拒绝申请人的方式保持透明度符合每个人的最大利益。
另一个领域 深入学习 算法被更频繁地用于医疗保健领域。 在算法尝试检测可能的癌症迹象的情况下,医生了解模型如何得出特定诊断非常重要。 专家需要一定程度的可解释性才能充分利用人工智能而不是盲目地追随它
可解释的 AI 算法概述
可解释的 AI 算法分为两大类:自我解释模型和事后解释。
可自我解释的模型
可自我解释的模型 是人类可以直接阅读和解释的算法。 在这种情况下,模型本身就是解释。
一些最常见的自我解释模型包括决策树和回归模型。
例如,让我们考虑一个预测房价的线性回归模型。 线性回归意味着对于某个值 x,我们将能够通过应用特定的线性函数 f 来预测我们的目标值 y。
假设我们的模型使用手数作为主要输入来确定房价。 使用线性回归,我们能够得出函数 y = 5000 * x,其中 x 是平方英尺或手数。
这个模型是人类可读的并且是完全透明的。
事后解释
事后解释 是一组算法和技术,可用于增加其他算法的可解释性。
大多数事后解释技术不需要了解算法的工作原理。 用户只需要指定目标算法的输入和结果输出。
这些解释又分为两种:局部解释和全局解释。
局部解释旨在解释输入的一个子集。 例如,给定一个特定的输出,本地解释将能够查明哪些参数有助于做出该决定。
全局解释旨在产生整个算法的事后解释。 这种类型的解释通常更难做到。 算法很复杂,可能有无数的参数对实现最终结果很重要。
局部解释算法示例
在用于实现 XAI 的众多技术中,用于局部解释的算法是大多数研究人员关注的重点。
在本节中,我们将了解一些流行的局部解释算法以及它们的工作原理。
LIME
LIME(本地可解释模型无关解释器) 是一种可以解释任何机器学习算法的预测的算法。
顾名思义,LIME 与模型无关。 这意味着 LIME 可以适用于任何类型的模型。 该模型也是局部可解释的,这意味着我们可以使用局部结果来解释模型,而不是解释整个模型。
即使被解释的模型是一个黑盒子,LIME 也会围绕某个位置附近的点创建一个局部线性模型。
LIMe 提供了一个线性模型,该模型在预测附近但不一定在全局范围内逼近模型。
您可以通过访问此开源存储库了解有关此算法的更多信息。
夏普
Shapley 附加解释 (SHAP) 是一种解释个体预测的方法。 要了解 SHAP 的工作原理,我们必须解释什么是 Shapley 值。
Shapley 值是博弈论中的一个概念,它涉及为游戏中的每个玩家分配一个“值”。 这是分配给每个玩家的价值是基于玩家对游戏的贡献。
我们如何申请 博弈论到机器学习 楷模?
假设我们模型中的每个特征都是“玩家”,而“游戏”是输出预测的函数。
SHAP 方法创建一个加权线性模型,将 Shapley 值分配给各种特征。 具有高 Shapley 值的特征对模型结果的影响更大,而具有低 Shapley 值的特征影响较小。
结论
人工智能的可解释性不仅对于确保人工智能系统的公平性和问责性很重要,而且对于建立对人工智能技术的信任也很重要。
在 AI 可解释性领域仍有大量研究要做,但有一些有希望的方法可以帮助我们理解当今已经广泛使用的复杂黑盒 AI 系统。
随着进一步的研究和开发,我们可以希望构建更透明、更容易理解的人工智能系统。 与此同时,医疗保健等领域的企业和专家应该意识到人工智能可解释性的局限性。
发表评论