注册app送体验金网址-注册下载app送体验金网址-注册免费app送体验金网址
做最好的网站

黑匣子和水晶球,关于可解释的人工智能

2019-10-25 作者:注册app送体验金网址   |   浏览(106)

人工智能的能力无疑令人震惊,这让许多人想知道它是如何做到的?,而这个问题的答案推动了可解释人工智能的概念,有时候称为xai。

注册app送体验金网址 1

许多人喜欢参与有关可解释人工智能的讨论,但他们往往没有提出能够实现的可行性想法。

在我们通往可信赖的人工智能的道路上,我在我之前的博客中讨论过偏见问题,它如何从人类传播到机器,如何通过人工智能应用程序放大,对现实世界,个人和企业的影响以及重要性积极解决这个问题。今天,我将讨论所谓的“黑匣子”模型的可解释性和透明度问题。

什么是可解释的人工智能?

在解释性和准确性之间进行选择?

可解释的人工智能是通过人工智能算法解释它是如何以人类可以破译的方式得出结论的想法。这将面临一个众所周知的“黑盒问题”,其中人工智能算法可以确定某些内容,但无法提供导致这些结果的因素的详细信息。那么,人们怎么认为他们可以相信人工智能算法所说的内容呢?

要相信,必须明白。人类之间的关系也是如此。在采用能够增强人类能力以产生洞察力和做出决策的系统时,也是如此。这是人与机器之间的合作关系。与所有合作关系一样,信任是关键。

实现可解释人工智能的目标是一项令人钦佩的必要壮举,但这并不简单。在将可解释的人工智能变成现实之前,行业人士需要认识到以下四件事情。

AI和机器学习算法的可解释性已经成为该领域中讨论最多和研究最多的主题之一,这也许就不足为奇了。

1.解释可能不是建立信任的最佳方式

算法可以解释是什么意思?这意味着系统可以传达有关其内部工作的有用信息,它所学习的模式以及它提供的结果。可解释性是可解释性的更柔和,更轻的版本。如果我们能够看到正在发生的事情以及我们是否可以基于输入变量合理预测结果,即使我们不一定知道系统如何做出决策,系统也是可解释的。

人们能够理解的是,如果人工智能可以自我解释,用户以及使用人工智能做出决策的企业会相信人工智能更值得信赖。但是一些人认为,努力实现可解释的人工智能并不是建立增强信任的最佳途径。相反,测试和分析可以给出所寻求的答案。

一些模型类型,如决策树和线性回归,非常简单,透明且易于理解。我们知道改变输入将如何影响预测结果,我们可以证明每个预测的合理性。

这是因为人工智能用来得出结论的方法可能非常复杂,即使提供了解释,人们也无法理解。但是,当人工智能用户能够测试和分析人工智能所做的决策,并确保它们显示出足够的一致性,以显示系统按预期工作时,就会产生信任。

不幸的是,同样的复杂性为“黑匣子”模型提供了非凡的预测能力,例如深度神经网络,随机森林或梯度增强机器,这也使它们很难理解。任何ML技术的运作本质上都是不透明的,甚至对计算机科学家也是如此。从本质上讲,深度学习是一个特别黑暗的黑盒子。

可解释的人工智能仍然是有用的,但是人们不应该把它视为最终解开人工智能的奥秘。

用于训练这些模型的大量数据使问题变得更加严重,使得很难确定哪些数据点对结果的影响比其他数据更多。ML算法随着时间的推移而发展的事实也使事情变得困难,因为算法不断学习新数据。

2.可解释的人工智能与应用程序设计直接相关

在一天结束时,它是准确性和可解释性之间的权衡。问题是我们准备妥协多少。不幸的是,尽管我们正朝着这个方向前进,但我们还没有达到高度准确和完全透明的模型。

对于可解释的人工智能而言,另一件至关重要的事情是,与大多数人认为的相反,人们不需要将人工智能视为获得答案的起点。相反,使用可解释的人工智能取得进展意味着从应用程序级别开始。

它总是重要吗?

例如,用于促进贷款审批流程的人工智能应用程序能够以这样的方式运行,即允许人们采取人工智能工具的每个步骤以及通过这些操作创建的路径。然后,人们可能会深入挖掘并查看应用程序的哪些特征触发了批准或拒绝。

当不清楚为什么它是答案时,知道答案有什么用呢?

采用这种方法并不一定能为给定的应用程序带来完全可解释的人工智能。但是,记住可解释性对于参与构建使用程序的人来说是一个很好的策略。

对黑匣子模型越来越怀疑和不信任。因此,工程师和数据科学家正在努力解决可解释性问题。监管机构也在研究这个问题。2018年,欧盟通用数据保护条例为个人提供了一些基本权利,使他们了解自动决策,反对这些决策的输出,并获得有关所涉逻辑的一些有意义的信息。然而,它没有引入可解释性的权利。最近,欧盟已经任命了一个专家小组来解决这一复杂问题。这项工作已经导致出版了值得信赖的人工智能的高级指导方针。

注册app送体验金网址,3.强化学习比人们想象的要复杂得多

可解释性绝对是最重要的,但它总是真的重要吗?

人工智能算法以多种方式学习。这是一种有监督的学习,它涉及人工智能从预先分类的数据变得更智能,以便查看和分类。或者,当人工智能算法仔细检查输入数据以找到其中的模式时,就会发生无监督学习。最后,有一种被误解的第三种人工智能学习风格称为“强化学习”,也有一些人称之为“自我学习”。

在这篇精彩的文章中,伊丽莎白·A·霍尔姆(Elizabeth A. Holm)通过制作黑箱模型的案例采取了更加平衡的观点,至少在三种情况下:

这种算法根据收到的反馈,将执行的操作理解为可取或不可取。人们需要关注由它所做的事情引起的响应,然后从尝试和错误的方法中学习。

当错误答案的成本相对于正确答案的价值较低时(例如针对有针对性的广告)

不幸的是,考虑到复杂任务的成功都是由所有行动的总和造成的,因此加强人工智能并不是那么简单。考虑到这一点,人们必须考虑到一些使增强人工智能有效的必要条件。例如,系统必须提供具体的激励。但是,不同的场景有不同的相关期望动作。

当它产生最佳结果时(从提供医疗诊断辅助到驾驶自动驾驶汽车)

此外,任何适当使用强化学习的系统都必须考虑环境中的每个可用变量。但是,当人们考虑到许多现实问题的不可否认的复杂性时,很容易看出这是一个非常耗时的步骤。

当它激发并指导人类探究时(例如通过带来以前没有预料到的洞察力并提出新问题)

当人们努力实现可解释人工智能的目标时,他们需要记住人工智能算法以多种方式学习。此外,由于所有变量都在发挥作用,强化学习尤其困难。整理出描述强化学习算法得出结论的所有细节可能是一个过于漫长的过程。

人工智能采用的必要条件

4.所有关于可解释的人工智能的对话应包括道德伦理部分

然而,在大多数其他情况下,可解释性是确保采用AI应用程序的必要条件。

当人们谈论人工智能时,道德伦理问题经常发挥作用。当使用人工智能处理可能导致伤亡的事件时,尤其可能发生这种情况,例如加强国防力量。尽管人工智能机器最终可能比制造它们的人更聪明,但是人类仍然有责任设计出尽可能符合道德规范的人工智能机器。

如果你不知道它是如何工作的,你怎么能相信呢?

有些人甚至争辩说,实现可解释人工智能的里程碑意味着人们将机器保持在比人类更高的标准。毕竟,当人们要求充分解释所做出的决定以及如何做出决定的时候,做到这些事情往往是不可能的。转瞬即逝的想法和原始欲望是两种能让人们在意识原因之前就开始行动的因素。

实现预测的高度准确性不足以证明ML算法缺乏可解释性。

但是,是什么让机器实施道德的行为与非道德的行为?几乎可以肯定的是,编程已经开始发挥作用,但它很可能无法说明整个过程。因此,尽管让人工智能解释自己是至关重要的,但也应该对人工智能合乎道德更多的关注——即使在可解释性出现之前。

让我们以医疗保健行业为例。

发展之路还很漫长

人工智能在医疗保健领域的潜在好处是巨大的。例如,计算机视觉可用于帮助医生从扫描中识别肿瘤,从而提高诊断的准确性。在出现任何症状之前,可以使用类似的技术来预测疾病。然而,如果他们无法向从业者和患者提供某种程度的解释,那些系统注定要失败。毕竟,只是在计算机预测的背后,谁会关心开始有创伤性副作用的侵入性手术或治疗?

这份清单强调了许多人喜欢参与讨论有关可解释人工智能的一些原因,但他们往往没有提出如何实现的想法。

2015年,纽约西奈山医院的一个研究小组将深度学习技术应用于医院庞大的70万患者记录数据库。数百个变量用于训练一个名为Deep Patient的系统。事实证明,它可以非常有效地预测癌症或精神疾病等疾病。在没有任何专家指导的情况下,Deep Patient发现隐藏在医院数据中的模式似乎表明人们何时开发这些条件。挑战在于该工具无法提供有关其如何达成结论的任何线索。没有理由,系统做出的预测根本不可用。

尽管如此,这仍是一个有价值的目标,随着人们逐渐开发和采用人工智能,并用它实现新事物。

许多人和组织正在忙于试验AI和ML,从而突破了技术可以实现的范围。但是,我预测只有能够提供某种程度的可解释性和透明度的系统才能生存下来。

打开黑匣子

幸运的是,有一些方法可以使黑盒更透明,并且算法技术可以提高ML的可解释性。

最基本的方法是使用代理方法。通常难以解释的ML模型被用作更可解释的模型类型的基准。

更复杂的方法涉及应用后建模诊断技术,例如:

变量重要性,用于理解顶部输入变量。

部分依赖图,用于测量特征对ML模型的预测结果的边际效应。

个人条件期望,类似于PDP,但适用于单个数据实例,并在本地级别提供更多粒度。

本地可解释的模型不可知解释,为特定预测提供解释。这是一种模型不可知技术,用于通过更改输入和查看预测的变化来理解模型。

Shapley Values,一种用于博弈论的技术,用于确定协作游戏中每个玩家对其成功的贡献。在建模中,每个SHAP值测量对模型中每个特征的预测的负面或正面贡献。

让我感到震惊的是,为了解决复杂性问题,我们最终增加了另一层复杂性。然而,这似乎是使黑匣子更加透明和值得信赖所需的价格,因此更有用。也许主要的挑战不是技术,而是数据科学和工程团队的文化和实践。一切都取决于他们是否愿意将可解释性要求纳入AI应用程序的设计,开发和部署。

透明度,超出可解释性

在AI中创建透明度和信任超出了黑盒模型的可解释性。这只是端到端分析生命周期的一个方面,从数据到发现,再到部署,再到决策。

整个分析生命周期中的可追溯性和沿袭

流程和工具需要能够建立数据,模型和决策的可追溯性和谱系。这是建立人工智能信任的先决条件。它通常也是IT合规性或监管要求。

致力于值得信赖的AI的组织必须能够回答许多问题。

关于数据

我们用什么数据来训练模型?

它来自哪里?

我们可以相信吗?

我们是否有处理这些数据的法律依据(特别是如果它包含个人或敏感数据)?

数据有多好?质量足够好吗?

它是否代表AI应用程序的目的?它可能包含多少偏见?我们是否发现了可能与歧视性变量相关的任何歧视性变量或变量(例如,邮政编码有时可能与种族相关)?

关于分析模型

模型是否完整记录并受版本控制?

在设计和开发这些模型时做出了哪些假设?

我们是否有受控环境和自动化流程来部署和测试模型?

模型在整个分析生命周期中是否具有完全可追溯性?

我们是否有正式的流程来衡量模型的准确性和性能?

关于AI驱动的决策

使用模型的输出做出了哪些决定?

用什么数据做出决定?我们能相信这些数据吗?

这些决策对业务成果和客户有何影响?

我们是否有从使用点(在现实世界中做出决策)到数据科学和工程团队的反馈循环?

构建值得信赖的AI应用程序远远超出了模型可解释性。它要求我们在所使用的技术以及组织和业务流程中采用透明原则。它必须是一种刻意的,积极主动的努力,以确保数据驱动的创新遵循有效的业务成果和人工智能技术的道德使用。

本文由注册app送体验金网址-注册下载app送体验金网址-注册免费app送体验金网址发布于注册app送体验金网址,转载请注明出处:黑匣子和水晶球,关于可解释的人工智能

关键词: