深度AI的星耀级困局,如何掌控决策“黑暗之心”

浏览:1076 发表时间:2020-10-16 11:20:33

现代人工智能仍是一种新事物,在过去的5年,大型科技公司对于人工智能的投资和研究才刚刚开始。

而在此之前,已有几十年历史的关于人工智能的理论最终在2012年得到了证实。人工智能依赖于“神经元”之间的成千上万个微小的连接,或者是小范围一串串的数学计算,这类似于大脑中神经元的连接系统。

但这种软件架构给我们带来了一种新的权衡:由于数百万个连接的变化如此复杂和微小,研究人员无法准确地确定正在发生的连接结果,他们只会得到一个输出的结果。

但随着机器学习在社会变得越来越普遍而且风险越来越高,人们开始意识到我们不能把这些系统当作可靠和公正的保险箱,我们需要了解它们内部发生了什么,以及它们是如何被使用的。

这也就意味着在人工智能的最深处有我们不为人知的一面甚至是难以揣测的黑暗面……

1、AI会隐藏自身所学知识?

没有人真的知道先进的机器学习算法是如何工作的,它是否会隐藏自身所学知识,而这恐将成为日后的一大隐忧。

在新泽西州蒙茅斯县的道路上有一辆奇怪的无人驾驶汽车出现。这辆由芯片制造商Nvidia开发的实验车和通用公司、Google和特斯拉所展示的自动驾驶汽车有所不同,该车的 AI 技术能力得到了大幅的提升。其中,最出彩的一点是它没有遵循由工程师或程序员所提供的指令,与之相反,它完全依赖一种通过观察人类行为来训练自己如何驾驶的算法。

从技术上来讲,无人驾驶是一项创举。但令人不安的是人类并不完全清楚汽车是怎么做出决策的,是否有隐藏现学知识的问题。简单而言,来自车身上传感器的信息直接进入一个巨大的人工神经网络,然后这个神经网络处理数据,最后发出类似转动方向盘、踩刹车或者识别人像等命令。这一结果似乎与人类驾驶员的动作反应一样。然而,如果有一天它做了一些意想不到的事情呢?例如失去控制撞上了一棵树,或者当红灯亮时却猛踩油门。

当然,我们现在还很难给出结论。因为这个系统太复杂了,即使是设计它的工程师可能也无法分析出它发出某一指令的原因。当然,你也不能强求这个神经网络能够给出它下达每一个指令的原因:因为目前为止还没有一套能够让AI自己解释自己行为的系统,人工智能是否还存在隐藏所学知识的情况呢?

Nvidia的这辆车说明了AI的深度学习已经被证明是一项非常厉害并且高效的技术,它如今被广泛应用于图像字幕、语音识别和语言翻译等工作。现在,这项技术甚至被寄予厚望用于诊断致命的疾病,做出大宗贸易的决策等事情,彻底改变了各行各业原本的运作方式。

2、AI会有自身的决策?

以上这种翻天覆地般的改变真的会发生吗?不会,或者说不应该发生。除非我们找到方法让深度学习进行自我解释,并且能够让它对它的用户负责。否则我们将很难保证基于深度学习的产品永远保持一个稳定的状态,这也就是无人驾驶汽车为何目前还是试验品的一个原因。

一直以来,数学模型已被用来帮助确定究竟谁可以被假释、谁可以被给予贷款以及谁可以被聘用。当然前提是你可以接触到这些数学模型,并了解它们的推理原因才行。但是银行、军方、雇主和其他人正在将注意力转向更复杂的机器学习,毕竟这样可以让他们作出的决策变得更加精准。

作为机器学习中最普遍采用的方法,深度学习代表了一个完全不同的计算机编程方式。麻省理工学院教授 Tommi Jaakkola 说:“逻辑解释已经是一个重要的问题,未来只会变得更加重要。因为无论是投资决策、医疗决策还是军事决策,用户都不希望只依靠‘黑匣子’,而想知道为什么神经网络会作出这一决策,它们会不会改变自身的思考模式去制定新的决策。”

3、执行关键任务AI是否会叛变?

2019年春节档科幻大作《流浪地球》中的人工智能MOSS一经亮相,就圈粉无数,关于片中作为整个领航员空间站的人工智能控制系统,moss是否真的背叛了地球人类,广大吃瓜群众展开了旷日持久的讨论。毋庸置疑 ,AI科技正在日益成为人类未来发展的方向,越来越多的人工智能系统都将逐步进入我们生活和工作的方方面面,它们本身是否会威胁到人类,这是一个颇有意思的话题。为什么我们总会怀疑,已经设定好的人工智能系统,可能会改变自身的思考模式在执行关键任务时叛变我们呢?

我们需要特别地关注 AI 的思维模式,然而目前并没有一个简单的解决方案。美国军方向使用机器学习的项目投资了数十亿美金,这些项目包括为车辆和飞行器导航、确定攻击目标并帮助分析人员筛选大量情报数据,发现这些AI存在我们难以揣测的思考模式。

然而,这些项目所用到的机器学习同样不能解释作出决策的推理过程,美国国防部已将机器学习的不可解释性定性为“关键的绊脚石”。他们研究计划署(DARPA)的项目经理 David Gunning 正在监督一个名为“可解释的人工智能”计划,而这个项目最终创造了Siri。

 为什么会有这个计划?因为我们无法摸透这些人工智能思考模式,机器学习系统的性质通常会产生大量的虚假警报,它们很有可能在我们执行一项特定指令时“背叛我们”。所以 Intel 的分析师真的需要作出额外的努力,来帮助人们理解这些机器的决策是如何作出的,以免我们遭到人工智能的某些“背叛”。

“AI的可解释性”问题并非只存在于高风险的情景(像癌症诊断或是军事演习)。如果日后AI成为我们日常生活中密不可分的一部分,了解它的决策原因也将是至关重要的。领导苹果Siri团队的Tom Gruber说,对人工智能可解释性是他的团队的一个关键考虑因素,因为它试图使Siri成为一个更聪明,更有能力的虚拟助手。 

所以,目前已经有一种论点:审查人工智能系统如何作出相应的决策应该是一项基本的法律权利。

结语:

随着 AI 的进步,我们是否可以掌控它的发展节奏?实际上,人类也不能真正地理解并解释我们自己的思维过程,可这并不影响我们直观地信任并观察对方。那么,对于与我们思维方式不同的机器来说是不是也同样有这种可能?人工智能的内心是否藏着许多我们未知的黑暗?

Daniel Dennett 最新的一本书《从细菌到巴赫》表明,智力进化的一个本质特征是进化到一个系统,这个系统中即使创造者都无法解释它某些行为的原因。Dennett 表示:“我们做事情一定要保持明智,我们对人工智能有什么标准?对我们人类自己又是什么标准?”

同时,他还有一个关于追求 AI 可解释性的警告。他说:“我认为,如果我们要使用 AI 技术并依靠它们,那么我们还是要尽可能地理解AI作出决策的原因和过程。”但由于可能没有完美的答案,我们则应该像人类对彼此那样谨慎来对待AI——无论机器看起来有多聪明。

“如果在解释 AI 的行为上,AI自己都不如我们解释得好的话,那就不要信任它了。”


深度AI的星耀级困局,如何掌控决策“黑暗之心”
现代人工智能仍是一种新事物,在过去的5年,大型科技公司对于人工智能的投资和研究才刚刚开始。
长按图片保存/分享

版权所有©珠海大横琴科技发展有限公司   粤ICP备16050130号