中国人工智能学会

Chinese Association for Artificial Intelligence

GAITC 2021 演讲实录丨CAAI理事长戴琼海院士:脑认知启发的智能决策

发布时间:2021-08-04

2021年6月5日至6日,由中国科学技术协会、中国科学院、中国工程院、浙江省人民政府指导,中国人工智能学会、杭州市人民政府主办,杭州市余杭区人民政府筹备组承办,浙江杭州未来科技城管理委员会具体执行的2021全球人工智能技术大会在杭州成功举办。大会主论坛上,国务院参事、CAAI 理事长、中国工程院院士、清华大学信息学院院长、CAAI Fellow戴琼海教授为我们带来了题为《脑认知启发的智能决策》的精彩演讲。

微信图片_20210830172530.png

戴琼海

国务院参事

CAAI 理事长

中国工程院院士

清华大学信息学院院长、教授

CAAI Fellow

以下是戴琼海院士的演讲实录:

我的报告题目是《脑认知启发的智能决策》,这个报告凝聚了清华大学很多老师的心血。决策这个问题是非常重要的。以前我们决策靠经验决策,包括靠占卜,掷骰子,这样一种决策行为。随着原始社会到农耕文明再到工业革命的演进,人类制造和使用的工具越来越多、越来越复杂,需要做很多基于科学方法的决策。尤其到了电器革命、信息时代,我们所感知信息的维度越来越多,这时信息辅助决策成为人类控制决策最重要的一个方向。

回顾一下图灵之问。我们一直期待人工智能来帮人类做决策,但是我们会发现一个问题。比如让机器自己识别红绿灯,红灯时机器都会停下来;当绿灯时人或者智能机器都会行走,这时机器和人能做出同样的决策。但是当红灯、绿灯、黄灯同时亮了怎么办?人会按照自我感知的意识去做决策,比如前面走几辆车,我们走几辆,控制几辆车走了再停下来。我们做决策时一般都是通过感知,感知完数据以后,要通过学习来理解这些数据并建立模型,就像现在的深度学习、强化学习;最后做一个决策,形式上判断下面要做什么。机器则不知道怎么决策,图灵测试到这时就出现问题了,这时的决策是机器所不能识别也不能做的决策。

感知有视觉、触觉、听觉等很多信息,这里也牵涉到交互,存在这方面的决策。从感知、学习、理解一直到决策,形成决策大概有这几个步骤。视觉占人类感知世界的80%以上。人的眼睛实际上像一台照相机,通过生理数据的预测和推算,人的感知像素的个数5亿之多,但是理解的知识只是5亿像素中的一部分,百十个像素或者1000个像素。眼睛全部感知到理解就不行了,因为这里存在视场和分辨率(通常意义上视场增大分辨率会下降)的矛盾、时间分辨率和空间分辨率的矛盾等,很多矛盾造成人眼真正的有效像素非常少,而机器感知的手段完全可以突破人的感知。

现在研究的机器可以突破人眼的极限,实现人眼感知不到波长短于400纳米的紫外线、α射线的传播,这大大拓展了机器成像的光谱范围。我们实验室做了一个10亿像素拍摄感知的场景,通过结构自适应,也就是非结构拍摄后,建立大场景关键区域局部分析,而人眼要去分析、理解它确实要付出很大代价,承受很大的计算负担。

下面举两个例子。

这是从清华大学中央主楼拍摄的视频,视频中有多个人群,还有过路的汽车,这种情况下人要全部理解这个场景是很困难的一件事。于是现在做机器学习,使用深度学习、强化学习等方法来理解这些人群中他们之间的关系是什么。也就是在大场景、多对象、复杂关系的情况下,靠人的理解已经不行了,因此要做深度学习、强化学习来理解这个场景。

这是习近平总书记在参观实验室时看过的照片。大家可以看到,机器的感知很强,30公里以外10亿像素能感知到一架飞机,但是人眼看不到。如果交给人再去理解和决策势必需要有一个人机交互的场景,机器决策则可以快速决策,但是要防止机器决策中不能适应的东西。看到这个东西以后,当时总书记就说可以用这个设备做低、小、慢目标的检测,这个对北京的安全保障很重要。

所以人工智能做决策,实际上是一个深度融合知识与数据的过程。一般我们就说把感知到的数据要拿到,怎么解读数据形成一个知识,然后变成理解这样的知识,同时通过这样的知识去模型影射到对数据的理解,这是一个反馈过程。只有这样一个反馈过程我们去做决策才能不出错误,才能是一个理想的决策。这是人工智能学习方法的改变,形成知识,通过知识映射到数据中,才有可能得到一个很好的决策。但是要融合数理模型及先验知识,突破这种数据的制约,又要降低对数据的依赖。我们不能太依赖数据,否则这种数据的模型、强化学习的模型很难映射到一个真的模型。这里面要解决一个信息嵌入的问题,依靠数据但不完全依赖于数据,在做的过程中要把数理建模和先验信息结合起来,因此先验信息的选择变得对我们尤为重要。

深度神经网络的模型是不可解释的、脆弱的,现在很多人工智能科学家都在研究深度神经网络的可解释性,这里面复杂场景能不能提升鲁棒性,如果能做到这一点,可以做到在智慧医疗、军事需求、金融分析方面的可靠性,让人类相信机器的决策。也就是要挖掘复杂建模、影射及推理的方法,即三个方面:第一个是进行复杂建模;第二个是关联映射;第三个是通过因果推理弥补复杂环境可解释性的不足。这是大家都在力图解决的,和吴朝晖校长说的一样,有行为、符号和连接主义。通过三个不同的组合,来讨论可解释性在未来什么情况下能够实现。

1997年,深蓝击败人类,它的空间复杂的搜索,通过计算是1.png,通过每秒考虑多达2亿个棋位的搜索能力才能够进行计算,这些都是有限域空间的解。刚才吴校长也讲了2016年的围棋,它的围棋数的搜索空间复杂度约为2.png,尽管它非常复杂,但是都是有限域、有限空间的解,通过策略模型和策略强化的学习方法完全能解。AlphaGo是这么学出来的,AlphaGo Zero是自学出来的,代表两个不同模式和它的进展、进步,也说明我们能够做这件事情。反过来大家想,人工智能能下那么难的围棋,但却存在莫拉维克悖论;机器人能翻跟斗,能做很多复杂的工作,但是让它把一个东西放到有障碍物的车子上时却做不到,就与我们成年人理解不了1岁小孩般的感知和行动能力一样。这就引起我们对深度学习人工智能脆弱性的讨论和不放心,对它的应用坚决不放心。所以如何实现适应性好、泛化性强、可靠性高这种智能模型或者算法,成为人工智能应用的一个方向。

智能机器人在突发情况下很难做好决策。这个案例是行人被自动驾驶汽车撞伤;这个案例英国《独立报》报道说,人工智能错误的学习结果导致军用无人机向自己的军队攻击,自己制造的无人机向自己开火,这是一次实际演习中发生的悲剧性事件。所以突发情况下决策适应性要比生物决策性差的多,现在用人工智能做的很多事,大家对它的放心程度仍旧要打一个大大的问号。

从生物决策机制的价值来看,以前是弱人工智能,也就是图灵测试。它是通过与人类进行游戏的测试智能水平,这里面要求固定规则、封闭环境,我们满足了图灵测试,但是没有办法满足强认知智能,一个莫拉维克悖论就说明满足不了。所以,我们要从脑与认知的角度、连接主义的角度来考虑,要开展自由规则、开放环境的研究。自由规则就是规则自己来定,开放环境没有说解的个数是能让你算出来的,因此这里面讨论新算法、新算力、新测试,就是图灵测试也要进行新的升级。

智能决策如果从深度学习角度来看它有很大的不足,如鲁棒性、适应性、可解释性,因此我们讨论用脑机理的启发来做决策,就是如何感知这个世界,如何理解这个世界,如何做出决策,通过脑机理讨论这样的工作才有望解决这些问题。

在感知自然世界时,机器感知的能力已经超越了人类。比如鹰眼1公里分辨率能够到10厘米精度,完全超越人类。感知现在是发展的一个重头戏,也是人工智能的一个重头戏。脑启发的分级协作感知技术及装备已经突破人类感知的极限,脑启发的分级协作光场感知的新原理怎么应用于学习,怎么去做新一代脑启发的决策,这是我们一个最重要的工作。最近公布了一个具有半球式纳米线阵列视网膜的仿真眼,帮助残疾人唤醒光明,而且仿真眼的感光器密度高达微信图片_20210830172805.png平方厘米,超过人眼的感知能力,这是现在最新的一个研究成果。

感知手段很强,脑启发的智能学习算法也应该发展的很强。1958年到现在已经用到脑认知的部分机理,开创了不同的人工智能算法,包括卷积网络、类脑强化学习模型和胶囊网络都是来自于脑认知一部分的机理,已经开展了很多研究。2016年美国IARPA项目由三个团队研究一个立方毫米的脑皮层10万个神经元,要找到它们的所有连接,主要讨论机器学习模型和人脑神经模型怎样对应,如果对应成功,感知力度则很强,从脑科学到人工智能算法就有望产生非常大的突破,超过现在深度网络结构。脑启发的深度学习,现在用一个国际上新的成果,由秀丽隐杆线虫启发,19个神经元就可以实现自动驾驶。这也说明只要单独一个生物体,它都具备通用智能的可能性。比如,小鼠一个神经元,果蝇几百个神经元,它们都具备自己通用智能的特点,所以要通过生物智能到机器学习拿出新的方案和手段,智能的决策方式就会发生变化。决策是认知的窗口,是大脑的核心功能之一。

国际神经科学学会指出,决策是神经科学下一个50年解决的重要问题之一。在这里神经科学在决策领域开展了很多的研究,包括脑决策研究。脑是生物的决策中心,脑科学将变革智能决策的发展方向,下面介绍脑决策研究国际的布局。

脑决策是脑感知、脑认知后面最重要的一个途径,是一个逆向的研究,从脑决策开始研究讨论脑的机器学习是什么?感知应该怎么做?有的是自下而上的研究,有的是自上而下的研究,国际上有一个IRPAR组织,专门研究脑决策。人工智能决策需要脑决策研究的支持,大规模的协作在多个研究领域有成功经验。2017年9月,国际上成立了一个国际脑实验室(IBL)专门做脑决策研究,愿景是在神经元水平上建立复杂行为的统一决策全脑理论,目标是用标准实验探索相同的生物行为来揭示决策的神经基础。生命科学基础现在是实验科学,还到不了数理科学。IBL分布在世界上的很多地方,有六个国家已经开展决策机制的研究,我国也开展了这方面的研究,现在也在布局,探索模式动物行为来揭示决策的神经机制。

1. 制定标准化的实验范式,实验的动物、模型全部是开放的。

2. 实现神经活动的多种记录方法,一种是脑机的交互;还有一种是全脑的神经元成像。决策过程的神经机制不明确,可能是因为涉及多脑区的协同工作,因此必须要做全脑神经的成像。以前是细胞级到不了全脑级,全脑级到不了细胞级;接下来做脑科学研究,现在止步于纳米尺度的光学成像。但是看到全脑是要花代价的,IBL就缺少这一能力。揭示神经环路的活动规律,依赖活体的全脑成像,这是一个很重要的工作。

清华大学做了一个全脑最大尺度的RUSH系统,它的分辨率、视场大小、成像帧率和数据通量综合指标国际领先,能够看到全脑神经环路,这个工作如果用到脑决策研究上,将会大有用武之地。最近我们又研究了一款光学仪器(叫做扫描光场显微镜),长时程观测神经系统、肿瘤转移、免疫系统的仪器,这个仪器今年5月在线发表在CELL上,也将用于IBL的研究。扫描光场显微镜是全球视场最大、数据通量最高的光学显微镜,另外长时程哺乳动物高速亚细胞分辨率的三维观测,这两个都将成为国际脑决策的重要利器。

智能决策脑智能的启发,如同人类在脑中的计算一样,一定要有记忆。记忆是生物智能最重要的基础,只要有了记忆我们才能够有知识贯通、数据融合,才能够体现更好决策。由于缺失记忆神经网络难以执行复杂决策,我们又调研了国际上生命科学关于记忆一系列的成果。大家可以看到,从1904年记忆痕迹假说,一直到2019年记忆尖波涟漪作用,整个记忆体在生命科学中的发展、机理、方向,通过这些记忆也能够帮助我们做脑认知的启发和脑决策的基础。这是我们为了研究脑启发的认知决策,通过建立生物机制的记忆环路和基本的物理平衡到新型决策的模型,做出的一个新框架。

所以,现在做脑认知启发,最重要的是体现全脑、高分辨率观测和宏观观测与微观观测相融合做多模观测,进行数据融合,探讨脑启发智能理论与计算的硬件。人机交互是脑认知启发智能决策的一个重要方向,是人机交互实验,“人”和“机”双向决策能力的一个强化,这是希望能够发展的一个重要方向。

多个智能决策主体实验宏大,复杂场景协同的智能决策(包括协同无人系统、智能组)是脑认知启发智能决策一个重要方向,智能决策深度赋能国家的战略需求,对我们国民经济主战场或者国家重大需求,包括走在国际前沿和人类生命健康都具有重要的意义。

总之,感知与学习也就是增强的感知手段,变革的学习方法到脑决策的机理也就是揭示神经机理如何记忆机制,我们要解决的开放性问题是,第一更全面的精确感知环境;第二更完备的可解释脑认知的学习算法;第三生物决策脑机理的机理是什么;第四人类机器、环境交互共融,包括虚拟交互也是一个很重要的方向。

(本报告根据速记整理)

CAAI原创 丨 作者戴琼海院士

未经授权严禁转载及翻译

如需转载合作请向学会或本人申请

转发请注明转自中国人工智能学会