清华大学施路平:双脑驱动的人工通用智能

智源社区 & AI科技评论

作者 | 智源实习生 罗丽

11月1日上午,在第十九届中国计算语言学大会(CCL2020)上,清华大学类脑计算研究中心主任施路平作了题为《面向人工通用智能的类脑计算》的主题报告,从类脑计算研究的原因、内容和方法三方面分析了类脑计算、芯片及系统研究所面临的挑战和可能的解决方法,重点讨论了如何将脑科学和计算机融合,以双脑驱动的类脑计算推动人工通用智能的研究。观看CCL回放,可登录B站关注“智源研究院”。

施路平教授是清华大学类脑计算研究中心主任,光盘国家工程研究中心主任,以及国际光学工程学会(SPIE)会士。他在2013年加入清华大学创建类脑计算研究中心,提出异构融合类脑计算架构,研制了全球首款异构融合类脑计算“天机芯”,构建人工通用智能研究演示平台-自动行驶自行车,相关结果作为《Nature》封面文章被发表,被评为2019年中国十大科技进展。

1

为什么做类脑计算

目前,全球数据量大约每两年翻一番(另外一种摩尔定律),而基于冯诺依曼架构的计算机在大数据信息处理时其能耗、速度和带宽均受到影响;另外,硬件的物理微缩,非结构化数据的处理、数据平均寿命短、数据多样性、关联性,数据存储等都对计算机发展带来挑战。

2017年,图灵奖得主 David A. Patterson 和 John L. Hennessy 在 ACM complication 上发表长文称,未来的计算机体系架构将迎来黄金发展十年。改变计算机体系架构,发展新的计算机架构势在必然。除此之外,人工智能的三次浪潮——神经网络,第五代神经网络计算机以及深度学习,都与“脑”紧密相关,类脑计算源于人工智能技术的发展需求。

目前的人工智能虽得到快速发展,但仍面临着诸多问题,比如,在语音输入时,机器无法判断间隔,无法识别口误和口音,这是因为机器并没有真正理解语言。施路平表示,理解不是一个单独、客观的过程,它与主体有关,与人类自身的知识结构和经历有关。因此,需要突破单一结构的智能研究。

人工智能的发展需要满足以下五个条件:1) 充足的数据,2)确定性的问题,3)完备的知识,4)静态,5)单一的系统。否则,发展人工通用智能将成为人工智能突破的最终解决方案。

研究了图灵和冯诺依曼等人的早期著作和文章后,施路平发现,图灵等人提出的人工智能的愿景,都是发展通用智能。他认为,目前的人工智能具有非常好的发展契机,其原因包括:

1. 随着先进精密仪器的发展,人类对脑的理解越来越多,我们似乎到了一个理解脑的关口。

2. 超级计算机的发展为我们提供了更好的仿真模拟环境。

3. 大数据和云计算提供了一个和脑复杂度近似的世界,两者相互促进,共同发展。

4. 新型纳米器件可以制造出和人脑神经元能耗差不多级别的器件。

与AI技术相比,AGI可以处理不确定性问题,小数据、脏数据和缺失数据,可应用于多维系统,无足够应对的知识以及动态系统。从根本上来讲,AI技术更强调发展的能力,而AGI则更加关注如何把智能有机地融合起来,使一种能力的提升能够帮助提升其他能力。

图1:AI和AGI的比较

图灵奖得主Geoffrey Hinton认为,克服目前人工智能发展局限的关键是,搭建“一个连接计算机科学和生物学的桥梁”,该思想与施路平团队所提出的“双脑融合”的思想一致。

电脑在计算能力、存储速度、寿命等很多方面早已超过人类,而人脑具有感知、自适应、创新、认知等能力,计算机和大脑的基本原理正好相反,在原理上、功能上和形式上可以形成一个优势互补的系统,类脑计算是未来计算机的发展重要的领域。施路平认为,脑科学的研究将会为许多科研工作者带来新的科研启发,“是一个非常重要的金矿”。

图2:脑科学的战略意义

2

类脑计算主要做什么

类脑计算的研究涵盖算法、硬件、芯片和系统等不同层面,是美、英、德等国的重点研究领域。从计算机和互联网发展来看,类脑计算的发展需要芯片、软件工具链、操作系统和应用的协同发展。施路平认为,芯片中的信息如何来承载、存储、计算和利用是类脑芯片的关键,而软件的核心技术问题是软件环境中信息流如何分配、交流、调度和控制。

类脑计算可以表示为两种:Brain-Inspired Computing 和 Brain-Like Computing,前一类是从计算机出发,尽可能借鉴脑科学的基本原理来改变计算机,而另一类是尽可能做到像脑,包括其功能和结构上类脑。从诺贝尔奖和图灵奖获奖者的研究来看,大脑和计算机的研究是分别发展的,而目前的研究需要将两者融合起来发展,形成“双脑驱动”的发展模式。

图3:诺贝尔奖和图灵奖获奖者的研究

2016年,全球出现了三款类脑计算机,包括美国的TrueNorth、德国的BrainScales,以及英国的SpiNNaker。今年2月,清华大学开发设计了中国第一台类脑计算机——天机电子计算机,该研究于人工智能杂志发表。8月,浙江大学发布了一款亿级神经元类脑计算系统。类脑计算的研究目前没有公认的确定方案,是IBM、惠普、英特尔等的重点研究领域。

图4:近年来类脑计算的研究进展

图5:主要的类脑计算芯片

在最近发表于《自然机器智能》杂志上的一篇论文中,来自麻省理工学(MIT)、维也纳技术大学和奥地利科技学院的研究团队设计了一种模仿生物模型的AI系统,该系统基于类似蛲虫等小动物大脑而开发的。

研究团队为神经元和突触开发了新的数学模型,并结合受大脑启发的神经计算原理和可扩展的深度学习架构,为全栈自动驾驶车辆控制系统针对特定任务的分隔间制造了紧凑的神经控制器。研究表明,仅使用少量的人工神经元就能控制车辆。

施路平表示,在脑科学的发展中,类脑的精髓是提供一个“方向感”,指导人类的探索方向。

3

怎么做类脑计算

类脑计算的研究面临着科学挑战、技术挑战等,而其中最难也是最重要的一个挑战是:多学科深度融合。为促进多学科融合发展,清华大学成立了由七个院系组成清华大学内脑计算研究中心,其研究主要分为三个层次:基础科学、核心技术和应用。

图6:清华大学类脑研究架构

清华大学类脑研究主要采用“大脑”和“电脑”双脑驱动的发展战略,以计算机为主体,融合脑原理,从理论、芯片、软件、系统、应用五个方面协同发展,发展方向从一个问题一个解决方案发展到一类问题一个解决方案,并逐渐发展到多类问题一个解决方案,同时和应用紧密结合。

而类脑计算面临的首要问题是,如何在不理解人脑机制的情况下发展类脑计算系统?

施路平认为,即使我们不知道大脑的基本原理,但我们知道每个神经元对外连接数目超过一千,换句话说,是利用空间复杂度,另外,对时间编码可引入时空复杂度。基于此,清华大学提出通用类脑计算框架,通过增加类脑芯片,以实现计算机架构处理结构化信息,类脑芯片处理非结构化信息的任务。这样,即使不了解大脑结构,也可以创造出一个新的计算架架构。

图7:清华大学通用类脑计算架构

新的计算机架构考虑了时空复杂性。计算机驱动的ANN技术能够很好地反映空间复杂度,像脑一样工作的SNN更多反映了时空复杂度,将脑科学驱动和计算机方法结合起来,是ANN和SNN融合的范例。

图8:通用类脑计算的神经网络模型

基于以上研究,清华大学设计构造了全球首款异构融合天机类脑芯片,用3%的代价实现了超过TrueNorth的各项特性,包括密度提高了20%,速度提高了10倍,带宽扩展了100倍,精度可调,扩展性和灵活性更好等。该研究于去年8月在《Nature》上作为封面被发表。

图灵架构是整个计算机的基石,清华大学研究团队提出的类脑计算完备性,用通用近似的思想取代了完备计算的概念,约束的放宽更有利于发展新的计算架构。刚刚过去的10月,清华大学研究团队在《Nature》上发表的文章,重点介绍了类脑计算的完备性、系统的层次性和一个软件工具链。

图9:类脑计算完备性

实际上,这是一个人工通用智能研究平台,研究团队希望用这样的一个系统和环境进行交互,当环境变化的时候,观察系统的变化以及所遵循的基本原理,提出一个环境交互和迭代进化的发展思路,通过利用该系统,构建了一个全网络可扩展的AGI演示平台。

图10:异构全网络可扩展AGI研究演示平台

今年2月,清华大学研究团队发布了国内首台类脑计算机的样机。该样机是一个异构融合的架构,通过在CPU和GPU旁增加内脑计算芯片,由主机处理结构化信息,类脑计算芯片承担异构融合系统,同时来支撑ANN和SNN,以及它们之间异构的建模。

图11:国内首台类脑计算机的样机

目前,清华大学正在研究基于类脑计算的云脑。基于现有服务器搭建云脑,该云脑将具有独立数据库、知识图谱和软件工具链,在解决五类基本问题后逐步发展。

图12:类脑计算云脑

最后,施路平表示,目前计算机和人工智能的发展所面临的挑战需要我们发展类脑计算,而双脑融合驱动是类脑计算发展的关键,类脑计算需要理论、芯片、软件、系统和应用协同发展,人工通用智能面向各行各业,双脑驱动的类脑计算可以赋能各行各业。

(0)

相关推荐