编译 | 陈彩娴近日,有一篇发表在arXiv的论文“Deep Learning and the Global Workspace Theory”提出了一个大胆的猜想(或理论)。两位作者认为,当下的深度学习已经可以基于一个意识模型,即“全局工作空间理论”(GWT),将处理不同模态转换的神经网络即功能模块,结合为一个系统,从而迈向实现通用人工智能的下一个阶段。总结成公式就是:GWT(深度学习)→通用人工智能。
随着深度学习的不断发展,人工智能在许多感知、理解、语言与认知任务中已接近人类。然而,我们对开发基于大脑的认知架构的需求也在不断增长。全局工作空间理论(Global Workspace Theory)指的是一个将专业模块网络中的信息整合和分发,以创建更高级的认知和意识形式的大规模系统。作者认为,现在正是使用深度学习技术实现全局工作空间理论的时机。因此,他们基于多个隐空间(Latent Space:针对不同任务,在不同的感知输入和/或模态上训练的神经网络)之间的无监督神经翻译提出了一个路线图,以创建一个独特的非模态全局隐工作空间(Amodal Global Latent Workspace)。2
大脑与机器中的认知神经架构
在机器学习的体系中,深度学习的特征是使用在输入与输出层之间具有多个“隐藏”层的人工神经网络。人工智能的许多最新突破,都要归功于深度学习。神经科学家也指出了大脑与深度人工神经网络之间的相似性与差异性。深度学习的出现,使计算机能够有效执行此前无法实现的感知与认知功能。在这篇论文中,作者等人希望将深度学习扩展至全局工作空间理论(GWT)。GWT是感知、执行功能甚至意识的基础。GWT是一种意识模型,最初由美国心理学家Bernard J. Baars等人提出,是当代主要的神经科学意识理论之一(图1A)。该理论提议将大脑分为执行不同功能的专用模块,模块与模块之间具有长距离连接。通过注意选择的过程确定输入或任务要求后,专用模块内的信息可以在不同模块之间传播与共享。根据该理论,每一时刻的及时共享信息(即全局工作空间)构成了我们的意识知觉。从功能的角度来看,全局工作空间可以通过协调多个专用模块来解决单个模块的功能所无法解决的问题。