人工智能科学对哲学最为宽容
人工智能最大的特点就是它连自己是什么都不知道。
——徐英瑾,复旦大学哲学学院教授
关于人工智能哲学,在我本人所撰写的著作中,最重要的是2013年由人民出版社出版的《心智、语言和机器——维特根斯坦哲学与人工智能科学的对话》。我关心的主要问题是:如何站在哲学的角度,给出一个合理的、对于认知活动的高层次描述?在我看来,人工智能哲学与许多研究认知科学的兄弟学科分享着同样的研究对象,只是话语体系彼此有差异罢了。
哲学研究的三大基本任务
哲学究竟能够为人工智能做什么?在回答这个问题之前,我们需要先来看看哲学研究的基本任务是什么。
第一大任务是:思考大问题,澄清基本概念。这里所说的“大问题”,即极具基础意义的问题。比如,数学哲学家追问数学家“数”的本性是什么,物理学哲学家追问物理学家“物质”“能量”的本性是什么,生物学哲学家追问生物学家“生命”的本性是什么。与哲学家相比,一般的自然科学家往往只是在自己的研究中预设了相关问题的答案,却很少系统地反思这些答案的合法性。搞科学研究的人偶尔也会想大问题,比如他们会在做实验的间歇一边休息一边想,但想了5分钟后他们会继续做实验,而那个大问题本身却被抛诸脑后了。但是对于哲学家来说,这些大问题是需要想一辈子的。举例来说,数学家可能会考虑这样一个大问题:数量化的刻画究竟是存在于柏拉图世界中的某种理想化的存在者,还是我们人脑想出来的用于刻画物理世界的一种工具机制呢?可能一部分数学家偶尔会想到这个问题,但他们不会像数学哲学家那样持续地
思考这个问题。生物学家或许也会想:怎样定义“新陈代谢”呢?电子游戏里刻画的人工生命,是不是也具备生命的特征呢?这些生命科学家偶尔想想的问题,却是生物学哲学家的安身立命之所在。
第二大任务是:在不同学科的研究成果之间寻找汇通点,而不受某一具体学科视野的局限。比如,科学哲学家往往喜欢追问这样的问题:如何汇通生物学研究的成果和化学研究的成果?是不是所有的生物现象都可以还原为更为微观的化学现象?而所有的化学现象,是否又可被还原为更为微观的微观物理学现象?或者是否存在一种不同于“还原论”的汇通方式?相比较而言,职业科学家对于这些跨学科问题虽或偶有反思,但往往也不够系统和深入。当然,我个人认为这是理想的哲学研究应该具备的状态。举例来说,亚里士多德到底是什么学术身份?一句话难以说清楚。亚里士多德的第一身份是马其顿王国的宫廷御医,他是懂医学的;而亚里士多德同时也是一位修辞学家、语言学家,著有《论灵魂》《工具论》等作品。当时的科研条件非常原始,他却能拥有如此多的成就,很了不起。亚里士多德的所有想法在其著作《形而上学》和《物理学》中有统一的根苗,换言之,他用一个统一的话术将这些想法连缀为一体,分化成每一个具体学科之后再用《形而上学》与《物理学》所提供的某种话术来托底。这就是亚里士多德所做的工作。现在的哲学界很少有像亚里士多德这样的人,因为现代社会知识爆炸,人类的寿命也没怎么增长,哲学家又没有脑机接口,我们还是要靠原始脑工作。所以能够做两三个学科领域之
间的汇通就很不容易了。不过,学科汇通的想法在哲学领域一直是存在的。
第三大任务是:重视论证和辩护,相对轻视证据的约束。评价哲学工作优劣的标准,主要是看一个哲学论证本身的合理性和常识可接受性,一般不用受到严格的科学证据检测。对于科学而言,合理的辩护程序却必须和实打实的经验证据相互匹配,否则得出的结论就无法被科学共同体接受。这种差异固然使得哲学工作的自由度要远大于科学工作的自由度,但另一方面也使得哲学争议往往不如科学争议那样,容易获得学科共同体内部的一致意见。
就目前的情况而言,哲学和科学之间的确不太容易对话。即使我做的是科学哲学研究,所做的研究也与科学不同。科学家问我:你们科学哲学家做实验吗?我说我不做。他们又问:那你们的研究方式是什么?我说:看你们做实验。打个比方来说,我是一个剧评家。你问我:你拍剧吗?我说:我不拍剧,我只做剧评。或者说,我不酿酒,但我品酒,而品酒也是一个行当。哲学不做实验,但是要对他人的实验进行解释,这个时候就需要重构,要有一套话术。比如,一些神经科学家想做实验来证明世界上没有自由意志,一些哲学家被他们说服了,另一些哲学家则认为这些实验涉及的“自由意志”与哲学家所说的“自由意志”不是一回事。显然,如何把这个问题说清楚就涉及了话术重构的艺术。也正因为哲学家往往对证据采取重新解释的态度,所以哲学家的工作比较自由、灵活,而此类研究所消耗的社会财富也比较少。
所以我个人认为,真正的哲学家应当像《论语》中所说的那样,“君子不器”,同时对敌对的哲学观点保持一种绅士风度。
为何科学训练排斥哲学训练?
对于哲学训练,很多搞科研的人都有所排斥。因为哲学家想法比较多,喜欢另辟蹊径,总觉得某件事有另外一种做法。而对处于学徒期的科学入门者而言,这样的“想入非非”是要被师父责骂的。毋宁说,科学的初学者需要对范式加以服从,如果他像哲学家一样一天到晚大开脑洞,或许不利于对科学知识的掌握。
为什么这样说呢?
第一,对处于学徒期的科学入门者而言,学会服从既定的研究范式是其第一要务,对这些范式的“哲学式怀疑”则会导致其无法入门;
第二,严格的一级、二级、三级学科分类导致学生们忙于如何熟悉特定领域内的研究规范,而无暇开阔视野、浮想联翩;
第三,对于权威科学模式的服从,在一定程度上压制了那些离经叛道的“异说”的话语权(与之相比,哲学界内部对于“异说”的宽容度会高一些——只要你的论证符合一般的论证规范,任何古怪的观点都可以自由提出),实际上也压抑了学术创新的可能性。
人工智能需要哲学吗?
人工智能需要哲学吗?我觉得非常需要。人工智能最大的特点就是:关于这门学科自己的定位,很多专业人士都不是很清楚,比如人工智能到底是工科还是理科呢?连这个都不知道,难道还不需要哲学帮你开脑洞吗?
20世纪50年代,艾伦·图灵(Alan Turing)在英国哲学杂志《心智》(Mind)上发表了论文《计算机器与智能》(Computing Machinery and Intelligence)。他在文中提出了著名的“图灵测试”(Turing Test)思想。此文涉及了对“何为智能”这个大问题的追问,并试图通过一种行为主义的心智理论,最终消弭心理学研究和机器程序设计之间的界限,同时还对各种敌对意见提供了丰富的反驳想法。这些特征使得这篇论文不仅成了AI科学的先声,也成了哲学史上的经典之作。
然而,人工智能从某种意义上说还能上溯到柏拉图。现在不少人都说要研究知识图谱,还有人说深度学习的技术不够,要和知识图谱结合在一起才行。而知识图谱的鼻祖就是柏拉图,他在《智者》中讨论了“智者”的定义(这里的“智者”就是今天律师的祖先)。在相关的定义过程中,柏拉图发明了二分法,比如以下提问所涉及的问题分叉术:智者是不是人?要么是,要么不是,有两种可能。然后再问:若是人,是怎样的人?是有学问的人,还是有没学问的人?于是又有了两种可能。再继续二分下去,最后一步是分析到“智者”。今天,计算机研究中流程图的构建,学习的正是柏拉图的思路。
计算机研究中流程图的构建,学习的正是柏拉图的思路。
说完了古人,我们还得说说现代人。1956年发生了一件大事,这和我们今天做的事情很像。那一年的夏天,在美国达特茅斯学院(Dartmouth College),一群志同道合的学者驱车赴会,畅谈如何利用刚刚问世不久的计算机来实现人类智能的问题。洛克菲勒基金会则为这次会议提供了7 500美元的资助(这些美元在当年的购买力可非今日可比的)。会议筹备期间,约翰·麦卡锡(John McCarthy)建议学界以后就用AI一词来代表这个新兴的学术领域,与会者则附议。值得一提的是,在参加此次会议的学者中,有4个人后来获得了计算机领域的最高学术奖励——图灵奖。这4个人是马文·明斯基
( Marvin Minsky,1969年获奖)、艾伦·纽厄尔(Allen Newell,1975年获奖)、赫伯特·西蒙(1975年获奖),还有麦卡锡本人(1971年获奖)。从这个意义上说,1956年的达特茅斯会议无疑是一次名副其实的“群英会”。参加达特茅斯会议的人中虽然没有职业哲学家,但这次会议的哲学色彩依然浓厚。首先,与会者都喜欢讨论一个大问题,即如何在人类智能水平上实现机器智能(而不是如何用某个特定的算法解决某个具体问题)。其次,与会者都喜欢讨论不同的子课题之间的关联,追求一个统一的解决方案(这些子课题包括自然语言处理、人工神经元网络、计算理论、机器的创造性等)。应当看到的是,不同的学术见解在这次会议上自由碰撞,体现了高度的学术宽容度,这就是所谓的“哲学化”的研究特质的一种体现。让人欣慰的是,这些哲学化特质在美国日后的AI研究中也得到了保留。
上文中提到的这些人虽然不能算严格意义上的哲学家,但他们多少有一些哲学头脑。赫伯特·西蒙是图灵奖和诺贝尔经济学奖的双料获得者。就连来不及参加此会的计算机科学大师冯·诺伊曼,其实也是如假包换的跨学科人才。他研究计算机、数学,还研究原子弹。在曼哈顿工程的研究过程中,他的跨学科能力得到了发挥:当化学家、物理学家、数学家就具体科学问题吵得鸡同鸭讲的时候,冯·诺伊曼可以把不同的学科的话术翻译给不同的人听,大家听了都深感佩服。
为何AI科学对哲学的宽容度相对较高?
首先要指出的是,关于AI的实质是什么、“智能”的实质是什么,即使在AI的圈子里,大家最初的认知也有很大差异。比如,如果你认为智能的实质是具体的问题求解能力,那么你就会为你心目中的智能机器规划好不同的问题求解路径(这就是主流符号AI学界所做的),而每一条路径又对应着不同的问题。如果智能的实质是一个具体的问题求解能力,你就会像一个传统的符号AI研究者一样,把它做成一个规则系统推导出来。这就是GPS研究计划。这里说的GPS与导航无关,而是指“通用问题求解器”(general problem solver)。如果你认为实现智能的实质是尽量模拟自然智能体的生物学硬件,你就会努力钻研人脑的结构,并用某种数学模型去重建一个简化的神经元网络(这就是联结主义者所做的)。
如果你认为智能的实质仅仅在于智能体在行为层面上和人类行为相似,那么你就会用尽一切办法来填满你理想中智能机器的“心智黑箱”(无论是在其中预装一个巨型知识库,还是使其和互联网接驳,以便随时更新自己的知识——只要管用就行)。由此看来,正是因为自身研究对象的不确定性,AI研究者在哲学层面上对于“智能”的不同理解才会在技术实施的层面上产生如此大的影响。很明显,这种学科内部的基本分歧在相对成熟的自然科学领域是比较罕见的。
如果你认为智能的实质仅仅在于智能体在行为层面上和人类行为相似,那么你就会用尽一切办法来填满你理想中智能机器的“心智黑箱”。
其次,AI科学自身的研究手段缺乏删除不同理论假设的决定性判决力,这就在很大程度上为哲学思辨的展开预留了空间。AI和物理学是不一样的。物理学历史上有一个很重要的实验叫“迈克尔逊-莫雷实验”,实验结果是没有“以太风”,所以就没有“以太”,由此颠覆了此前的物理学的认知。而人工智能领域是没有这种判决性实验的。与物理学家不同,AI科学家一般不做实验(experiment),而只做试验(test)。就这一点而言,这门学科似乎更像是“工科”(engineering),而非“理科”(science)。具体来说,判断一个AI系统好不好,标准就在于检验其是否达到了设计者预定的设计目标,或者是否比同类产品的表现更好。但这些标准自身无疑存在着很大的弹性。另外,即使暂时没有达到这些标准,这一点也不能够证明系统设计原理的失误,因为设计者完全可能会根据某种哲学理由而相信,基于同样设计原理的改良产品一定能有更好的表现。从这个角度看,对于特定的AI进路来说,经验证据的辩护功效更容易得到形而上的哲学辩护力的抵消。
再次,关于人类心智结构的猜测,哲学史上已经积累了大量的既有成果,这在一定程度上便构成了AI研究的智库。与之相比,虽然心理学和神经科学研究也能在一定程度上扮演这种智库的角色,但它们的抽象程度不如哲学,解释对象又主要是人脑的生理机能,因此反而不太具备某种横跨心灵和机器的普适性。
最后,与成熟科学的研究状况不同,目前AI学界依然处在群雄争霸的阶段,各种研究进路彼此竞争,很难说谁已经获得了绝对的优势。这在一定程度上又为哲学家提供了在其中表演的舞台。
从以上的分析来看,人工智能有点像人文学科,它有一个话术构建的问题。也就是说,即使现在这个技术路径做得不好,也不要怕,再过20年的时间,说不定该技术路径能够赢得未来。这个特征就有点像哲学了。哲学问题讨论了2 000多年,也没有哪个哲学流派说自己可以一统江湖。所以,人工智能专家应当与哲学家惺惺相惜。
下面我想介绍一位与AI有关的哲学家,他的名字叫休伯特·德雷福斯(Hubert L. Dreyfus),是美国加州大学伯克利分校的哲学教授,美国最优秀的现象学家之一,在海德格尔哲学、福柯哲学、梅洛-庞蒂哲学研究方面很有造诣。让人惊讶的是,以欧陆人本主义哲学为背景的德雷福斯,却创作出AI哲学领域最富争议的一部著作《计算机不能做什么》(WhatComputers Still Can’t Do)。这部著作也使德雷福斯在AI领域的社会影响超越了他的学术本行。那么,他为何要转行去写一本关于AI的哲学书呢?根据德雷福斯自己和其他记者的说法,这和他在麻省理工学院教学时受到的一些刺激相关。在1962年,就有学生明白地告诉他,哲学家关于人性的思辨已经过时了,因为根据马文·明斯基等AI科学家的说法,在不久后就可以用工程学的方法实现人类智能的方方面面。德雷福斯觉得这话近乎天方夜谭,但为了做到公允,他还是在不久后去了美国的顶级民间智库兰德公司(Rand Corporation)进行调研——因为恰恰在那个时候,西蒙、纽厄尔和克里夫·肖(Cliff Shaw)等AI界的顶级大腕也正在那里从事研究。经过一段时间的分析,德雷福斯最后确定自己对当时的AI规划的怀疑是有根据的,并在1965年扔出了他掷向主流AI界的第一块“板砖”—《人工智能与炼金术》( Artificial Intelligence and Alchemy)。德雷福斯对于主流AI进路有很多批评意见,其中比较有意思的一条是:真实的思维是不能够被明述的程序所穷尽的。比如说你在打网球的时候,是不是得先看到球,然后计算其入球的角度,计算你的球拍接球的角度以及速度,最后才能够接到球?显然不是这样的,因为由上述计算所带来的运算负荷是很高的,我们人类的大脑未必“消费得起”。实际上,熟练的网球手仅仅是凭借某种前符号规则的直觉领悟来把握到接球的正确时机的。而对于这些直觉本身,传统的程序设计方案往往是无能为力的。
不过,德雷福斯本人并不认为所有的AI进路都无力解决上述问题。换言之,一些更为新颖的AI进路或许能够对如何把握这些前符号的直觉提供方案。他认为,这些进路必须更为忠实地反映身体的结构,以及身体和环境之间的互动关系,而不仅仅是在符号的内部世界中打转。这个想法后来在AI专家罗德尼·布鲁克斯(Rodney Brooks)的理论建树中被发扬光大。根据布鲁克斯的观点,新潮AI是建立在物理根据假设(physical grounding hypothesis)之上的。该假设是指为了建立一个足够智能的系统,我们需要将其表征的根据奠定在物理世界之中。关于这一工作路径的经验表明,一旦我们做出了这个承诺,那种对于传统符号表征的要求就会马上变得黯淡无光。这里的核心观点在于,世界就是认知系统所能拥有的最好的模型。世界一直能够及时更新自身。它总是包含需要被了解的一些细节。这里的诀窍就是,要让系统以恰当的方式感知世界,做到这一点往往就足够了。为了建立体现此假设的模型,我们需要让系统通过一系列感知器和执行器与世界相联系。而可被打印的字符输入或输出将不再引起我们的兴趣,因为它们在物理世界中缺乏根据。