人工智能哲学15讲
读完本文约需50分钟
书友你好,我是徐英瑾,很高兴又带着大家来到了非凡精读馆。
今天向大家解读的这本书是由我本人撰写的《人工智能哲学十五讲》,是由北京大学出版社最新出版的。
大家可能会问,我一个搞哲学的人为什么对人工智能感兴趣呢?这人工智能哲学又是怎么一回事呢?这实际上是因为我看了一部电影,这部电影就是斯皮尔伯格导演的《人工智能》。这部电影讲述的是有一对夫妻的孩子“大卫”离世了,这对夫妻特别难过,于是就到公司里面去订做了一个长得跟自己的孩子一模一样的机器人当孩子来养,给“机器人孩子”也取名叫“大卫”。“机器人大卫”具有极高的智能,它具有情商和人类正常的情感。但因为“机器人大卫”不是正常的人类,人类社会总是排斥它,所以它非常难受,它就不停地追求人类对它的承认。
这部电影非常催泪感人,但这部电影所体现出的一个哲学问题是什么呢?这个哲学问题就是我们真的能做出这么牛的人工智能机器人吗?像大卫一样不但语言说得很好,而且能够懂人类的感情,只要不把它拆开看它内部的体系,你根本就不知道它是个机器人。康德曾问过一个很深的问题——人是什么?他问这个问题的时候还没有计算机,没有人工智能,如果康德也看了这部电影,会不会重新思考“人是什么”这个问题的哲学答案呢。这个问题就引发了我思考:这样的一个有情绪、有情感、有优越智能的机器人是“人”吗,人和机器之间有界限吗?
所以大概是从2006、2007年开始,我就开始系统地阅读人工智能哲学方面的书了。那么我现在所介绍的《人工智能哲学十五讲》这本书,就是我多年思考的一个思想小结。
这本书它要讨论的问题我可以归结为三个:
第一,我会从宏观上告诉大家哲学和人工智能之间的密切关系;
第二点,我想告诉大家,目前想要依靠深度学习技术进入通用人工智能领域还是有很大局限的,我们要指望深度学习变成科幻小说、科幻电影里面那种通用人工智能,恐怕是缘木求鱼;
第三点,我要对通用人工智能到底是什么,进行进一步地勾勒,最后我要搬出我自己的一个正面的主张,就是小数据主义是未来通用人工智能发展的必由之路,而不是大数据主义。
一、人工智能和哲学的关系
我们先来看第一个环节,人工智能和哲学是怎么攀上亲的。
要让人工智能和哲学攀亲,大家就要想明白哲学到底是干什么的。实际上,很多不学哲学的朋友可能对我们搞哲学的人有些误解,以为我们搞哲学的人和现实生活之间差距非常遥远,不会关心现实生活中的问题。其实这种看法是有一定偏颇的,一个搞哲学的人是否和现实生活有所关联,主要取决于他到底研究的是哲学的哪一个门类、哪一个流派。我主要是在科学哲学领域里面工作,在科学哲学领域里面有一门叫认知科学哲学,专门研究与认知、智能、计算有关的一些哲学问题,因此我在这样的一个哲学分支下面研究人工智能哲学可谓是名正言顺。
人工智能作为计算机学科的一个分支,它的一个特点是既是理科又是工科,而且它和哲学还颇有关联。它为什么和哲学颇有关联呢?人工智能诞生的元年是在遥远的1956年,使得人工智能得以诞生的会议叫达特茅斯会议,在那个会上有很多后来拿了图灵奖的大牛一起讨论——如何以现在已有的很粗糙的计算机工具为编程工具,来实现人类智能的方方面面。开了这个会以后,这些大牛觉得他们要做的事情特别特别酷,所以就需要有一个新的名号。这时候有一个计算机专家叫约翰·麦卡锡,他就说我发明一个词叫“人工智能”,诸位说这词真是很好,于是这个词就进入了新闻报道,然后进入了正式的学科编制,从此以后人工智能就得到正名了。
但我为什么说这人工智能从一诞生的时候就带有哲学的面相呢?这是因为最早搞人工智能的时候大家都不知道人工智能是什么,于是就必须要从哲学方面去借脑,让一种至少是半哲学性质的思维来解释到底什么叫智能。阿兰·图灵先生1950年的时候,在至今仍然是世界上最重要的哲学杂志之一的英国的哲学杂志《心灵》上发表了一篇论文,他在这篇论文里面提出了一个观点,即如果我们要了解一台经过特殊编程的机器是否具有真正意义上的人类智能,我们是不能够使用别的方法的,唯一的办法就是行为主义的方法,通过行为主义的方法来了解它是否有智能。这个方法最后落实为“图灵测验”(“图灵测验”认为判断一台人造机器是否具有人类智能的充分条件,就是看其言语行为能够成功地模拟人类的言语行为)。
那么行为主义是什么意思呢?行为主义本身就是一个哲学观念,它的意思就是说如果我要了解和我对面谈话的一个朋友的心灵状态是什么,我需要通过他的言语、行为和表情这样的一些可以被物理观测到的迹象来反推他的心灵是什么,否则我又不是铁扇公主肚子里的孙悟空,怎么能知道这个朋友在想什么呢。有一帮行为主义者提出更疯狂的观点,就是他人的心理可能是不存在的,这种观点就叫行为主义了。图灵就用这种想法来造一个计算机,他说不管这个计算机有没有心灵,只要它表现的语言、行为好像是一个有心灵的物件,就把它当成是有心灵的,这样它就好像是有智能的了。图灵在这里就是向哲学里面的行为主义流派偷师了。通过这个例子多多少少可以看得出,我们很难离开哲学来对智能是什么进行思考。
当然哲学也不能够做无米之炊,它会借鉴各个学科的关于智能的定义,从中再找出一些更抽象的模板。但是这种抽象化的过程本身要诉诸于哲学理论资源,这些理论资源不是任何一门现成的实证科学可以提供,哲学的威力就体现在这里,也说明哲学在人工智能发展的一开始就起到了助力作用。
我稍微再来总结一下就人工智能为什么需要哲学呢?它根本的一个道理就在于人工智能这门学科它本身的特性就非常含混,是工科和理科是说不清楚;同时,人工智能发展的早期就有很多人工智能的大佬主动积极的从哲学领域借脑,来促进人工智能学科的发展。
二、主流人工智能与通用人工智能
那我要讲下面一个问题了,即现在的主流人工智能它为什么不能够变成通用人工智能?
01 深度学习
很多对计算机不了解的朋友一听现在的计算机能深度学习,就认为计算机很牛、人工智能很牛。因为他想着自己现在对一个文本的了解都是浅度的,很多问题都看不懂,而计算机能够深度学习了就意味着计算机比人更加牛掰,更加厉害,这就是一个很大的误解了。因为中文把这个“度”加上去了以后,使得你产生了误解了。请注意,深度学习之深度绝对不是指理解的深度,它是指整个计算机程序的层次结构比较多。
二十一世纪以后几件事情促进了人工智能的发展。一方面互联网提供了大量的容易获得的便宜数据可以供训练之用;另外一方面芯片工业日行千里,电脑内存等各方面的指标都在迅速上升。这最后就导致了我们可以用过去的那种玩了很多年的技术,搭出一个更复杂的模型。就类似于乐高玩具,每一个小的部件都是一样的,但是你如果有一笔钱同时雇了十个搭乐高玩具的高手帮你搭,那当然要比你原来又快又好,但这只是证明你有钱了,不是证明搭乐高玩具的原始技术得到了革新。这就是今天的深度学习的真相——深度学习只是一个深层的人工神经元网络结构,是某种能力的叠加使用而非发生了实质的创新,所以它不是我们所认为的那种对某件事物理解的程度比较深。讲到这里,我们就要讲为什么把深度学习的技术拿出来以后不能够变成通用人工智能呢?这就是哲学家要和你讲的道理了。
02 通用人工智能与专用人工智能
接下来我解释一下什么叫通用人工智能?就是能做各种各样事情的人工智能叫通用人工智能。人类的特点是什么?就是能通用。比如我经常被问:你们哲学系毕业干嘛呀?我说实际上做哲学老师或者做政治老师只是个很小的出口,因为人数有限,据我所知像我们复旦大学哲学学院的毕业生好像在各个领域都有吧,在商界的、从军的、或者是政界的,我能想到的人类职业好像他们都有覆盖。这就是什么呢?因为人是通用的,人进了一个领域后可以学。很多学数学的朋友、学物理的朋友最后也没搞数学、物理,而是跑到投资公司去做金融了,这也反过来证明通用智能到底是什么东西。
我们未来要从事的所有的工作,稍微有点技术含量的都是通用智能,不是局限于一个领域里面的智能,而是各方面的智能都要具备。最简单的一个例子就是我们都知道阿尔法狗打败了李世石和柯洁,我们人类都觉得阿尔法狗很牛,不过阿尔法狗自己是不觉得牛的,不要看有人给阿尔法狗围棋段位的称号,但阿尔法狗根本就不知道它自己得到了围棋段位的称号。如果你去采访阿尔法狗,让它谈一谈打败柯洁、李世石的感受,它也谈不出半句话来。但李世石、柯洁都可以用韩语也好、中文也罢向记者去讨论他被机器打败的感受,因为他们是通用智能,通用智能当然是除了下棋还能够唠嗑。
我们现在要讲到这样的一个通用智能以后,我们就要知道整个通用智能的实现路径是什么。现有的通用智能是靠我们自己的人脑实现的,我个人认为现在要复刻整个大脑是很困难的。有一个行当中文叫类脑人工智能,就是要从大脑当中获得一些启发,然后来建造一个模型。但是你不要误以为真的能复刻大脑,大脑是复刻不了的。我女儿6岁,虽然我读的书比她多,但我下中国象棋下不过她,这就足以证明真正的智能就意味着可以很快地上手一件新事,而不需要对它进行全面的知识清理、知识重编,这样的系统才是有用的。但是你想想看,现在你要把阿尔法狗现有的这个系统不是另起炉灶,而是稍加点拨以最快的速度让它下会一种完全不同的棋,你觉得这现实吗?这不现实。要做好到这件事情需要后面的谷歌的工程师经过数月之劳动,这个人力成本就相当相当高,当然还要算上时间成本了。
有人就说了,我们只要发展现在的深度学习,就有可能把它变成通用人工智能了,你不用着急。现在小荷才露尖尖角,要给新事物一点时间。这话不对,我说首先这玩意不是新事物了,60年代就有了;第二小荷才露尖尖角,至少你要看出一点趋势吧,一点趋势都没有那肯定是不行的。
前面我讲过深度学习是从人工神经元网络来的,人工神经元网络的哲学祖宗是经验论,经验论的哲学观点是人学的很多东西是从社会环境里面来的,这是经验论的观点。但是经验论很难解决的一个问题现在也暴露出来了,就是人为什么在知道很少的时候,可以利用想象力进行思考,想象力能够想象从来在经验中没有发生过的事情。这样的一种机能也体现在我们的语言当中,我们可以用我们的语言随机地组合出世界上没有发生过的事情。我们的智能所具有的一般性特征就是我们能够利用自己的想象力,在面对新情况的时候想出一个解决方法,而这个新情况以前从来没有碰到过。所以光靠深度学习,我们是不太可能具有智能所要求的这些特征的。
讲到这里我就特别爱讲司马光砸缸的故事。司马光砸缸的故事中有一个小朋友掉到缸里快被淹死了,小司马就用石头把缸砸破救出了这个小伙伴。这个故事预设了宋代已经有了能够把小朋友全部淹进去的缸,那么就要问了,司马光小朋友是怎么想到 “用石头把缸砸破,让水流出来救人”的这个方法的呢?他是看到过一两千遍小朋友掉到缸里,然后大人用石头去砸缸的事情,然后自己归纳出来的这种救人方法吗?答案当然是:不是。因为这种救人方法如果在当时小司马所处的宋代是一个普遍现象的话,为什么别的小朋友没有想到“用石头砸缸”救人的方法呢?为什么事后司马光被称为“神童”呢?显然,当时小司马光想出的这个方法非常牛,别人都没想到。这就证明司马光是利用自己的创造力从无到有的想出了这个方法。这是对于人工智能的一个很大的拷问,人工智能遇到这件事情的话,它会像司马光一样想到砸缸吗?现在看来,不管人工智能会不会,深度学习恐怕是不能做到临时应变砸缸救人这件事的。
其实业界都已经注意到了深度学习的这个问题,他们提出了很多别的方法来进行补救。比如他们可以通过一种迁移式的学习让深度学习在一个领域里面学习,学会了以后把学会的这个套路引到另外一个领域里面去。但是我认为这种方法有它的局限性,因为它也只能在两三个领域之间进行有限地迁移,而人类可以在各个领域里面对知识进行迁移。就像《红楼梦》这个文本吧,有人看到的是宝黛爱情。那毛主席对于《红楼梦》的讲法是什么呢?《红楼梦》是整个封建社会的大百科全书。他看到的这个层面就比大家要深,这就说明同样一本书有无限种解读的可能性。我认为别人的解读也都是有道理的,但人工智能是什么呢?它就是要在一种学习领域和另外一种学习领域之间建立起迁移关系的时候,主流的深度学习也要事先把这几个领域加以锁死,它是没有办法真正地复原人类的这种整体的思维能力的。
我始终认为,图灵通过所谓的图灵测验来检验一台机器是否有智能具有一定道理,但其方法论错误的地方是过于依赖行为主义的哲学前提。行为主义的哲学前提有它的毛病,但它正确的地方是它重视了语言表达,我认为智能外显性的一个最重要的标志是语言。海伦·凯勒显然没有丰富的身体智能,因为我们知道她眼睛看不到,她嘴巴说不出来话,但是她仍然有很强的语言技能——她写呀,我写故我在,通过她的写作我们知道她的内心,知道她的故事,甚至被她的故事所感动,所以没有人会怀疑她是有智能的。霍金在瘫痪了以后,世界上没人怀疑他有智能,他通过一些特殊的设备向全世界传递他的身影,直到他逝世为止,而且说出的话还是非常深刻睿智。深度学习系统如果来处理语言的问题是不是好呢?就说现在的谷歌翻译吧,如果让它来做机器翻译效果是不太好的。
讲到这一步大家已经知道了,现在的深度学习系统它并不是通用人工智能,它只能干一件事,所以只能算是专用人工智能。
有人就说了专用人工智能要变成通用人工智能非常简单。你开过公司吗?公司里面的人都是专才,财务的管财务,宣发的管宣发,技术研发的管技术研发,管理的管管理,你把他们放在一起不就成了一个公司了吗,公司就能干各种各样的事情了。同样的道理你让A公司去搞这样的一个深度学习模块,让B公司搞另外的深度学习模块,凑在一起不就变成了一个通用的系统了吗,所以通用系统必须要以专用系统为前提。我告诉大家这个想法并不准确,公司之构成与你所说的人工智能系统之集成有两点不同。
第一,公司的具体员工固然是专才,但是某种意义上说也是通才,他不可能专到完全不理解其他部门和他讲的话是什么,至少所有的公司部门都要听领导层的话,领导层本身应该是通才吧,领导层他如果只懂技术不懂宣发,他有什么资格给宣发下指令,他肯定多少得懂一点吧,另外宣发和研发部门虽然术业有专攻,你的这方面的要求和他的这个要求总有要对接的地方吧,对接的时候你需要听得懂对方的语言彼此之间才能沟通,公司才能够运作。现在你让不同的公司去研制不同的深度学习的结构,基本的运作原理都不同,这些东西整合在一起,谁来给它做一个底层的逻辑,把它进行统一呢?我觉得这是个很大的问题,就是公司的构成和人工智能不同的模块的集成是有所不同的。
第二,公司简单,智能结构复杂。公司的结构都是大同小异的,不管你生产汽车还是生产飞机,它的运作是按照各个国家的一些法律法规统一制定的,公司是人造物,世上本没有公司,有人建立了公司才有公司,你跑到汉代秦代说我要建公司就没有人能听得懂。既然它是人造的,我们就非常清楚人造的东西是什么,所以它的结构很容易安排。但未来的人工智能要模拟的对象是通用智能,现在的人工智能还没有达到通用智能的要求。
别看现在神经科学发达,发达到这个地步仍然不能够给出一个关于大脑运作的完整的故事。我们知道很多故事,但是不知道的故事要比知道的故事多得多,这就意味着我们找不到一个现成的蓝图指导我们把把现有的智能模块怎么拼。这就类似于什么呢,类似于我现在给同学们一个挑战,让你们把几千块碎的拼图拼到一起。第一种情况是让你们拼张择端的《清明上河图》,同学们很开心的把原图找出来,然后慢慢比对着拼,还是有希望拼好的;第二种情况,我让同学们拼什么我也不知道,有可能是《清明上河图》,有可能是阎立本的《步辇图》,也有可能是拼《蒙娜丽莎》……除此之外还有另外500种拼图可能。如果是第二种情况的话,同学们肯定疯掉了,因为谁都不知道最后拼出来的是什么图景,那这个拼图哪有希望拼好呢。
所以这就是哲学思维的重要性了,两种情况的拼图,前一种拼图是有希望拼的,后一种拼图是没希望拼的。拼公司是前一种,拼通用的人工智能是后一种,因为我们没有路线图,没有确定的目标,不知道最后拼出来的是什么。这就很恐怖了,这也说明从公司的构成出发来反推人工智能行不通。
我再补充一个理由进一步的让大家知道从深度学习出发到通用人工智能是何等之难。就是人工智能现在的工业对于我们大脑的分区是和科学家的分区不一样的,现在人工智能要做不同的深度学习模块,要和大脑的运作相关,但是大家不是这么做的。为什么呢?你想想看阿尔法狗是下围棋的,如果我问大家,相信不相信我们大脑里面有一个特定的脑区模块什么事也不干,专门用来下围棋呢?我相信没人相信。围棋在人类的整个文明当中是很晚出的东西,而我们人类在这个星球上已经繁衍了几十万年了,我们的大脑主要是在几十万年的采集狩猎的过程中慢慢形成的,怎么可能会预见到未来会有下围棋这件事然后开发出一个下围棋的模块呢。这个事情不能够落到一个具体的事情上。但是现在所有的人工智能和围棋都非常类似。有些在日本研究人工智能的朋友说他们在研究下日本将棋的人工智能,我觉得这和每个国家的文化都有关。还有人说他们在研究自动驾驶的人工智能,这特别有意思,自动驾驶的特点是什么?它的特点是面向特定的商业运用的,有特定的商业运用的前景,然后倒逼出公司去研发在这个商业运用前景里面可以用得上的智能。这里的问题就冒出来了,商业运用的分工和我们大脑的脑区分工有关系吗?答案当然是没关系。
今天主流的人工智能的学科分类不是按照我们大脑的实际分区来做的,它是按照工业的习惯来做的。现在的好莱坞的电影、电视、科幻的作品,给大家展现出来的都是啥都懂的通用人工智能,比如迪斯尼拍的《超能陆战队》中的大白机器人,简直就是机器人中的暖男,能够给你各种各样全方位的抚慰,而且有强大的人工情绪的能力,它的机械运动能力也很厉害,能够窜到天上去。这样全能式的这个机器人和现在研发的现状严重脱节,现在研发的现状都是面向具体问题的人工智能系统,这就证明很多朋友可能是被电影、电视剧、小说给忽悠了。
为什么说通用人工智能还是一个遥远的梦呢?我总结两方面的理由。一方面,现在主流的人工智能搞的是深度学习,我们不能够指望把深度学习的不同模块拼接在一起就可以自动地升级为通用人工智能,因为深度学习的每一个模块的设计背景都是受到特定的应用场景限制的,它有特定的商业目的,各个模块之间没有联系,而且和人类大脑皮层的功能分区有很大的区别,你把它们凑在一起有可能会变成一个四不像。另一方面,如果我们要抛开深度学习的技术路线,完全另起炉灶搞通用人工智能的话,理论上当然是可以的,但是从事这方面研究的业界人士数量比较少,且获得的科研经费也比较少。这条路原则上走得通,但是很遥远!不过我仍然坚信我们有能力做出硅基意义上的通用人工智能,而且我相信做出这种东西对人类来说未必是坏事,就是路径一定要找对,这个路径就是小数据主义而不是大数据主义。
三、通用人工智能的实现路径
小数据主义就是我今天要向大家介绍的最后一个环节的内容。
01 大数据主义
在介绍小数据主义之前,我们还是要把大数据是什么意思稍微掰扯掰扯。大数据这个词定义也说得非常含混,说用常规的软件工具没有办法处理的那些数据,而我能够处理的就叫大数据。这个定义仍然是挺不清楚的,还是举例子。现在疫情的时间我们要出国比较难,线上的会议暴增,那么线上会议的暴增也导致了翻译的问题,也就是没有这么多合格的人类翻译人员能够及时处理这些信息,成本也很高,所以最好用机器来进行大致的翻译。科大讯飞就是做这个工作的。什么叫基于大数据的翻译和基于小数据的翻译呢?实际上传统的机器翻译早就有人搞了,传统的机器翻译经常要搞双语的语料库,双语的语料库就是指这个词翻成另外一种语言是什么,需要专家来编整出一个词汇库,然后特定的句法也会做一些分析。总的来说,传统的机器翻译建模成本高,而且软件推出来以后翻译的时间也慢。
基于大数据的翻译,比如现在谷歌翻译的做法是看网络上大家怎么谈的,它不进行遴选,就根据网络上海量的资料来比对这个东西应该翻译成什么,然后倒过来应该是什么,然后建立出一种大致的类比关系,再把这个东西抛到翻译的界面上,大家就能够用了,也就是说它是利用所有使用因特网的人的智力来进行运作,这个数据量要比原来定向去搜集这些数据来说运作的成本要小,省掉了建模成本和定向采集信息和处理信息的成本,这就叫大数据技术。所以说大数据技术只有在今天的移动互联网时代才能够获取,如果不是在互联网时代找不到这么多便宜的数据。
大数据技术也存在很多问题。首先我们会想到一些显然的伦理问题,大公司进行数据的收割它就知道很多公民的隐私了,它知道一个公民的隐私以后可能就是对个人的权利进行了侵犯;其次,大数据技术可能会带给我们相当多的困扰,导致人类形成思维定式或者思考机械化,比如我们都知道日本的福岛核电站的灾难,它之所以能够发生的根本道理就是海啸的海浪的高度超过了日本人所设计的防波堤的最高高度,导致海水进入了福岛核电站,造成了严重的事故。这样事故发生的哲学原因就是日本人过于自信,他们认为对于既有的日本海啸的数据整理证明了海啸不可能那么高,但这一次海啸就这么高了。这也说明这个世界充满了灰犀牛事件、黑天鹅事件,你看不到的古怪事件都会让你非常头大,我们在人生中也会碰到一些预期不了的事情。但是大数据加深度学习的整体思维模式就是要有大量的既有的数据训练它,然后它形成了一种习惯,习惯就会导致固执,碰到新情况的时候不知道怎么处理,所以说大数据技术给我们人类的未来发展预埋下了风险。
另外还有一个问题,大数据依赖于互联网和使得互联网得以运作的基站、无线网络等一系列复杂社会条件。有些朋友跑到游轮上去玩却上不了网了,因为游轮上只能通过卫星有限地传送一些东西,而且停电了这也会导致手机得以运作的一些基本条件消失,所以我们今天的互联网世界所支撑出来的信息世界是极为脆弱的,下面是一根根小火柴棒支撑着的,任何一根小火柴棒折断了,整个世界噼里啪啦就塌下来了。如果我们现在所有的信息处理系统全部都是建立在这样一些脆弱的基础上的话,在某些重大的自然灾害之类的极端的情况下,就会导致这些系统崩溃或者暂时崩溃,人类就会丧失应变的能力。
我们人都在,怎么会丧失应变能力呢?这就是我对人工智能的大数据应用的第三点批评了——大数据可能会让我们现在的人变蠢。我非常喜欢打车,这几年我打车的时候特别特别烦,因为各种各样人工智能支撑的导车软件推广了以后,司机就非常固执,非要跟着导航开车,不愿意走我建议的路线,也不会自己思考路线,导致经常堵车耽误时间。在以前没有人工智能的状态下面,司机会和我协商,因为他在思考,但使用了导车软件以后,司机的思考能力废了。在前电脑时代司机本来是有一个本事的,就是可以把上海的路北京的路内化成一个大脑中的终端内在地图,这个内在地图可以灵活地指导他开车,但是现在司机放弃了这个能力,这就导致他们变得半机械化了。这里有很多很多隐患,如果哪一次某个城市出现了大规模停电或者是类似的事故的话,司机都会傻掉,不知道怎么开车。
02 小数据主义
所以我一直在思考。人工智能是好东西,完全回到原来的那个时代是不行的,绝对不能因噎废食。但现在的路径走错了,我们该怎么做?如果每一辆汽车都是智能的,智能到可以和当下的用户进行自然对话,根据当下的用户需求临时改变路线的话,它就是牛大了。要做到这一点它的数据又不上传到云,在根子上就能保护了广大用户的个人隐私,而同时仅仅是依靠自身本地化的计算机处理,在这个过程中如果无线网络断掉了也不会影响它的性能,这岂不是两全其美的好事吗?那么要实现这样的一些美梦靠的是什么呢?这就是我主张的小数据技术。
小数据技术的一个特点是它也从互联网上获取信息,毕竟现在所有事情都要连网获取信息。这里的问题就是查词条的方式是不一样的,就是如果你是一个人,你知道哪个词条特别有用,你只要看那个词条就可以了。比如我要知道现在西方哲学最新的发展,我要找最靠谱最快的词条就是《斯坦福哲学百科全书》,连接上因特网就可以搜了,我只要上这个网站不出家门即可知哲学世界、知天下事。就这么一件事情,我知道有几个网站是特别权威的,别的看都不用看。所以我们在日常生活中采集数据的时候要有一定的导向性,要先了解哪些数据源是可靠的,哪些数据源是不可靠的,可以减少我们信息采集的规模、成本和精力。计算机也要知道这一点。
刚刚说过,小数据技术的另一个特点是进行信息的本地化处理。我们以往在处理信息的时候会把信息上传到一个云空间,但假设在高考的时候,自己做一道题目是不可能告诉别人的,我们都在大脑里面进行本地化处理,正是因为我们只要不说出去我们脑袋里想的事情,别人原则上不知道这样的一个设置,就天然地保护了自己的隐私。
所以我现在要做的这个事情就是把两方面结合在一起。一方面就是数据的采集不是大规模的,而是定向的采集一部分,这样数据采集的成本不会很高;同时因为它采集的规模很小,对隐私的侵犯也就很小。另一方面,这个信息处理以后是不上交到云里面的,而是进行本地化处理,因此就不存在泄露用户隐私的问题。这两个问题如果结合在一起就是一条完全不同的人工智能发展路径,也就是小数据主义路径。
我们对于小数据的人工智能系统的设计部分是参考了德国心理学家吉仁泽的“节俭性原则”理论,也即“少即多”理论,该理论认为人们并不是完全按照科学的要求思考问题,而是怎么省力怎么想。例如最近的欧洲杯比赛如火如荼,我让大家来了解这个欧洲杯比赛的猜测背后的思维逻辑,猜谁赢、谁输。心理学家就选两支球队,问两组学生哪支球队会赢,两组学生一组是实验组、一组是对照组,这两组学生的情况是不一样的。比如我们要讨论的是德国国内的足球赛,实验组中的一组同学是土耳其同学,一组同学是美国同学,那么土耳其同学和美国同学的区别是什么呢?就土耳其离德国很近,在德国有很多土耳其人,所以土耳其人对德国的情况了解的多一点。美国人是属于除了美国什么都不太了解,最多就了解点加拿大、墨西哥,所以他对德国情况了解得很少。如果同样的题目给美国同学做,大家预期美国同学的得分会比较低,但没想到美国同学得分还比土耳其同学高一点。为什么会出现这种情况呢?这个实验反复的测验,最后都得出了一种情况,就是稍微陌生一点的人他的得分高,稍微熟悉一点的人他得分低。最后心理学家就得出了一个答案,就是你了解的国情越多,你的数据就越多,你想的事情也就越多,你根据数据进行狂算,算到后来你算错了。这些事情美国朋友是不懂的,美国朋友只关心橄榄球、棒球和篮球三大球,除此以外的球他们都不关注,他们基本上就是看这两个队所在的城市,哪个城市貌似在新闻里面出现的频率更高就更有可能获胜。通过这个简单粗暴的原则,他蒙题蒙对的比例就很高,这就叫我刚说的心理学中的一个很奇怪的“少即多”原则。
关于这方面的讨论我不想全面地展开,大家可以去听我在非凡精读馆上所讲的另外一本书,这本书它的题目叫《认知成见》。我现在可以说是把《认知成见》里面提出的人类心理学的算法全部在人工智能的层面上复演了。
我也指出了一些证据,就是利用我的合作伙伴王培先生发明的通用的人工智能的推理系统——NARS系统,能够复演我们人类的认知趋向,就是计算机也可以像人一样利用比较少的数据进行有智慧的猜测,然后猜得八九不离十,这样我们的人工智能系统就可以在信息比较少的情况下,在不和云发生交流的情况下进行信息的处理。当然我们的系统也会上网,但这个上网并不是和一个特定的云上网,它上网的过程是和人类一样的,基本上也是到网上利用搜索引擎搜索一些相关的信息,但它能够进行智能的搜索,能自动的过滤掉一些信源不可靠的信息。
大数据主义和小数据主义这一部分我们也结束了,这一部分的内容我们也进行一番小结。大数据的一个基本的想法就是能够摆脱认知建模这个中介,直接对在互联网上所出现的大量信息进行处理,通过这样的处理我们可以得到一些我们所需要的结论,但是这种技术的运用是受到了很多条件限制的,比如各国隐私保护条例的限制。我提出的一个解决方案就是小数据主义。小数据主义的核心思想就是利用人类节俭式的心理算法,构造出一些计算机的算法,以尽量少的干扰人类日常生活的方式获得特定数量的数据而不是海量的数据,进行本地化的处理而不是上交给云进行处理,由此得出了人类可以接受的那种智能化的结论。这样的一种技术可以在原则上和根底上规避上面所说的两个问题。一个问题就是法律法规对于公民隐私的保护、对人工智能的发展所构成的限制,这个限制对于小数据主义不存在,它不踩大数据这个雷;第二,小数据主义本身消耗的能源比较少,因为它处理的数据量有限,所以它的数据计算所导致的电力消耗当然也是有限的,它就可以避免踩消耗电力这第二个雷。如果这两个雷都能够避免的话,那么人工智能发展就能够展现出一个全新的样态。
说到这里,我可以说我已经把《人工智能哲学十五讲》里面我要讲的核心观点用我认为相对通俗易懂的语言加以介绍了,也希望大家通过阅读实体书能够得到相似的启发。
好了,今天对于这本书的讲读就到这里为止,谢谢大家,我是徐英瑾,我们下一期再见。