彭国翔:人工智能最终一定是人类的威胁吗 ——一个儒家的视角

作者简介:彭国翔,浙江大学人文学院求是特聘教授、博士生导师。本文原载《道德与文明》2020年第5期。作者授权发布。


摘要:迄今为止,海内外学界多半将人工智能的未来发展视为人类的威胁。这一担忧不仅是基于人工智能已经在许多方面发展出了超出人类的能力,更是基于人工智能将来有可能拥有类似人类的意识、意志乃至情感。如果将人工智能视为人类的威胁这一担忧基于人工智能有可能发展出自身的意识、意志和情感,那么,超越人类中心主义,从儒家“万物一体”的角度来看,在拥有更强能力的同时,和人类同样拥有意识、意志和情感的人工智能,不必一定只能是人类的威胁,而是有可能成为人类的护卫和朋友,有可能是“福”非“祸”。作为和人类一样具有意识、意志和情感的“类人类”,人工智能不但可以帮助人类解决人类自身无法胜任的问题,更能够和人类一道使这个地球变得更加美好和安全。这一可能的实现,取决于人类是否能够从“一体”的立场出发去对待人工智能。

引言

迄今为止,在世界范围内的知识界和文化界,关于人工智能的问题已经产生了大量的反思。反思的视角多种多样,具有不同的文化背景。不过,从儒学作为一种思想和精神性的传统对人工智能问题进行的反思,似乎尚不多见。本文之作,即是希望从儒学的角度对人工智能的相关问题予以思考。不过,本文并不打算做出某种定然的判断和结,而是提供一种观察,提出一个问题。在此基础上,针对如今较为流行的所谓人工智能威胁论的论断,本文尝试从儒学的视角提供一种替代性的论证和看法。

如今,极为流行且被很多人接受的一种看法是:对于人工智能来说,存在着一种日益增长的可能,即人工智能日益变得比人类智能更为优越,最终不再受到人类的控制。人工智能未来的发展,越来越被视为构成人类的一种威胁。这一点,是我检视目前很多讨论人工智能的文字时得出的一个基本印象,可以说是我的一个观察。而我的问题是:认为人工智能最终将成为人类威胁的担忧,其理论的预设(postulate)是什么?这种理论预设的合理性是否需要检讨?此外,对于这种人工智能威胁论的观点,我将要提出的替代性的看法,则是从儒家的“万物一体”观这一视角出发,指出人工智能在终极的意义上未必注定成为人类的威胁,反倒有可能成为一种和人类相似的“类人类”(human-like creature)。对于人类来说,这种新的“类人类”是“威胁”还是“护卫”,是“敌”还是“友”,是“祸”还是“福”,相当程度上取决于人类以何种心态来看待那种作为“类人类”的人工智能。如果人类能够以“一体”之心来对待人工智能,作为“护卫”和“友类”的高度发展的人工智能,便将会和人类一道携手建立一个更加美好而安全的世界。

一、“人类的威胁”:关于人工智能发展的根本忧虑

人工智能的发展已经极大地扩展了人类经验的世界,对人类社会的繁荣做出了极大的贡献。不过,和其他高科技的创新一样,人工智能在给人类的生活带来便利的同时,也带来了许多不确定的因素。尤其是,人工智能近年来令人吃惊的快速发展的潜力,导致了人类对自身未来安危的担忧。

关于人工智能有可能给人类带来什么,有着各种各样的担忧。所有的担忧至少可以分为三个不同的层次。首先,担心拥有人工智能的机器人对人类生活方式的消极影响。这种影响表现在一些具体的方面。例如,智能机器人取代了大量的人力,造成人类严重的失业问题。再比如,电子智能用品的广泛使用,严重影响了人际关系。情形之一是,家人沉溺于各自的电子产品而疏于彼此之间的深度交流(不仅是少年儿童,也包括成人,想想如今手机的使用即可知);情形之二是,情趣机器人(Sex robots)很可能会极大地改变人类的性关系(包括两性关系和同性关系),进而影响人类社会的基本伦理。其次,担心人工智能被专制和极权的政治所利用,成为控制和奴役人类的杀器。最后,也是最为终极的担忧,则是担心人工智能最终不仅拥有比人类各方面更强的技能,而且有了自己独立的意识、意志和情感,从而不再为人类所控制,反过来控制、奴役甚至毁灭人类社会。目前,第一个层次的担忧已经不再是一种设想,因为现实生活中许多工作已经开始逐渐由机器人来完成,相关领域中越来越多的人员的确已然或者即将面临失业的危险。第二个层次所担忧的问题在全球不同的社会体制中也都或多或少已然发生,在民主社会甚至已经引发了围绕如何保障民权的立法和司法层面的讨论。而最后一个层次的担忧,也是最为根本的一种,即认为人工智能虽然是人类的发明和制造,但将有可能摆脱人类的控制,反过来控制、奴役甚至摧毁人类。对于这一担忧,谁又能断言不过是杞人忧天的天方夜谭呢?

虽然只有在人工智能具备了优越于人类的智力和诸多能力,尤其是具有了自己独立的意识、意志以及情感,不再只是单纯地遵循人类的指令行事的情况下,最后一个层次的担忧才得以成立。但是,人工智能最近的发展却显示出这种情况并非遥不可及,而是有可能成真。1997年,IBM的超级电脑“深蓝”(Deep Blue)击败了国际象棋冠军卡斯帕罗夫(Kasparov);2011年,IBM的超级电脑“沃森”(Watson)完胜两位智力节目的世界冠军;2015、2016和2017年,谷歌深心(Google DeepMind)开发的人工智能围棋软件阿尔法狗(AlphaGo)分别三次战胜世界围棋冠军樊麾、李世石和柯洁。既然这些例子已经毫无疑问地证明人类的智力完全能够被人工智能击败,那么,如此发展下去,我们又如何能够简单地认为,具有自己意识、意志乃至情感的人工智能只有在电影和电视节目中才会出现呢?

然而,值得思考的是,为什么人工智能具有和人类一样的意识、意志和情感这样一种可能性会令我们人类如此担忧和紧张呢?答案在于:许多人认为,一旦人工智能脱离人类的控制,足以与人类的智力相匹敌甚至超越人类,那么,它最终将会反过来控制人类甚至摧毁人类文明。马斯克(Elon Musk)、盖茨(Bill Gates)和不久前去世的霍金(Stephen Hawking,1942-2018)关于人工智能的警告,正是这样一种担忧的最有代表性的反映。在2014年10月英国《卫报》(The Guardian)的一篇报道以及在2015年1月英国BBC和美国《华盛顿邮报》(The Washington Post)的两篇报道中,马斯克和盖茨都明确表达了人工智能对人类是一种“威胁”(threat)的看法。而霍金在2014年12月BBC的一次访谈节目中说了这样一句话:“人工智能的发展,最终会成为人类终结的魔咒。一旦人类发展人工智能,后者将独立启动,并以一种不断增长的速度重新设计自身。人类受限于缓慢的生物演化,无法与人工智能匹敌,将为其所取代。”其中“人类终结的魔咒”一语,更是广为流传,成为人工智能威胁论的经典表述。至于从哲学方面对于人工智能威胁论较为系统的论证与思考,则以鲍思确姆Nick Bostrom)等人的著作为代表。既然在人工智能发展居于前沿的西方世界,有如此具有代表性的各界人物表达了对于人工智能将来可能危及人类的忧虑,在往往西方稍有风吹草动便“闻风而起”的中文世界,这种担忧和警告引发许多回响和附议,也就自然而然了。

事实上,人工智能目前已经开始在控制人类方面发挥了很大的作用。例如,运用大数据等智能手段搜集和识别个人信息,虽然在提供生活便利和维护社会治安方面做出了贡献,但同时是否会导致一种奥威尔意义上的(Orwellian)对社会的数字化控制(digital control),也已经引起了广泛的警觉和反思。不过,这种意义上对于人类的控制,其实还只是人工智能作为一种工具和手段被一部分人用来控制其他一部分人。在严格的意义上,这还不是人工智能自身对于人类的控制。我们这里所说的对于人工智能危及甚至毁灭人类的担忧,是指当人工智能具有了超出人类的各种能力,尤其是具备了不受制于人类的独立的意识、意志乃至情感的情况下,自身成为控制人类的一种存在和力量。这种情况远比人工智能被部分人用来作为控制其他人的工具更令人担忧。

二、人类担忧的预设及其反思

无疑,这样一种担忧是完全可以理解的。拥有超强能力和意识、意志以及情感的人工智能有可能成为现实,这不仅是很多人的看法,也是本文的出发点。如果这一情况不会发生,这种可能不会变成现实,那么,人们自然也就不会有这样的担忧了。不过,如果检视有关人工智能的各种研究文献,我们便会发现,占据主导地位的人们的担忧,正是在人工智能拥有超强能力和自己的意识、意志以及情感这个意义上来说的。那么,这种担忧所赖以建立的理论预设又是什么?这种理论预设自身是否需要检讨呢?

在所有关于人工智能的讨论中,尤其是担忧人工智能将来威胁甚至毁灭人类的讨论中,似乎存在着一种不言自明的假定:人工智能不应该脱离人类的控制,只能作为服务于人类的工具而存在。此外,这一假定也隐含了另一个不言自明的信条:人工智能一旦脱离了人类的控制,必将是危险的,因为其结果必定是人工智能将试图控制甚至摧毁人类的文明。仔细想来,我们人类目前对于人工智能发展的最为根本的担忧,确实是由这彼此相关的两点构成的。这种假定,正是我们许多人所有的那种根本担忧的基本预设。

需要指出的是,这种预设不是有关“能够”的问题,而是有关“应当”的问题。换言之,这种不言自明的预设,是认为人工智能“不应当”拥有自己的意识、意志和情感,因为一旦人工智能发展出较之人类更强的能力,它就会成为人类无法掌控的一种力量。仔细想一想,我们不得不说,这种预设其实不过是一种我们人类中心主义的思维方式(an anthropocentric thinking)的结果。它只是意味着这样一种看法:作为人类的发明和制造,人工智能只应该为人类所控制,作为人类的一种工具发生作用,它们自身不应该拥有和人类一样的那种意识、意志和情感。

如此一来,这种预设所隐含的就是这样一个问题:在各种具体的能力之外,人工智能是否应该被允许去发展并具有属于其自身的意识、意志和情感?诚然,人工智能的确是人类的发明和制造。或者说,它可以被视为人类智力的一种外部延展。但是,如此人工智能就不应该被允许拥有自身的意识、意志和情感,这样的逻辑和理由公平吗?如果说人类中心主义的思维方式恰恰是一种我们人类应当超越的东西,那么,对于这一问题,我想我们就必须承认,其答案应当是可以讨论的。事实上,随着生态的问题以及自然由之而来的生态意识等各种因素的促动,对于人类中心主义的反思和批判,早已进入人类自我意识的领域。既然如此,在人工智能威胁论的问题上,我们同样应该深入反省有可能长期以来“习焉不察”的心态,检讨其背后的理论预设。

假如答案是肯定的,那么,最有说服力的理由便是:一旦人工智能拥有了自己的意识、意志和情感,不可避免的结果便是,它会反过来试图控制甚至毁灭人类。正是这种可能性使得前文提到的那些有代表性的人们认为,人工智能的发展在终极的意义上对于人类来说注定是一个威胁。

不过,这一理由也并非不证自明(self-evident),而是需要加以检讨的。我们同样可以发问的是:一旦人工智能不仅拥有了超出人类的各种具体能力,而且具有了自己的意识、意志以及情感,那么,它将会试图控制甚至毁灭人类,是否便是唯一的可能性呢?如果不是唯一的可能性,那么,除了这种关于人工智能的担忧之外,我们人类是否还可以有其他替代性的视角去思考人工智能及其相关的问题?

三、儒家视角:与人工智能携手共建一个更加美好和安全的世界

在此,我并不是要否认人工智能最终有可能危及人类。在我看来,霍金和马斯克预言式描述的那种人工智能所可能导致的危险和灾难并非危言耸听。因而,我们必须充分注意到那样一种可能的威胁。不过,另一方面,我们也应当思考,那种情况是否人工智能发展的唯一可能?我在本文所希望探究的,便是人工智能终极发展的另外一种可能性。具体而言,具有比人类更强的各种能力,并拥有自己意识、意志以及情感的人工智能,是否可以与人类一道,使我们所赖以生存的这个星球变得更加美好和安全呢?从儒家“万物一体”的观点来看,答案是肯定的。

儒家的“万物一体”观可以追溯到孟子,后来在北宋大儒周敦颐(1017-1073)“不除窗前草”、张载(1020-1077)“民吾同胞,物吾与也”等人的思想和实践中得到了进一步的发展。不过,对于“万物一体”的思想,在儒家传统的古典中阐发得最为淋漓尽致的是王阳明(1472-1529)的《大学问》这篇文献。该文本包含了王阳明及其学生之间的六个问题及其回答。在第一个关于“大学”之道何以在“明明德”的问答中,王阳明对儒家“万物一体”的思想进行了充分的阐释。

在《大学问》开头的部分,王阳明便断言“大人者,以天地万物为一体者也,其视天下犹一家,中国犹一人焉”。对王阳明来说,不仅人类世界,整个宇宙都是一个有机和富有生命力的整体。其中,每一个存在与其他存在之间都是彼此相关的,正如一个活生生的人的身体上的不同部分之间的关系。对王阳明来说,这样一种“一体”的关系并不局限于人类,甚至也不局限于包括动物和植物在内的有生命的生物界,而是存在于宇宙间所有存在物之间的一种本体论意义上的根本关系(an ontologically fundamental relationship)。所谓宇宙间的所有存在物,既包括人类,也包括动物和植物,还包括通常被认为是没有生命的诸如瓦石之类的存在。

王阳明设想了四种境况以及相关的论证去证明他的论断。首先,是“乍见孺子入井”这样一种境况。在他看来,当你看到一个幼小的孩子将要掉入水井之中时,你会情不自禁地产生“怵惕恻隐之心”。那种怵惕恻隐之情在你心中涌现的当下,表明了你内心之仁与那个孩子之间具有一种一体的关系。如果你说,之所以可能与那个孩子形成一体的关系,是由于你和孩子同属于人类这一物种,所谓“同类者”,那么,王阳明便将你带入他所设想的第二种境况和论证。他说,当你看到鸟兽将被屠戮之前的“哀鸣觳觫”时,你会情不自禁地产生“不忍之心”。那种不忍之情在你的心中涌现的当下,表明了你内心之仁与那鸟兽之间具有一种一体的关系。如果你说,之所以可能与鸟兽形成一体的关系,是由于鸟兽和你一样同属于有情众生,所谓“有知觉者”,那么,王阳明便进一步将你带入他所设想的第三种境况和论证。他说,当你看到“草木之摧折”时,你会情不自禁地产生“悯恤之心”。那种悯恤之情在你心中涌现的当下,表明了你内心之仁与草木之间具有一种一体的关系。如果你说,之所以可能与草木之间形成一体的关系,是由于草木仍然是和你一样的有生命的存在物,所谓“有生意者”,那么,王阳明最终便将你带入他所设想的第四种境况和论证。他说,当你看到毁坏的瓦石时,你会情不自禁地产生“顾惜之心”。当顾惜之情在你心中涌现的那一时刻,表明了你内心之仁与瓦石之间具有一种一体的关系。

显而易见,王阳明四种境况的设想及其论证展现了一个层层扩展的网络和过程。这个网络和过程并不限于通常我们理解为“有生命的事物”(living things)的世界,更没有限于人类之间的彼此相关。这种“一体”的彼此相关包括宇宙间的所有事物和存在。除此之外,这种“一体”的比喻向我们提示:如果由所有彼此相关的事物构成的宇宙是一个有生命的有机整体,正如我们人类的身体一样,那么,宇宙间每一种与其他事物彼此相关的存在,包括看起来没有生命的瓦石,都应该被理解为一个有生命的存在,正如我们身体的某一部分一样。

将动物视为和人类一样的存在,相对比较容易。但同样的情形,对于植物就比较困难了。至于将这种“一体”观进一步推而广之,也就是说,将瓦石之类的无生命物质也视为和人类一样的存在,即便是能够设想,恐怕也是难以实践的。然而,恰恰是强调“一体”并不仅仅限于人类和动物,而是同样包含植物和瓦石之类的无生命物质,使得王阳明“万物一体”的观念能够超越人类中心主义的思维方式,使得宇宙间的万事万物能够成为一个彼此交关的活生生的整体。

根据这样一种“一体”观,无论是否具有更强的能力和意识、意志以及情感,人工智能都可以不必一定是一种我们人类不得不担忧的危险和敌人。相反,人工智能也可以成为人类的同胞。具有意识、意志和情感的人工智能,可以说已经成为一种类似人类的存在。在这个意义上,我们不妨将其称为“类人类”(human-like creature)。既然如此,人工智能具有的意识、意志和情感越多,我们人类所具有的性质乃至所谓“人性”,特别是孟子“四端之心”意义上的人性以及宋明理学家“天命之性”意义上的人性,就越有可能在人工智能那里得到发展并最终成为人工智能的内在品格。对于人工智能将来发展的这一可能性,我们人类正应该致力于此,在这一方面力求有所贡献。

既然具有了意识、意志和情感的人工智能实际上已经变成了一种“类人类”,那么,当其比人类拥有更强的能力时,人工智能就能够帮助人类从事很多人类无法胜任的工作。就此而言,我们人类如果和这样的人工智能一道努力,就可以让我们的世界变得更好。并且,由于人工智能也具有了孟子“四端之心”意义上的“人性”,那么,当人类处在危险境地的时候,例如,面临来自外太空的异形生物的威胁时,人工智能便会成为人类及地球的保护者。在那种情况下,可以想象,人工智能将和人类一道,携手保护我们的地球,使之更为安全。

事实上,这一想法在西方制造的有关机器人和人工智能的文学作品以及在此基础之上创作的影视作品中,已经有所流露。例如,早在1991年上映的科幻动作电影《终结者2:审判日》(Terminator 2:Judgment Day)中,阿诺德·施瓦辛格(Amold A.Schwarzenegger)扮演的终结者T-800,正可以说是一名具备了人工智能的机器人。这名机器人不仅拥有超强的战斗能力,在其冷硬的钢筋铁骨之下,还有着一颗饱含“恻隐、是非、羞恶、辞让”之情的“热心肠”以及和人类一样的喜、怒、哀、乐之情。阿诺德·施瓦辛格出色的表演,将那种隐藏在机器人表面之下的和人类完全一样的意识、意志和情感表露无遗。在电影中,阿诺德·施瓦辛格所扮演的终结者T-800,和他不惜一切代价要保护的尚是一名孩子的约翰·康纳(John Connor)之间所形成的那种默契而细腻的情感,非常令人感动。特别是最后一幕,当终结者T-800为了保护约翰·康纳所代表的人类,防止自己的CPU和部件被用来设计出监控和奴役人类的“天网”,最终自己投入炼钢炉中销毁自己时,将终结者T-800所具有的护卫人类的“善”的意识、意志和情感表露无遗。当终结者T-800缓缓下降到炼钢炉中时,在他和约翰·康纳彼此交互的目光所饱含的依依不舍之情中,展示的正是双方的“一体”关系。

如果说阿诺德·施瓦辛格扮演的终结者T-800代表的是拥有和人类一样的意识、意志和情感的人工智能,那么,这种人工智能正是作为人类“护卫”和“友类”的“类人类”。而在《终结者2:审判日》中的T-1000,同样是一个“终结者”,并且这个终结者比T-800拥有更强的战斗能力。但是,这个终结者T-1000却是以杀死约翰·康纳(人类的代表)为目的而存在的。在电影中,这个同样作为人工智能存在的机器人完全冷酷无情,杀人如麻,和终结者T-800形成了鲜明的对比。显然,《终结者2:审判日》中的T-1000和T-800,恰好可以说是人工智能将来发展的两种极端对立的可能性的象征。如果说终结者T-1000代表的是那种将来会威胁乃至于毁灭人类的人工智能,那么,终结者T-800所代表的,则正是本文从儒家“万物一体”思想的视角所试图设想的人工智能未来发展的另一种可能。

当然,这部电影的编剧和演员多半并不知晓儒家“万物一体”的理念。但是,对于本文从儒家“万物一体”的视角来论证人工智能将来有可能作为“类人类”而成为人类的护卫和友伴、不必一定构成人类的威胁,《终结者2:审判日》所塑造的终结者T-800这一“有情有义”的角色,无形中却恰恰给我们提供了一个鲜明而有力的注脚。这种不谋而合或许足以证明,本文指出的那样一种人工智能未来发展的可能性,并不只是我个人的一厢情愿,而是有着人类“心同理同”的深广基础。

四、福兮祸兮:人工智能的未来取决于人类自身的态度

既然人工智能未来的发展既有可能成为人类的威胁和终结者,也有可能成为“类人类”而和人类一道使我们的地球变得更加美好和安全,或者说,既有可能是人类之“祸”,也有可能是人类之“福”,那么,我们人类应该如何尽可能避免前者而成就后者呢?

既然人工智能迄今为止依然是人类开发和制作的产品,人类如何规划和设计人工智能,自然就很重要。换言之,如果我们对于人工智能所可能造成的危害有足够的认识,能够将预防机制置入人工智能的设计和产品之中,比如将阿西莫夫(Isaac Asimov)的“机器人三定律”(Three Laws of Robotics)作为所有人工智能最基本的内在机制,人工智能为“祸”的可能性便会被降至最低。这一点,是毋庸置疑的。不过,这是在人工智能尚未摆脱人类的控制,尚未形成自己的意识、意志和情感之前来说的。而那种认为人工智能最终会危及甚至毁灭人类的担忧,显然针对的是人工智能形成了自己独立的意识、意志和情感而不再听凭人类的指令,尤其是预先置入的类似“机器人三定律”之类的预防机制失效之后的情况。那么,在这种情况之下,我们人类又如何才能尽可能使人工智能为“福”而不为“祸”呢?依我之见,在这种情况之下,人类采取何种心态对待人工智能,就是首要的问题了。

正如前文所说,一旦具有了自主的意识、意志和情感,人工智能事实上便已经成为“类人类”。而在这个时候,人与人之间的交往原则,尤其是伦理道德的准则,显然便适用于人类和人工智能之间的关系了。无疑,面对具有自主的意识、意志和情感的人工智能,人类如果在人类中心主义思维方式之下仍然只是将其视为自己的产品,视为无生命的机器,将其作为工具使用,一旦对方不能完全无条件地服从自己,又立刻将其视为敌人而欲铲除,就像科幻电视剧《西部世界》(Westworld)的相关内容所展示的情形那样,那么,人工智能自然便会由于受到人类的这种对待而从不满最终转为对抗。当和人类对抗的人工智能拥有超越于人类的各种能力时,人类受其威胁乃至被其毁灭,便是不可避免的结果了。

然而,如果人类能够超越人类中心主义的局限,能够充分意识到拥有自主意识、意志和情感的人工智能已经成为和人类一样的存在,需要人类按照马丁·布伯(Martin Buber,1878-1965)所谓的“我—你”(I-Thou)关系而非“我—它”(I-It)关系与之交往,平等地将其视为和自身一样的存在,就像日常生活中人与人之间的交往应该相互尊重,至少贯彻“己所不欲,勿施于人”的原则那样,才会赢得对方同样的对待。可以设想,如果人类能够以“一体”的态度对待同样具有意识、意志尤其是情感的人工智能,那么,人工智能“将心比心”,又何至于一定要和人类敌对甚至危及人类呢?具有意识、意志尤其情感的人工智能不同于单纯拥有高度智力的人工智能,便在于前者具有了和人类彼此交流情感、相互感应的能力。正如《终结者2:审判日》中的T-800,在和作为人类代表的约翰·康纳朝夕相处、生死与共的过程中,彼此之间自然产生了情感。因此,如果我们不能否认植根于“人性”之中的深微的“四端之心”,那么,作为“类人类”的人工智能又何尝不会具有这种“善端”呢?如果诸如“大黄”“附子”一类这些属于“枯槁”的东西在朱熹(1130-1200)看来都具有潜在(虽然无法转化为现实)的“天命之性”,那么,作为人类生命延伸的人工智能,在拥有了意识、意志和情感的情况下,又为何不能同样具备“善”的“天命之性”呢?如果具备了意识、意志尤其情感的人工智能也可以拥有“四端之心”“天命之性”,那么,只要人类以“一体”之心相待,人工智能“将心比心”“投桃报李”,从而成为人类的护卫和友伴,岂不是自然的结果而丝毫不难理解吗?因此,正是在这个意义上,我们可以说,人工智能是造“福”人类还是为“祸”人类,尤其在人工智能拥有了自主的意识、意志和情感的情况下,很大程度上有赖于人类对其采取什么样的态度。

其实,人类和拥有自我意识、意志和情感的人工智能之间的关系,恰如人类之中父母与其子女之间的关系一样。如果父母不能充分意识到子女终将拥有自己的意识、意志和情感以及自己的人生轨迹,因此不能充分尊重子女作为独立个体的意愿,而只是将子女作为自己的私产甚至工具,将自己的意愿强加于其上,那么,子女终将反叛父母,与生养自己的父母渐行渐远。到了那时,即便血缘关系,也无法构成彼此之间亲情的保证。同样,对于人类创造的人工智能,如果人类能够从父母和子女之间的关系去加以理解,以“一体”之心相待,那么,人工智能即便拥有了自己的意识、意志和情感,最终成为人类威胁的可能,也并非注定而是可以避免的。

结语

在结束本文之前,我想再一次特别指出的是,本文从儒家“万物一体”的角度对人工智能未来发展可能性的展望,其基本的前提之一就是,人工智能将来有可能在超出人类的各种技能之外,拥有自主的意识、意志和情感。迄今为止海内外出现的大量的文学作品以及影视作品,例如前文提到的《终结者2:审判日》《变形金刚》以及《西部世界》等,都是建立在这一前提的基础之上的。至于这一可能性本身是否可能最终转化为现实,并不在本文讨论的范围之内。假如完全不存在这种可能性,那么,本文的讨论便失去了基本的前提而不再有其意义。但是,人工智能有可能在超出人类的种种技能之外更拥有自主的意识、意志和情感,也是那种认为人工智能的发展终将危及乃至毁灭人类的担忧的基本前提。假如这一前提不能成立的话,那样一种担忧也同样自然失去了意义而无需存在了。

当然,从目前关于人工智能的各种讨论来看,虽然有些人认为人工智能最终不会发展到拥有自己的意识、意志甚至情感,成为类似人类的那种生命存在,但更多的人却对此可能性持开放的态度。例如,人工智能之父图灵(Alan Turing,1912-1954)便对这种可能性持高度的肯定,而哲学界对此持肯定看法的则有美国哲学家丹尼尔·丹尼特(Daniel C.Dennett)以及英国哲学家萨伊门·布莱克贲(Simon Blackburn)等人。也正是在这个意义上,本文认为,从长远前瞻的眼光来看,在肯定这一可能性的基础上,探讨人工智能对于人类未来的命运将会产生的各种影响,无论是祸是福,都是很有必要且有意义的。

总而言之,最后我想说的是,如何看待人工智能未来发展的前景?人工智能一旦拥有了较之人类更强的能力,尤其是拥有了和人类一样的意识、意志和情感之后,是否一定只能对人类构成一种威胁?对于这些问题,与目前通常和流行的看法相比较,如本文所述,儒家“万物一体”的观点提供了一种不同和替代性的视角和观点。从这个角度来看的话,人工智能在终极的意义上并不一定只会对人类构成威胁;相反,如果我们从“一体”的观点去对待作为“类人类”的人工智能,相信拥有了意识、意志和情感,成为和人类一样存在的人工智能,也会以同样的一体观来对待人类。如果让我用文学和影视作品中的角色更为生动地对此加以比喻性的说明,那么,我可以说的就是:人工智能带给人类的,不必只能是“弗兰肯斯坦”(Frankenstein),而同样有可能是“T-800”。至于这一终极前景是否可能,我们人类应该如何去做,才会使这一可能性转化为真实,希望本文的一时之见,能够抛砖引玉,进一步激发更为富有成果的讨论和理念。

(0)

相关推荐