王东、张振 | 人工智能伦理风险的镜像、透视及其规避

作者简介

王东:南京师范大学马克思主义学院博士研究生;

张振:南京师范大学人文社会科学研究院教授,博士生导师。

摘要

人工智能的迅速发展给人们生产生活带来了极大便利,同时也引起了一定的伦理风险问题,诸如技术伦理风险、社会伦理风险和人类生存伦理风险等。这些伦理风险的背后是主体规范缺失和角色失准、情境变化中矛盾展现、人类关于实践意义认知差异和原则淡化、伦理形态的嬗变与重构等因素。规避人工智能所带来的伦理风险,须坚持维护人类共同利益的最高伦理规范,在全面深化基本原则遵循的基础上,推进伦理制度建设和新型人机关系建构,不断提升人类应对科技迅猛发展带来的伦理风险的能力和水平。

关键词:人工智能;伦理风险;规避路径

人工智能的迅速发展是现代社会智能化水平愈发提升的显著表现,对人类生产生活方式产生了根本性影响。正如杰瑞·卡普兰说到:“在未来几年内,机器人与人工智能给世界带来的影响将远远超过个人计算和互联网在过去30年间已经对世界造成的改变。”人工智能不仅是作为一种社会和经济上的变革性技术,更是关于人类生存意义的伦理挑战。伦理被还原成一种技术性的存在,不可避免地将会引发伦理冲突,在解构传统伦理关系的同时,带来了新的伦理挑战与风险。以人工智能为代表的技术发展与人类生存的伦理审思是现代伦理学关注的核心议题,在科学速率急速发展的智能社会显得更为突出。如何准确审视人工智能时代的伦理风险,深度透视风险之后的内在原因,寻找规避伦理风险的践行方案,是我们面对智能化道德实践必须回应的重大时代课题。

一、人工智能伦理风险的时代镜像

人工智能技术能力的日益增强,特别是当人工智能进入深度学习与感情交流,可以进行团体协作行动时,也就是说当人工智能开始挑战、突破甚至完全脱离人为其设计好的初始算法而自我创制新算法时,人工智能必然影响整个人类社会发展。与此同时,人类由于自身的认知能力受到一定时空条件的限制,对人工智能可能产生的伦理后果将难以预测。面对高速率发展的人工智能时代,人类传统道德伦理范式出现了非适应性的断裂,人工智能时代正为我们呈现出一副人机关系新的伦理图景。我们必须深刻认识并警醒到:失控的技术增长极有可能成为人类毁灭的重要源头,它所造就的文化将是没有伦理道德根基的文化,它将瓦解人的精神活动和社会关系,消解人类的生存意义和价值。总而言之,人工智能所可能带来的伦理风险直接关乎人类社会发展,我们必须予以高度重视。

1.人工智能自身存在的技术伦理风险

人工智能技术是人类能力在技术上的延展和增强,不仅是人的自然力的强化,更是通过信息化、自动化等新科技革命对人类智识、身体等能力的质的提升。现在被人们所熟知的“人机大战”、无人驾驶、人机对话等等,不仅彰显了人工智能的强大力量,更深刻昭示着人类社会发展的远景图像。技术是一把双刃剑,它在推进社会进步的同时,也在很大程度上带来了技术风险。这是一种在科学技术发展的过程中,因技术失控、技术误用等情况出现的威胁人们生产与生活的风险。人工智能作为一种尚未成熟且具有颠覆性影响的技术,势必会带来技术层面的风险挑战。

以斯蒂芬·霍金、比尔·盖茨为代表的一些人士发出严厉警示,认为人工智能是人类生存发展面临的最大威胁,透露出了对人工智能未来发展的巨大担忧。就当前人工智能发展的具体情况来看,虽然人工智能还处于初级发展阶段,但其本身是一个具有综合性、复杂性和前沿性的科学与智识,几乎涉及所有的理工与人文社会科学等学科。

单从现实技术发展的层面来看,人工智能所体现出来的技术风险主要存在三个方面:一是在技术研发阶段,很多科技人员并没有遵从一定的伦理要求和法律规范,功利性地开展相关科研活动,特别是在忽视当前生产力条件和社会关系发展现状的条件下盲目开展试验活动,极容易造成不可控的技术后果,从而在社会认知层面引起大众恐慌。二是从技术结合的角度来看,智能技术与生物技术的结合,在部分领域引起了极大的道德争议。在单纯的技术性操作层面上,促进智能技术与生物基因技术的高度结合的技术已经比较成熟,在短时期内可以实现重大突破,但同时也对人类伦理和道德形成重大冲击。诸如婴儿基因编辑事件等,就深刻印证了技术风险对人类生存伦理的挑战。三是人工智能技术现实操作来面临着一定的技术泛滥和失控情况。现在经济社会发展的诸多领域都大规模引进智能技术,而技术操作主体的专业素质参差不齐,极容易出现专业性不足、操作性失误等等情况。特别是在军事等关键领域的人工智能技术操作,一旦失误或者失控,将会造成难以估量的巨大损失。

2.人工智能引发社会伦理风险

技术是促进社会发展的重要推动力,在社会历史进程中扮演着越来越重要的角色。与此同时,技术问题所引发的社会问题对人类社会发展的影响也更加突出,辩证地看待科学技术的社会作用是我们观察和分析重大科技创新的重要方法。人工智能技术对社会发展的影响是整体性的,技术一旦缺失伦理的规范必然不可避免地带来严重的社会伦理风险。在人们日常生产生活领域,人工智能“广泛地应用于我们社会各领域,这又加剧形成道德决策风险乃至社会的系统性风险”。人工智能技术风险正在日益成为社会风险生成的重要因素。清晰展现人工智能技术因为伦理缺失导致的社会风险,有助于我们更加深刻认识人工智能技术发展的相关问题。

从个人发展的角度来看,人工智能技术的伦理缺失直接影响到个人生活领域隐私问题。隐私保护是现代社会文明发展的一个重要体现。但是随着网络传播技术和大数据时代的到来,公民的隐私面临着巨大的挑战,人工智能技术的发展无疑进一步加剧了个人隐私权利被侵害的危险。形式各异的数据采集系统、信息交互传播的互联网系统以及系统分析归纳的大数据技术,等等,全面而详细地记录着个人相关信息,个人隐私存在着泄露的可能,可以说“隐私权已经陷入了风雨飘摇的困境”。从社会整体发展来看,人工智能技术的伦理缺失严重影响了社会发展的公平性和均衡性。最直观的社会景象就是在于劳动生产领域,劳动分化的现象将更加凸显。机器代替人的劳动进而导致一定范围内失业情况的出现,将是人工智能时代必须正视的重要社会问题。不仅如此,掌握智能技术的劳动者将在劳动体系中占据着主导地位,无形中加剧了劳动的分化。价值理性中的公平、均衡与技术理性导致的优先、垄断之间的鸿沟,不可避免地会引发系统性的社会风险问题。

3.人工智能带来人类生存伦理风险

人工智能技术是人类生存意义和价值在技术层面的延伸和扩充,智能化技术拓展了人类生存发展的活动空间,给人类生产生活带来了诸多全新体验。可以说,人工智能技术将会彻底改变人类生存形态,成为一种颠覆传统、形塑未来的强大技术力量。也正是因为如此,人工智能技术的伦理缺失所带来的不仅仅是社会风险,更是关系到人类生存发展的根本所在。人类生存的意义、价值、方式以及形式都面临着严峻的挑战。对于技术的过度依赖,会导致人类生存意识的消解、生存能力的弱化以及生存空间的虚化。

人类生存的意义在于不断发现个人价值,推进群体发展,寻找类的本质所在。人工智能技术一方面扩展了人类生存意义,但是缺少伦理规范的人工智能技术,所“造成的人类分裂和对立,对人的内在性、自主性、平等性、整体性的颠覆和消解可能是不可逆的”,人类关于意义的探索会出现新的茫然与不解。在生产生活领域,人工智能技术开始取代并向着大规模代替人类劳动的方向发展,将来绝大多数的活动可以由智能机器承担,人类的主体性将受到严峻挑战。就像学者所预言的那样:“人造物表现得越来越像生命体;生命变得越来越工程化”,一种新生物文明即将到来。就目前而言,人工智能技术在时间维度上占据了大多数人的大多数时间,某种意义上形成了对人类思维的控制,进而不断弱化人的自然能力和社会能力。生存空间的虚化进一步虚无了人类现实世界的意义和实践。虚拟空间的未知性导致无法预设和规定人类行为,人类极有可能在虚拟空间中不断丧失作为人的主体性,整个人类便有毁灭之虞。

人工智能技术目前在某些领域内实现了对人类智慧的强化和超越,处于弱人工智能阶段,其伦理风险图景尚未明显铺陈开来。但是随着技术的进一步发展,拥有人类思维的智能机器将成为可能,“它能够进行科学创造,具有通识,甚至掌握社交技巧”,极有可能在此基础上全面超越人类认知。这种强人工智能甚至是超人工智能的出现,将会真正影响到人类自身的根本。人工智能的发展前景比我们想象得更加久远,它所带来的风险图景也远比我们描述的更加严峻。

二、人工智能伦理风险的多维透视

人工智能发展的“奇点”是否会到来以及何时到来还是充满争议的问题,既有人坚定认为随着人工智能技术的发展,“奇点”必会到来;也有人持反对意见,认为人工智能始终是人的创造物。无论是乐观期待还是悲观抵制,不同意见持有者对于人工智能会带来的伦理风险挑战却形成了普遍共识。目前我们处于人工智能发展的初级阶段,即弱人工智能阶段。我们需要通过目前显现出来的伦理风险及其潜在问题,科学研判未来强人工智能和超人工智能时代可能出现的更关乎生存根本的伦理问题。毋庸置疑,现代社会愈发成为技术统治甚至是技术垄断的时代,科学技术“赋予我们进步的观念”,但同时“涣散了我们与传统的纽带,包括政治纽带和精神纽带”。我们必须正视人工智能技术可能带来的伦理问题,这不仅需要从“更大社会系统层面来讨论技术本身所带来的影响,需要在过分担忧和过分乐观之间寻找一种伦理平衡”,更要立足于伦理规范的自身要素,分析导致人工智能伦理风险的内在原因。

1.主体因素:规范缺失和角色失准

弱人工智能阶段处于人创制人工智能的时期,它是人类知识系统、技术系统和生物能力系统聚合的表现形式,不仅是对人类自然能力的拓展延伸,同时更为重要的是对人类思维和行为进行高度模仿。目前这种高度模仿仍然处于人类可控范围内,并且是按照人类意志生成,更多地是体现人工智能技术对人类生产生活的功能性满足。既然是作为人类的创制物,同时也是人类生活的使用物,人工智能与人存在着主客体的相对关系,并且随着人工智能算法走向更高级别水平,人工智能与人在思维和行为上的一致性将极大增强,这种主客体间的关系必然面临着传统模式的变革。这些目前看起来微妙的关系最终将会面临重塑,所以要求我们必须从创制物和对象物这两个层面对伦理风险的主体因素展开分析。

一方面,作为人类创制物的人工智能,特别是从人工智能技术全球范围内发展的总体态势而言,贯穿创制过程的伦理规范远未形成。当前伦理理论多元化趋势业已形成,既有悲观主义、乐观主义也有中立主义,在人工智能伦理何以可能、如何规范的问题上没有统一共识。具体到创制层面来说,在设置算法时遵循何种伦理、功能定位时遵循何种伦理以及创设环节时遵循何种伦理,没有统一规范便无从谈起伦理制约。这种伦理规范针对的是人工智能技术创制主体的人。因为人类生活情境的复杂多样,特别是在不同伦理情境下,固有的伦理规范设置极有可能面临失灵的情况。这种谋求共识性伦理规范与固有伦理认知可能造成不良影响的矛盾也成为伦理风险频发的关键因素。深入伦理规范设置的决策过程,也可以发现伦理规范如何设置以及如何作用并没有统一路径,或者说单一“自上而下”的路径难以发挥伦理规范的应然效力。因此,创制过程伦理规范难以统一和难以持续成为人工智能技术发展要解决的前提问题。

另一方面,作为人类使用物的人工智能产品在消费使用过程中,不同主体的伦理遵循也会导致人工智能伦理后果的严重差异。与此同时,因为使用主体本身道德素质的差异,对于人工智能使用存在不同认知,在关键人工智能产品,如智能武器等,使用时一旦出现特殊情况,极有可能造成伦理风险和社会风险。无论是作为创制主体还是消费使用主体,主体缺失伦理规范所导致的责任不明、角色不清等情况,对于人工智能技术创新和产品使用都会带来不可避免的负面影响,亟需引起社会的普遍关注。

在弱人工智能阶段我们明确人是人工智能技术创制和产品使用的唯一主体,但是随着强人工智能和超人工智能的可能出现,我们必须进一步思考人工智能自身是否具备主体性,也就是说人们关于人工智能是否是伦理主体认知的差异会带来不同的伦理后果。无论是自然物、社会物还是人造物,成为伦理主体或者是道德主体,必须具有自我意识、独立行动、深入学习的能力。就人工智能的本质和发展前景而言,人工智能成为伦理主体是我们必须做好的现实应对。因此,我们需要把以人工智能为代表的人造事物伦理标准清晰明确,与人类道德伦理范畴体系紧密融合,赋予其合理规范的伦理角色。

2.关系因素:情境变革中的矛盾展现

人工智能是一场全新的技术革命,同时也是一次全新的伦理革命。它既产生于一定的社会关系,也会对现存社会关系产生一定影响。人工智能技术最终呈现的是当时人们社会的思维判断和行为选择,时空这一根本场域决定了人工智能伦理风险的全部内容。当今时代发展愈加多元和复杂,对技术的社会性需求前所未有,众多的技术创新全面改变了我们生产生活方式,也从根本上形塑着我们生活的物质世界和精神世界。可以说,人工智能一方面重塑了人类生产生活的社会情境,另一方面也在适应新的社会情境中面临新问题新挑战。时代的深刻变革和调整必然导致人工智能发展领域出现新的突出矛盾,这是人工智能技术发展中趋利避害所不能忽视的时空条件。

伦理情境面临深刻变革主要集中表现在三对矛盾之中:一是人工智能伦理需求本土化和技术发展国际性之间的矛盾。伦理道德本身具有自己特定的历史生成土壤,带有鲜明的民族特征,在历时性发展中不断丰富和发展,成为本土文化的重要组成部分,内在地决定了人工智能发展的伦理维度必须从本土伦理规范出发。但是作为技术性发展,人工智能技术是国际化合作的产物,这就出现了本土化伦理需求和国际化合作发展之间面临着伦理规范如何协调统一的问题。二是人类发展整体性与个体隐私独立性之间的矛盾。人工智能技术出现的根本原因是为了满足人类日益多元化的发展需求,为了增进全人类的共同福祉。同时,现代社会更加注重个人发展的主体性,强调个人独立。人工智能越满足人类发展需求,就越弱化个体的独立性,技术理性对私人领域生活的控制则越加强化。三是传统主体实体化与信息虚拟性之间的矛盾。传统伦理情境中的人机关系是以人为主导并且人是唯一的主体。作为一种客观实在,单个人正在经历前所未有的虚拟性生存体验,人工智能正在脱离传统伦理情境。在人工智能算法之中,虚拟性的伦理设置难以有效应对实体化的复杂伦理实际,甚至于产生一定的伦理断裂。

3.行为因素:实践意义认知差异与原则淡化

人工智能技术的出现,不仅仅是对伦理规范意义上的挑战,更是对伦理实践意义上的考验。按照阿萨罗的说法,人工智能伦理的基本问题分别是如何植入伦理、人类遵循何种伦理规范以及人们如何对待人工智能体。毫无疑问,这都涉及到对人工智能伦理实践意义的思考和讨论。关于人工智能实践活动的伦理争议从未停止,从伦理实践角度反观人工智能发展问题也同样如此。

当前处于弱人工智能阶段,人工智能机器还不具备实践主体的资格,不仅是因为它无法构建实践性思维和原则,更无法在具体实践中主动完善和发展自己。“人类具有的智能,是一种解决问题或创造产品的能力”,这就说明了必须在实践中才能理解人类的全部伦理意义和价值,也只有在实践中才能不断完善和丰富人类伦理意义。当前从实践行为角度审视人工智能出现伦理风险的重点在于对人自身实践的讨论。

首先是人们关于人工智能伦理实践终极意义认识存在一定差异。部分别有用心的科学研究者并没有将全人类利益看成是技术研发的最高价值遵循,选择性忽视甚至主动引发灾难性的技术后果。这种带有人为预设性的研究倾向,一旦缺少伦理维度的考量与制约,技术的“潘多拉魔盒”必然成为人类生存的最大威胁,甚至会导致人类文明史的终结。

其次是人工智能伦理实践的重要原则没有得到有效遵循。阿西莫最早提出了机器人设定该有的三个原则,分别是不得伤害人和见人受到伤害不作为、服从人的指令和自我保存,这只是人们进行人工智能机器创制过程中赋予机器人行为该有的伦理准则。对人自身而言,不伤害人同样是一个重要原则。

最后是在具体实践行为中,人们出现了伦理失范的情况,导致人工智能对社会发展产生了严重的危害。实践行为没有遵循一定的伦理规范,反而突破了现有的伦理规范,造成了伦理认知上的混淆。

4.结构因素:伦理形态的嬗变与解构

伦理形态是指在一定伦理情境中形成的稳定伦理关系,通过伦理实践不断调适自身的伦理结构。关于人机关系的已有伦理形态的结构基点是坚持人类主体主导模式,坚守科学技术发展中的人类中心主义,这与当前人工智能发展新趋势以及人机关系重构之间有着一定的差距。已有伦理形态缺少对人工智能本身恰当的伦理关怀,使得伦理形态调适落后于已有的伦理实情,这也是伦理风险生成的内在结构性因素。伦理形态从来不是固定不变的,解构与重构是其最基本的结构性特征。质言之,已有伦理形态的解构是动态的变化过程,在应对伦理风险的同时也不断产生着新的伦理风险。我们要认识到“人类能在多大程度上完善自己的道德能力和人类主体模式的道德建构,就决定了人工智能体的道德能力建构的水平”,伦理形态的时代性重塑具有重要的决定性作用。

如果从形式伦理和实践伦理两分法的角度对已有伦理形态进行研究,可以发现形式伦理和实践伦理在很大程度上出现了断裂甚至对立。形式伦理是现代逻辑哲学的产物,强调通过逻辑语言、语义系统和话语情景建构一整套语言来表达伦理规则,通过语言与现象结合起来进行伦理审视。观之当前涉及人工智能的伦理形态,其形式伦理表现在通过特定概念阐释、范畴厘清等语义手段,借助于跨学科语言体系建立关于人工智能伦理的新阐释。但是随着人工智能实践发展,不同行业、不同领域以及不同国家层出不穷的伦理问题,给形式伦理带来了极大挑战。而在实践伦理中,人工智能不仅仅关联于单一伦理热点问题,同时也亟需总体审视伦理风险。由此,形式伦理与实践伦理的分裂甚至对立造成了人工智能伦理风险。可以说,形式伦理越发展,实践伦理越未知;实践伦理越发展,形式伦理越受限。人工智能作为一种技术的发展趋势,特别是关于其道德地位是否形成的讨论,也是当前形式伦理和实践伦理分裂的重要原因。已有伦理形态解决不了将人工智能看成伦理主体的风险问题,它的重构与人工智能发展密切相关。

三、人工智能伦理风险的规避路径

伦理风险的图景展现向我们昭示着人工智能技术发展任重道远。对于伦理风险的审思和规避,决定了未来人工智能发展的走向,也直接关系到人类社会自身发展的前途命运。在面向人工智能时代的伦理实践之中,我们需要从真实的伦理冲突和矛盾出发,在实践中凸显人类智能的伦理智慧,让人工智能真正成为文明发展的有利因素。

1.始终遵循实现人类共同利益的最高伦理规范

伦理规范最终指向的是人类生存意义的人文关怀,是对于工具理性的伦理规约,进而实现价值理性与工具理性的协同发展,并且突出强调价值理性的根本地位。众所周知,马克思·韦伯将理性主义体系划分为工具理性和价值理性,以此作为认识近代社会发展尤其是资本主义精神的重要内容。在韦伯的阐释中,工具理性具有手段的作用,意指资本主义精神通过形式化和技术化的方式展现出来;价值理性则关系到对人类生产生活根本问题的追问,具有目标导向的作用。现代社会日益显现出工具理性与价值理性的分离,尤其是科技革命的迅猛推进,出现了“科技是第一生产力”“科技就是意识形态”等观点,强调科学技术及其理性日渐成为社会发展的强大动力。科学技术的显著推动作用是毋庸置疑的,但是日益繁盛的工具理性逐渐主导理性主义并消释价值理性,业已形成了诸多现代化难题。“能进行自主决策的人工智能,无论其能否自我改进,本身就必然需要一个'价值库’,这是其行为准则。”对人工智能伦理风险问题而言,重新确证价值理性指导地位和规制工具理性作用显得尤为重要和关键。

“科学研究过程中渗透着主体研究的旨趣和主观经验,而且科学运用过程也离不开主体的道德责任和伦理价值观的指导。”无论是创制主体的科研活动者还是使用主体的普通民众,或者是不同国家、不同行业的人工智能领域从业人员、政府部门都应该明确人工智能的根本价值在于为人类谋求福祉,促进人与人、人与机器、人与社会、人与自然的和谐共生。将谋求和实现人类共同利益作为最高伦理规范,才能真正统一起价值理性与工具理性,并且确证价值理性在社会发展中的目标指向作用。可以说,随着经济全球化和构建人类命运共同体的深入发展,人工智能技术发展的走向将直接关系到全人类的共同利益。要想避免技术统治和技术垄断甚至是技术殖民的情形,必须加强国际合作。为此,需要成立国际性伦理规范委员会,对有关国家人工智能技术创制和产品使用制定具有针对性的伦理准则,使相关国家政府认识到具有高度一致性的伦理约束具有极端重要性。通过这样的伦理规范平台,才有可能将维护和增进全人类共同利益落实到人工智能发展的全过程,不断丰富价值理性的深刻意蕴并发挥工具理性的功能作用。

2.深刻遵循伦理实践的基本原则

一方面,我们要分清针对弱人工智能的一般性伦理规范以及针对可能出现的强人工智能以及超人工智能的特殊性伦理规范。既要从一般性规律出发,也要考虑到未来特殊情况的发生,从规范意义的角度做好预设工作,至少要通过算法将目前已经达成的伦理共识输入到人工智能机器。我们要高度重视通过实践来检验和完善人工智能伦理,尽可能提高复杂伦理情境下人工智能的判断能力。我们需要将人工智能的深度学习策略建立在充分的实践基础之上,对于相关伦理风险展开预测和评估,最大程度上在有限理性的范围内提升人工智能的“类主体”思维的养成,在一定伦理规范约束中发挥重要作用。实践这一马克思主义的基本观念就是我们审视和规避人工智能伦理风险的根本立场,只有立足于实践才能“超越一般哲学停留于科学认识论、抽象人性论的局限,表现出深入到资本统治与技术控制的历史深度的批判性优势”。

另一方面,在具体伦理实践中,必须遵循如下基本原则。一是要坚持伦理先于技术原则。在人工智能创制过程中,首要就在于设定确定性的伦理规范,技术创新也必须按照对应的伦理要求来展开。二是坚持不伤害原则。人工智能技术发展绝不能危害人的生存发展,不能对人产生实质性的伤害。人工智能作为延展人的智能的技术形式,与人自身紧密结合。因此,在其创制和使用中都要始终明确不伤害原则,特别是要严厉禁止危险性人工智能产品的研发。三是坚持公正原则。技术发展是一种共享资源,其最终成果需要落实到全体人民。所以,人工智能技术应该做到公开透明,不应成为少数精英的垄断专有。在使用过程中更要坚持公正原则,促进社会整体发展。四是底线原则。技术的实践行为是意向性活动,认知上的不足或者差异都有可能造成某些底线被突破,进而影响到人工智能的整体发展。我们在实践过程中必须牢牢树立底线思维,明晰界限,明确范围。

3.深入推进人工智能伦理制度建设

当前人类现有的知识概念和规范体系在应对人工智能伦理问题的时候容易出现制度性风险,因此伦理规则的制定必须通过一定的伦理制度建设和法律建设,明晰人工智能技术的发展空间,对其进行有效监管和评估。人工智能越发展,机器越自由,就越需要道德规则,也就越需要制度约束。特别是在道德伦理无法作用的特定领域,伦理制度建设将起到至关重要的作用。当前人工智能处于弱人工智能阶段,应该把建立事前监管和事后评估制度、风险预判机制等作为制度建设的关键,还需要不断健全关于隐私权的法律规范体系。

人工智能发展方兴未艾,已经提出来的伦理规范或者准则应用于具体的操作场景必须细化为具体的体制机制。从人工智能技术创制的角度来看,加强伦理制度建设需要严格制定产业研发人员的伦理工作标准,形成科学完整的工作机制,以此强化相关人员的责任意识。需要特别指出的是,对于具有危险性或者战略性的人工智能产品,要建立专家评估制度,形成关于该问题的专家智库。既要从算法程序上作出合乎道德伦理的设计,又要对产品研发与投入使用进行全程介入、全程监管。与此同时,对于人工智能可能带来的伦理风险形成集识别、监测、预警、反馈和决策为一体的风险防控机制,建立以“预警安全”为核心的风险模型,使其能够判别一项人工智能技术有什么风险、风险有多大以及是否禁止等。制度建设还需要与法律建设同步并举。当前最为迫切的是对于隐私权要进行更高水平、更有力度的法律规范。要设置专门条例,建立隐私数据保护库,严格规范对隐私数据存取的行为,切实保护隐私安全。

4.协同建构人机发展新型伦理关系

规避人工智能伦理风险须适应正在变革中的伦理情境,进行伦理调适,重构新的人机伦理形态。“新技术革命书写了人类道德进步的新范式,不仅加快了道德进化的速率,还把道德还原成一种技术性存在”,这就是当前伦理情境的新变化。环境的变化,意味着已有的伦理形态有可能难以为继,所以必须重构新的伦理形态,适应动态变化中的伦理情境。

人工智能技术每向前发展一步,人工智能伦理关系便需要向前一步。协同建构新型人机关系是人工智能伦理发展的题中之义,也是破解人工智能伦理风险的根本之策。首先,新型人机关系的构建必须从统一价值观和规范体系相一致开始。一方面人类自身需要认真审思人工智能纳入已有道德范畴的问题,针对出现的伦理风险及时应对并改进伦理规则;另一方面人工智能在合乎道德规范的算法设计中,努力增强伦理道德学习能力,在实践情境中靠近人类思维和行为。其次,新型人机关系的构建仍然需要坚持人的主导地位,明确人工智能或者机器人主要在于辅助人的工作。人机协作要建立在相互了解基础之上,以此形成人机共振的良好结果。再次,新型人机关系的构建需要进一步推进人工智能技术发展。人工智能带来的伦理风险绝不应该成为限制甚至于抵制人工智能技术发展的理由,恰恰要在技术发展过程中发现伦理问题、解决伦理问题。要把不断改善算法设计、优化产品研发、提升协同能力、增进互信共识作为发展人工智能的重要内容,在实践中丰富与发展人机关系的时代内涵。日益多元化的伦理情境变革,提出了人工智能已有伦理形态的革新命题,我们要在人类伦理范畴的整体性框架中推进两者结合,使得两者产生良性的双向互动,提升应对伦理风险挑战的调适能力。

来源:《伦理学研究》 

2021年第1期(注释已略,如需请查原文)

本期编审:吉磊

本期编辑:刘芝佑

(0)

相关推荐