娄雪洋:论人工智能致人损害的法律规制

娄雪洋  中国政法大学法学院硕士研究生。

内容摘要
伴随着AI技术的发展和应用,人工智能致人损害的纠纷也不断涌现,对我国的现行法体系提出了考验。以自动驾驶汽车为例,根据其致损原因的不同,可将自动驾驶汽车致人损害分为人为操控下致人损害、 因其产品缺陷致人损害以及因其自主行为致人损害三种情形。结合目前我国人工智能的发展状况,出于对不违背现行法律体系整体上的安定性又不无视人工智能致损问题的特殊性的双重考量, 对现行侵权法体系进行适当的调整并辅以必要的配套机制便可解决此问题,而无须赋予其法律人格。

关键词:人工智能  致人损害  归责方式  配套机制

随着“人工智能+”时代的迫近,人工智能的迅猛发展深刻地影响着人们的生产和生活方式,并且已经渗透到教育、医疗、养老、环境保护、交通、公共服务等各个领域,对个人、国家乃至整个人类社会影响深远。在个人层面,关于人工智能致人损害的纠纷不断涌现。在国家层面,人工智能已然成为很多国家发展战略的重要内容,也是现在乃至未来各个国家经济和科技竞争的重要领域。任何新兴产业的成长和繁育无不需要法律的配合与支撑,我国想要抢占人工智能全球制高点,就必然要健全相关的配套法律机制,对人工智能致人损害的法律规制就属于其中的重要内容。人工智能本身的自主性、难以预见性等特征也意味着我们必须在现有法律体系的基础上结合人工智能自身的特性对其致损行为的法律规制进行重新审视与完善。
目前,我国学术界关于人工智能致人损害的法律规制主要有两大观点:一是循用现行侵权法体系尤其是产品责任及替代责任来规制,不宜赋予人工智能以独立人格;二是借鉴法人制度通过法律拟制赋予人工智能以法律人格使其自身承担相应责任。
人工智能作为一个新兴的课题,目前学界对其致损问题的法学研究尚不甚多,该问题尚存极大的探讨空间。在当前的研究文献中,多数研究人员都是从整体上探究人工智能致损行为的法律规制,或者以脱离人为控制的程度为划分依据探究智能程度不同的人工智能致人损害案件的归责范式。这就忽略了以机器人的智能程度进行分类的不周延性以及相邻类别的界限模糊性。而本文将直接着眼于人工智能致损原因的不同,探究差别化的归责设计。结合目前我国人工智能的发展状况,综合考量现行法律体系整体上的安定性及人工智能致损问题的特殊性,探究切实可行的路径,以期实现既不阻碍创新又能最大程度上防控风险的良好效果。
一、 何为人工智能

早在1956年的达特茅斯学会上,“人工智能”这一概念就被提出,并被确定为一个崭新的研究领域。经历了六十多年的发展,特别是随着互联网与计算机技术的发展,其进入全新的快速发展时代,对人类生产生活的影响日益凸显,也为愈来愈多的大众所知悉。然而直到今天,人人皆谈“人工智能”,却尚无人能够对其提出一个较为准确的、能被广泛接受的定义。

定义人工智能的主要困难在于如何定义“智能”。而人类是众所周知的拥有智能的天然且唯一的主体,那么界定人工智能势必要以人类的特征为参考,著名的图灵测试实质上也以此为原理。因而目前对人工智能的界定主要分为四类:像人一样思考(thinking humanly);像人一样行为(acting hu-manly);理性思考(thinking rationally);理性行为(acting rationally)。其中前两类从与人类表现的逼真度的维度出发,后两类从合理性的、理想的表现量的维度出发。但不论是“像人一样”的逼真度描述还是“理性”的表现量描述,似乎都不能为人工智能提供一个法律上的清晰界定,因为人本身的特质就是复杂多样的,而“理性”也本就为一个较为抽象和泛泛的概念。

本文也难以对人工智能给出一个较好的定义。所以为了避开概念的模糊性,本文将以自动驾驶汽车为载体,仅讨论由算法驱动的、并配合传感器、控制器、执行器等装置,通过信息共享、环境感知、协同控制、智能决策等实现一定目的或功能的有形机器人比如自动驾驶汽车、医疗机器人、制造作业机器人等致人损害的归责范式。另外,为了避免以机器人的智能程度进行分类归责的不周延性以及相邻类别的界限模糊性,本文将直接以致损原因为依据,将人工智能致人损害的情形分为人为操纵致损、产品缺陷致损、“自主行为”致损三种情形,并在此三种情形之下讨论各自的归责范式。

二、人工智能致人损害归责方式的分类化讨论——以自动驾驶汽车为例

(一)人为操控下自动驾驶汽车致损的归责方式

“智能网联汽车(也即自动驾驶汽车)自动驾驶包括有条件自动驾驶、高度自动驾驶和完全自动驾驶。有条件自动驾驶是指系统完成所有驾驶操作,根据系统请求,驾驶人需要提供适当的干预;高度自动驾驶是指系统完成所有驾驶操作,特定环境下系统会向驾驶人提出响应请求,驾驶人可以对系统请求不进行响应;完全自动驾驶是指系统可以完成驾驶人能够完成的所有道路环境下的操作,不需要驾驶人介入。”

在有条件自动驾驶和高度自动驾驶的情形下,驾驶员均有参与驾驶任务的可能,只不过在有条件自动驾驶的情形下驾驶员的参与度和参与频率更高,所以,此二种自动驾驶汽车致人损害均可能是缘于驾驶员的过错。当事故是由驾驶员积极或消极的不当操作导致时,自动驾驶汽车作为一种交通工具和普通汽车一样适用道路交通事故责任。道路交通事故责任的构成要件包括违法行为、损害事实、因果关系以及过错。而与普通机动车交通事故相比,有条件自动驾驶汽车和高度自动驾驶汽车的交通事故中,损害事实和因果关系的举证与前者并无二致,但驾驶员的过错及违法行为却较难举证。因为普通汽车运行时驾驶员全程操作,除了汽车本身存在缺陷的特殊情形外汽车完全按照驾驶人的意志运行, 因而可以依汽车的运行状态反推驾驶员的操作行为从而判断其操作违法与否;而有条件自动驾驶汽车和高度自动驾驶汽车运行时驾驶员仅间或操作,大部分行程由自动驾驶汽车自行完成,故而自动驾驶汽车的运行状态并不能反映驾驶员的操作行为,此时由受害一方对驾驶员的违法操作行为进行举证就极为困难同时也有失公允。此问题或许可以考虑以举证责任分担及自动驾驶汽车的内在技术装置要求比如安装内部监控和驾驶员操作记录仪来解决。具体而言,发生事故时,受害一方仅需对自动驾驶汽车存在违法行驶状况进行举证而不必具体到驾驶员的不当操作,而驾驶员则需证明自己参与驾驶任务的过程中并无过失且已充分尽到注意义务方可使自己免于为自动驾驶汽车自身的产品缺陷或失控事故担责。

(二)自动驾驶汽车的产品缺陷致人损害的归责方式

自动驾驶车辆的主要功能和市场价值就在于自治行驶,因而其应该在自动驾驶模式下不论对乘客还是对其行驶道路上的其他主体均要保障基本的行驶安全,尤其是对于不存在辅助操控驾驶员的完全自动驾驶汽车而言,原本由传统车辆驾驶员承担的基本注意义务就会转化为产品责任。“产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身伤害、财产损失或者有致使他人遭受人身伤害、财产损失之虞而应承担的赔偿损失、消除危险、停止侵害等责任的特殊侵权责任。”而产品缺陷,是指产品存在危及人身和产品之外其他财产安全的不合理危险,包括制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷等。因而在设计、生产、销售、运行的不同阶段,自动驾驶汽车的设计者、生产者、销售者都要克尽谨慎的注意义务,保证各自的环节免于缺陷。

1.设计者责任
设计者需要保证其设计的自动驾驶汽车不存在不合理危险,即能够在可预测的所有情境之下都能够保持安全行驶, 比如必须具备包括但不限于:“限速信息识别及响应、 跟车行驶(包括停车和起步)、车辆碰撞自动紧急制动、前方车辆变更车道检测及响应、障碍检测及响应、并道行驶、超车、靠路边停车、交通信号灯识别及响应、行人和非机动车识别及避让、交叉路口通行、环形路口通行、道路弱势群体碰撞自动紧急制动、车道保持控制、探测并避让对向来车、停车场通行、网联通信、碰撞前的数据捕获等功能。”然而问题的关键主要在于:相较于制造缺陷,设计缺陷在实践中往往很难认定。因为制造缺陷通常可依是否符合设计方案来判定,而设计缺陷则是指设计方案本身欠缺某些科学合理的考虑,其没有可供参照的评判标准。而我国《产品质量法》仅对产品缺陷进行了笼统的界定,即以存在不合理的危险以及不符合国家标准、行业标准来认定产品缺陷,这对设计缺陷的认定几乎不具可操作性,因为国家标准、行业标准往往是针对制造环节的,且通常以设计方案为参考。此外,与制造缺陷主要关注产品自身性能相比,设计缺陷需要结合多种因素综合判断,比如自动驾驶技术的社会效益和成本,替代设计的技术可得性及其成本等。
需要注意的是,在归责原则方面,设计缺陷与制造缺陷不同,不宜适用无过错责任。首先,设计者的程序设计往往以其设计当时的科技水平和应用环境为基础,而科技水平与应用环境总是不断地变化发展的,从上帝视角要求存在于有限时间和空间的设计者,对其依据既有最新科技水平得出的设计方案承担其所不能预知的风险和责任,显然是不合理和不公平的;其次,如若对设计者苛以严格责任,就意味着即便其于设计当时已经穷尽了最新的技术水平和专业知识但仍需要为其注意义务和能力范围之外的风险负责,从而促使其以牺牲产品效用为代价来避免任何可能的风险即便这种风险相对于效用而言只是细微的, 这种做法的宏观效应就是可能阻碍技术创新和产业进步,从而违背了立法的初衷。笔者认为,对设计者的设计责任应当采用过失责任原则,而对其过失的判断可采用“风险——效用”标准,即设计者“修改设计以消除危险”的边际收益大于边际成本,那么修改设计以消除危险就是一个谨慎合理的设计者所应当做的,若其未采取这种理应修改的设计方法就是有过错的,应当对其设计缺陷承担责任。否则,其设计就应该被认为没有缺陷,设计者无需担责。当然,关于设计缺陷的认定并非法律所能单独解决的问题,还需相关专业人群从技术层面展开细致的商讨和确定。
此外,自动驾驶汽车作为具有一定自主决策和行为能力的智能机器人,其驾驶行为基于算法而产生。算法的内部设计和形成逻辑决定了自动驾驶汽车决策过程及最终的外部行为,然而算法在设计之初就融入了设计者的技术考量、行为模式和价值伦理选择,且算法自动化决策存在着信息茧房、引发隐私泄露、算法歧视等风险,这就意味着对算法的规制便成为必要。那么如何对自动驾驶汽车的自动化决策系统———算法进行规制呢?在现有的学术研究成果中,公开源代码增强算法透明和增设算法解释权成为众多国内外政策制定者和学者所提倡的主要监管思路。然而,公开源代码似乎并不能有效解决算法规制难题,即便算法透明可知,也并不意味着算法问题能够被发现,因为在算法生成后的运行过程中,就算是设计者也难以保证能够预测到算法在与其具体运行情景进行交互的过程中会产生何种结果。此外, 公开源代码还与个人隐私、商业秘密、专利保护等问题存在潜在冲突。而增设算法解释权方案也面临着诸多问题,比如算法模型所采用的高度复杂和精密的运算方式难以用一般的语言表达方式阐明,也就是说欠缺可解释性。退一步讲,即便算法可以准确解释,但受害者作为非专业人士也很难理解,而若委托专业人士代为解读则增加了受害人的成本负担。故此,公开源代码增强算法透明和增设算法解释权两种方案均难以切实有效地规制算法风险。笔者认为,可以考虑在设计算法时通过法律强制或者行业标准等方式将特定的政策和价值标准嵌入设计者的编程,以代码规制代码,例如拟定人工智能设计的伦理准则、算法治理原则等等,比如阿西莫夫就提出了著名的“机器人三大定律”。该等准则、原则的确定需要计算机科学家、伦理学家、法学家等各界学者的协同努力,鉴于自身研究能力及专业领域十分有限,笔者对此不加妄议。
2.生产者与销售者责任
与普通汽车无异,当由于自动驾驶汽车的制造缺陷、设计缺陷、警示说明缺陷等导致他人人身或财产损害时,生产者和销售者应承担产品责任。其中制造缺陷是指制造终端产品的原材料或零部件存在问题或者装配过程中存在操作失误。当然,在实践中原材料或零部件的缺陷可能并非由生产者或销售者所致,也可能是运输者、仓储者、零部件提供者、原材料提供者在相应环节存在问题,但由于产品责任系严格责任追责时不问过错,所以生产者和销售者仍要承担责任,只不过其现行赔付后可以向其他最终责任人追偿。且生产者与销售者之间为不真正连带责任,受害者可以就近选择任一方承担全部赔偿责任而对方不能拒绝。
需要注意的是,智能产品的特殊性往往意味着其原材料比较特殊、零部件比较精细且各部件之间的相互影响较大,因而为了便于追责,其材料和零部件须做好标识且每个环节做好检验检测记录。此外,智能产品自治运行的特质也对生产者、销售者的警示说明义务提出了更高要求。以自动驾驶汽车为例,生产者必须标明其正确的操作方式以及紧急情况的应对措施,此外,由于自动驾驶汽车不可能一次性取代市场上的普通汽车,即二者可能在很长一段时间内会共用公共交通,为了普通汽车驾驶及乘车人员的安全,自动驾驶汽车必须以明确的标识标明其性质以提示其他普通车辆。
通过上述分析可知,智能机器人因产品缺陷致人损害的情形基本可以由我国现行《侵权责任法》《产品质量法》及《消费者权益保护法》来调整,但普通产品的主要区别在于关于设计者责任我国相关法律基本空白尤其是在设计缺陷的认定方面缺乏可操作的具体规则和标准。且当智能机器人因产品缺陷致人损害时其具体缺陷所在环节很难辨认,这就意味着:与普通产品相比,智能机器人致人损害时设计者、生产者、销售者、操作者之间的责任划分比较困难,而这本质上需要依赖技术手段,而非法律能够单独解决的。但随着责任主体的扩大,法律也需要作出适时的调整。

(三)自动驾驶汽车的“自主行为”致损的归责方式

机器学习算法是人工智能的重要技术基础之一。机器学习就是让机器能够像人一样具备从周围的事物中学习并利用学到的知识进行推理和联想的能力。通过机器学习,智能机器人可以通过自组织、自适应、自学习从周围的环境中攫取数据、捕捉信息、总结规律从而生成新的规则并依照该规则进行自我调整和适应,进而使其行为和决策偏离预期,而即便是最专业的设计者对智能机器人投入使用后所接触的数据也是无法统计的,更难以预知和控制其依据自主学习生成的新规则所能作出的决策和行为。换言之,智能机器人完全可能存在其自主“意识”作用下的致损风险,而这种风险由于是设计者、生产者、销售者乃至操作者所无法预料和防控的因而不能列入其注意义务的范畴,如果强行让其担责,无疑会阻碍技术创新和产业发展。那么此种致损类型将如何归责呢?

首先,笔者并不赞成参照雇主责任、动物致损责任或者监护人责任等用替代责任解决此问题。第一,通过上文分析,设计者、生产者、销售者尚因人工智能“自主行为”致人损害的不可预料和难以控制性而不能成为归责主体,那么让无论在技术知识还是担责能力上相对于设计者、生产者、销售者等主体均往往处于弱势地位的所有者对智能机器人的失控行为承担替代责任显然不合情理。第二,人工智能自主侵权与雇主责任、动物致损责任和监护人责任在构成上存在本质区别:雇主责任中的直接侵权人雇员是具有人格的人而人工智能没有从而也无法区分职务行为或者非职务行为;监护人责任亦如此,因为被监护人也是具有生命和人格的人;也就是说雇主责任与监护责任均以相关主体间的人身关系为潜在的前提,而人工智能难以满足此要求除非赋予其法律人格。至于动物致损,自然人对动物的管控能力和对人工智能的管控能力是难以类比的,将二者适用同种归责方式难免牵强。

那么,赋予人工智能以法律人格是一条可行的路径吗?笔者将从当前我国人工智能的发展阶段、智能机器人的应用范围、我国现行法体系等方面进行分析。

就目前人工智能的发展阶段而言,“我们正处于弱人工智能向人工智能的过渡阶段。”此阶段的人工智能仍作为人类生产和生活的助手而存在, 通常仅能代替人类完成某一方面的单一技能,且多在人的操作下进行,并不会高频率甚至大范围地出现完全脱离人控制的“自主行为”。其次,从我国人工智能的实际应用来看,人工智能的研究多处于基础层和链接层,应用层虽在图像识别、自动驾驶、医疗影像智能金融等方面有所突破,但基本还处于较低程度的人机协作阶段且并未大范围普及。以自动驾驶汽车为例,我国低端车型销售比例较大,辅助驾驶技术的渗透率仅为3%左右,且所谓的自动驾驶尚无法实现完全的无人驾驶。因而人工智能失控致人损害的概率较小。从现行法律体系来看,赋予人工智能以法律人格,将会颠覆我国民法人物二分法的体例,从而对整个民法规范产生牵一发而动全身的后果。最重要的是,值此人工智能技术发展尚不成熟、顶层设计基本缺位,技术鉴定、监管办法、保险制度等配套机制仍然空白的情况下,贸然赋予人工智能以法律人格无疑会沦为空中楼阁,虚有其表却不能发挥实际效用。虽然欧盟立法建议提出智能机器人应当取得独立人格,但也未说明具体的承担责任方式,且欧盟人工智能的发展和应用程度有异于我国。需要说明的是,笔者并非否定和排除了未来人工智能发展到一定程度通过法律拟制给予人工智能以独立人格的可能性,因为参照公司法人人格独立制度来看,独立人格并不以具有和自然人一样的天然生命为前提。至于意志能力,人工智能之所以称为“智能”就是因为其具有一定的思考和感知能力,而这种能力会随着技术的发展愈加强大。至于独立财产,亦可以像公司制度一样通过制度设计来实现。总而言之,不能赋予人工智能以独立人格的主要障碍不在于法律本身而在于其自身的发展及应用程度和社会的现实需求。至少在包括目前在内的很长一段时间内,这是没有现实意义的。

人工智能的“自主行为”致人损害的赔偿问题可以通过强制责任保险制度来解决,但其保险当事人、责任限额等内部具体机制应当有异于机动车交通事故责任强制保险。首先,人工智能强制保险应由生产者而非所有者作为保险费支付义务人, 其一是因为生产者的负担能力和风险防御能力比较强,其二是因为生产者可以以价格调整的方式将保险成本进行分化,此外还可以以此作为一种倒逼机制促使生产者及时履行跟踪观察义务并及时进行系统的调整与升级。就具体的运行模式而言,当生产商想要从事人工智能产品的生产经营活动时,购买责任保险是其获得生产许可的前置条件。至于保险费率,不同的人工智能产品可能导致的风险不同,比如医疗机器人的产品责任事故风险通常高于普通工业制造机器人,其保险费率就相对较高。其次,保险费率还受被保险人的信誉记录等因素的影响,至于最终需要市场机制下保险人与被保险人的博弈来确定。但对保险责任限额必须进行一定规制,因为这直接关系到对受害人赔付标准,具体而言以能够满足大部分受害人的基本赔偿请求为前提同时不影响保险公司的正常经营,这需要运用统计学和精算学进行科学确定。此外,应该严格限定免责条款,以防保险人以降低赔付风险为目的肆意添加免责条款从而限制被保险人的保险金赔付请求权。要言之,通过强制责任保险制度能够将人工智能致人损害的风险负担进行社会分化,从而达到人工智能自主行为致人损害时既不至于使受害人无从索赔,又能够很好地平衡设计者、生产者、销售者及使用者等主体间的义务和责任的良好效果。

总之,人工智能致人损害的法律责任,并不能单一地由一般过错侵权责任、产品责任或者替代来解决,必须根据不同的致损原因即操作人过失还是产品缺陷抑或是人工智能的自主行为而适用不同的归责方式。

三、责任落实之配套机制

通过上文分析可知,除了设计缺陷致损及自主行为致损两种特殊情形外,我国现行侵权法体系基本可以调整人工智能致人损害的大部分情形。换言之,对于人工智能致人损害的规制,关键问题不在于法律规范的缺位,而在于事故原因鉴定、产品缺陷标准、审批及监管等配套机制不完善。对此,笔者认为可以考虑以下思路。

成立人工智能发展委员会,且委员会应由法律人、人工智能相关技术研究人员、人工智能产品研发制造企业等主体多元构成。人工智能的技术复杂性和专业性要求立法、司法乃至执法人员具有更高的综合素质。不论是设计环节中设计缺陷的认定,还是生产环节制造缺陷的认定,抑或是具体事故原因的认定均非普通的法律职业者所能完成的。换言之,对于人工智能致人损害的法律责任的设计和落实,需要法律与算法的融合,也即法律人与人工智能技术人员的合作。而多元构成的人工智能发展委员会无疑将为此提供一个平台。另外,其也会对相关标准的制定创造条件。其在他国也不无先例,美国白宫科技政策办公室副主任迈克尔·克拉希欧斯(Michael Kratsios)于2018年5月10日即宣布将组建人工智能特别委员会。
建立健全人工智能产品授权审批及登记备案制度。人工智能产品具有极强的精密性和专业性,“在人工智能的代码编写和算法建模中, 更容易看到一些微小的疏漏以让人无法预料的序列连续发生,就有可能变成更大的、更具有破坏性的大事故”。故而对人工智能的程序编码及构造进行审批和登记不仅能够发挥事前预防把关的功能,还可以为事后追责奠定基础。当然,此种审批和登记与普通的行政许可与登记不同,需由专业技术人员来完成。
成立专门的监管及事故责任认定机构。人工智能是一个科技黑箱,人工智能的研发具有秘密性、分散性、不连续性及不透明性。非专业技术人士根本无法对其进行解释,更无从对人工智能致人损害时的事故原因进行鉴别认定,普通的被侵权人更无从举证。这就需要由对人工智能的伦理价值、算法逻辑等领域有着清晰理解的专业团队来完成这些工作。
相应的配套机制是不可能列举穷尽的,笔者在此只是做一个启发式的思考,而具体的体系构建仍需随着人工智能的发展情况进行调整和补充,而此条道路可谓任重而道远。结语针对人工智能致人损害这一问题,现行侵权法体系不可否认地为该类纠纷中部分情形提供了解决途径,但也主要集中在人工智能的产品缺陷致损这一情形中,但其中关于设计者的责任仍需要进一步明确。此外,随着AI技术的不断进步与深入应用,人工智能脱离控制的自主侵权行为将不断涌现,此时我们便不得不意识到现行侵权法体系在这一问题上的缺位。当然,这不意味着必须对现有法律体系进行重建式的变动,而是在现有基础上辅以相应的配套机制以及调整式的补充即可,以达到既维护法的安定性又不阻碍创新的良好效果。
上海市法学会
上海市长宁区昭化路490号金森大厦
来源:《上海法学研究》集刊2020年第7卷(中国政法大学、西南政法大学商法文集)。转引转载请注明出处。
(0)

相关推荐