商建刚|人形机器人的侵权责任体系

B站影视 2025-01-20 10:14 3

摘要:人形机器人进入日常生活与非专业性用户互动产生了“自主安全悖论”与“拟人化陷阱”,但我国缺失人形机器人的侵权责任制度。从隐喻的视角分析欧盟、美国、日本等域外的人工智能产品治理范式发现,将人形机器人视同“动产”“儿童”“宠物”“电子人”“法人”等“一刀切”的模式均

人形机器人进入日常生活与非专业性用户互动产生了“自主安全悖论”与“拟人化陷阱”,但我国缺失人形机器人的侵权责任制度。从隐喻的视角分析欧盟、美国、日本等域外的人工智能产品治理范式发现,将人形机器人视同“动产”“儿童”“宠物”“电子人”“法人”等“一刀切”的模式均不符合其技术特征。人形机器人的自主性纯粹是技术性的,属于具有自己特征和含义的新“智能”物。产品缺陷责任、替代责任、保险责任等任何单一范式均无法规制人形机器人的侵权责任。可以基于汉德责任公式和合理的替代测试标准,构建适用于人形机器人制造商、系统程序开发商、算法设计者、运营商和操作用户的链式责任治理模型。

一、问题之提出

人工智能(AI)与人形机器人(也称仿人机器人)的“双剑合璧”,预示着“具身智能”时代的来临。2023年11月2日,中国工业和信息化部颁布的《人形机器人创新发展指导意见》指出,人形机器人有望继计算机、智能手机和新能源汽车之后,成为又一深刻改变人类生产与生活方式的颠覆性产品,并将重塑全球产业的发展格局。2022年,全球人形机器人市场规模达到11.1亿美元,预计将在2023年至2030年以21.1%的年复合增长率增长。2023年12月29日,深圳某科技股份有限公司在香港交易所主板成功上市,标志着“人形机器人第一股”诞生。预计到2035年,中国的人形机器人市场规模将达到1540亿美元。

然而,人形机器人也带来了新的法律治理困境。正如欧洲议会在其关于机器人法律责任的决议中指出:“传统规则无法充分应对由机器人引起的法律责任问题,因为这些规则无法明确应承担赔偿责任的相关方,并要求其补偿所造成的损害。”譬如,若医院在使用人形机器人作为手术助理时已尽到合理的注意义务,但因人形机器人的自主性而对患者造成的损害,患者是否有权从医院获得赔偿?如果人形机器人的行为变化并非源于产品出厂时的缺陷,而是与其环境(包括非专业用户)的实际交互经验所致,那么损害责任应由谁来承担?同时,人形机器人在外观和功能上与人类相似,随着人形机器人自主性的不断增强,其安全风险亦随之上升,有学者将这一现象称作“自主安全悖论”。面对新兴技术的挑战,责任制度的充分性和完整性至关重要。现有法律制度在应对新兴数字技术带来的新风险方面存在潜在不足,或将影响社会的期待和信赖。

界定人形机器人的责任主体与责任范围,涉及法律、伦理以及监管层面的复杂问题。由于人形机器人在形态上的“仿人”特征及其与人类交互的特殊性,它们更易赢得人类的信任与好感。随着共处时间的延长和互动的深入,人类对人形机器人的喜爱、依赖乃至爱慕之情都有可能随之产生,使得人形机器人对人类精神利益的潜在侵犯问题愈发复杂。在理论层面,欧盟的研究者建议成立一个专门的基金来补偿人工智能造成的伤害,并明确自主系统的直接责任。在美国,有学者认为保险可以作为确定责任归属的一种机制,建议强制人工智能的制造商或用户购买保险,以弥补可能引发的损失。如此一来,受害者即使在责任不清晰的情形下也能通过保险公司获得补偿。日本的研究者则倡导更广泛的社会责任,并推动在开发和使用过程中的风险共担。在实践层面,美国政府制定了人工智能的最佳实践指南,旨在推动安全、可靠且值得信赖的AI系统的发展与部署,而具体的人形机器人法律责任问题则被留给法院裁决。在此情况下,学界尚未对法律与人形机器人进行充分的交叉研究。明确人形机器人的自主侵权责任成为当务之急,对人工智能产品责任的研究成果可以为此提供参考。本文试图从隐喻视角对人形机器人侵权责任问题进行研究。

二、法律事实:人形机器人的技术特征

相较于非人形机器人,人形机器人展现出四项显著特征。首先,在外观与结构上,人形机器人拥有与人类相似的形象,包含四肢、躯干及头部等部分,这样的设计使得人形机器人不仅在视觉上易于被人类所接纳,而且在进行人机交互时亦显得更为自然。其次,在移动方式上,人形机器人多采用双腿行走,这与人类的行走模式相仿,使其在适应多样地形及环境条件时展现出更高的灵活性。再次,在交互能力方面,人形机器人由于在外形及行为举止上更贴近人类,因此,能够透过面部表情、手势和语言与人类沟通,从而更精准地理解并响应人类的需求和指示,展现出更强的交互能力。最后,在应用场景上,人形机器人在医疗、教育、家庭服务以及娱乐等领域扮演着类人角色,而非人形机器人则可能更多地应用于工业生产和物流运输等特异性场景。

人形机器人的特性使其在侵权责任制度的研究中具有独特的价值。1942年,著名科学家兼科幻作家艾萨克·阿西莫夫在短篇小说《转圈圈》中,首次提出了“机器人三定律”,旨在为机器人的行为设定道德准则,激发了公众对于人形机器人安全、伦理和法律问题的深入思考,并为机器人相关法律的建设奠定了基础。然而,“机器人三定律”具有时代局限性,并不能完全应对人形机器人融入现代社会后可能出现的复杂局面。面对人形机器人发展所引发的一系列法律挑战,构建治理规则时需要进一步厘清人形机器人的技术事实和法律风险。

(一)人形机器人具有人形

人类是自然界中最先进的生物,人形机器人将是人类有史以来创造的最先进“创造物”。打造能够模仿人类思考与行动的人形机器人,曾是人类长久以来的梦想,它起初只见于科幻小说之中,而今已步入现实之境。人形机器人概念的渊源,可追溯至公元前3世纪的神话故事《皮格马利翁》。在故事中,雕刻家皮格马利翁依照内心中理想的女性形象,塑造了一尊象牙雕像,并将其命名为伽拉忒亚。由于皮格马利翁对这尊雕像倾注了满腔热情,深陷了爱河。爱神维纳斯被他的真挚情感所打动,赋予了雕像以生命,自此,两者便快乐地共同生活。解构该故事,伽拉忒亚事实上具备了人形机器人的三大特质:一是由人类所创造;二是拥有人类的形态;三是能被赋予生命。皮格马利翁的故事被视为人形机器人概念的雏形。20世纪,捷克作家卡雷尔·恰佩克在剧本《R.U.R.》中首次提出“机器人”的概念,并将其描述为具有与人类相似的外观。

近年来,人形机器人在机械机构、传感器、驱动系统、控制系统、人机交互等方面的技术取得了长足的进步,其外在表现也更加接近人类,引发了“拟人化陷阱”的讨论。由于材料科学和制造技术的发展,人形机器人的机械结构逐渐轻量化、模块化和柔性化。例如,日本某公司开发的“KHR-3HV”机器人采用了轻量化的碳纤维骨骼,重量仅为1.5千克却能够完成各种复杂的动作,不仅可以快速实现前进、后退等基本动作,还可以快速实现射击、出拳、打招呼、倒立等高难度动作。传感器是人形机器人感知外部环境的重要手段,人形机器人的传感器种类和数量不断增加,这使其更具“感知力”。例如,美国国防高级研究计划局(DARPA)在MIT举办的机器人挑战赛(DRC)中,参赛机器人使用了大量传感器,包括摄像头、激光雷达、深度传感器等。随着电机技术的发展,人形机器人逐渐采用电动驱动,可以实现更精准地控制。例如,日本某公司开发的“Asimo”机器人采用了高性能的电机,能够以7千米/小时的速度奔跑。随着人工智能技术的发展,人形机器人的控制系统逐渐智能化、复杂化。例如,美国某公司开发的“Atlas”机器人采用了先进的控制算法,能够在复杂地形上行走和奔跑。技术的不断更迭,使得人形机器人与人类在外在结构、感知力、运动功能实现、精确控制以及智能化等方面愈发相似。

相较于非人形,人形是机器人的最佳外形,机器人选择人形具有功能优势。首先,人形机器人可以适应人类环境。人形机器人可以在人类现有的环境中工作,而无需对环境进行大规模改造。现代社会的环境是为人类而设计的,因此机器人如果拥有与人类相似的体型和动作,就可以更容易地适应现有的环境。其次,人形机器人可以使用人类工具。人形机器人可以直接使用专为人类设计的工具,而不需要重新设计或重新适配新工具,这能降低机器人的使用成本。最后,人形机器人可以与人类更亲近。人性九七人与人类相仿的外形能减轻其“异类感”,使其能更容易被社会大众所接受。总而言之,人形机器人的“拟人化”特征使其区别于非人形机器人,能够在人类现有的环境中高效工作、直接使用专为人类设计的工具并通过模拟人类的外形和行为增强用户的接受度和信任感,从而在社交互动、情感支持和教育培训中发挥重要作用,也进一步产生新风险。

(二)人机互动产生了“拟人化陷阱”

人形机器人不仅追求模仿人类的生理特征,还在人机互动中模仿人与人的精神关联,造成“人”这一基本概念的异化,模糊了人形机器人与人类的边界,导致“拟人化陷阱”。人机交互是机器人与人类进行沟通和合作的重要手段,人形外观强化了人内传播活动,这种人内传播关系不仅深刻地影响了个体的自我意识,也会影响其在现实社会中与他者的交往关系。早期的人机交互采取按钮、指示灯等简单方式,而人形机器人的交互方式逐渐向自然化、智能化方向发展。人形机器人综合应用数据、算法与计算能力,通过机器学习及深度学习的技术使其沟通能力可能超越了人类的平均水平,从而更容易引起公众的共鸣和信任。然而,人形机器人的拟人化导致用户将其视为具有人类思维和情感的实体,这会使用户过度情感化地对待人形机器人,而忽视其非人类性和伴随非人类性的局限性。人形机器人的外观与人类相似,这使得用户更容易与之进行交流和互动,但正是这种“拟人化”使其更易侵害个人隐私。故此,已有学者呼吁应将科技伦理法律化,控制人形机器人的情感计算能力,并避免外观设计产生过度操纵风险。在应用活动中,应利用法律系统的权利义务工具和灵活的治理工具如合规认证、监管沙箱等,以实现科技发展与安全之间的平衡。与人形机器人一样,非人形机器人也会收集大量数据进行学习,但其主要功能是完成特定的任务,例如工业机器人、服务机器人和军事机器人主要通过传感器和编程来收集特定任务的相关数据。它们虽然也会产生隐私威胁,但更多是在既有技术和法律框架下进行监控和数据收集,从而实现自身智能的自我迭代。而人形机器人通常具有人类的外形和行为特征,更容易被人类接受和信任,这种特殊性进一步扩大了人机交互语境下的“隐私悖论”。

人形机器人在信息提取和隐私侵害方面与非人形机器人不同。其一,人形机器人具备社会互动性。人形机器人可以通过模仿微笑、点头以及与人对话等方式,在某些情况下与人类进行社交活动。在社交过程中,它们能够利用人类对社交行为的自然反应来提取信息,并可能通过恭维、恐惧等手段在不被察觉的情况下影响人类的行为和心理。人在与这些机器人互动时,会不自觉地表现出类似于与真人互动的反应,从而泄露个人敏感信息。其二,人形机器人具备空间侵入性。人形机器人展现出强大的互动和行动能力,能够侵入私密空间、记录私密活动,还能在自主决策和行动中造成实际损害,侵害用户的人身财产权益。人形机器人在为人类提供服务的过程中,具备打开房门、柜门的能力,能够进入比如扫地机器人无法进入的空间,可以收集更多人类的信息,从而产生更大的隐私侵害风险。其三,人形机器人会减少人类的私密感。在与人类相处的过程中,人形机器人会以其“拟人化”的外观对人类形成心理压力,人类的私密空间因人形机器人而减少。智能机器人的外部数据处理能力越卓越,搭载的人工智能系统越为复杂,运用至实际场景所带来的影响也将愈加不可预测。同时,人形机器人目前无法像人类那样与物理环境进行精细流畅的交互,这些“僵硬”的人形机器人很容易侵权甚至可能对人类造成伤害。也就是说,人形机器人一旦进入人类的隐私活动空间,其拟人化势必会为人类的隐私带来更大的风险。

通过对人形机器人的定义、概念来源、技术发展历史、选择仿人造型的优势及风险考察发现,人形机器人是人工智能、物联网和机器人技术的结合体。人形机器人可以在很少或没有人为控制或监督的情况下执行任务,并通过自学习提高自身性能。由于其复杂的技术组成,在产品制造责任视角下,人形机器人的侵权判断势必会涉及各种组件、零件、软件、系统、服务供应商的责任区分。人形机器人在投放市场后的持续更新和升级、大数据和算法依赖以及人工智能决策的不透明性,进一步提升了判断人形机器人行为和侵权损害责任的困难程度。

三、法律规范:人形机器人侵权风险的应对模式

构建人形机器人侵权责任规则的重心在于应对人形机器人的“自主安全悖论”。为了在不断变化的环境中发挥预期作用,人形机器人必须根据实践中的学习结果监控自身并改善自身行为,也即具有自主性。然而,随着人形机器人自主性的提高,其“决策”可能超出人类的理解范围。人形机器人自主性越高就越不能将其简单视为制造商、所有者或用户等责任主体手中的工具。且由于目前的技术无法对人形机器人的决策行为形成足够的控制力,根据传统侵权法或产品责任法将人形机器人的侵权责任归于特定方愈发困难和复杂,从而出现“责任差距”问题。

国际社会尚未有明确的人形机器人侵权责任法律规制,仅有少量人工智能产品的规定可资借鉴。美国关注自动驾驶,目前由各州自行制定自动驾驶的责任规则,但很少有州试图解决自动驾驶汽车的责任承担问题,相应立法工作主要集中在确定自动驾驶汽车是否可以在公共道路上行驶上。例如,田纳西州法典第106条(a)规定,“涉及自动驾驶系统操作的车辆的事故责任应根据产品责任法、普通法或其他适用的联邦或州法律确定”。欧盟则对人工智能产品的责任承担问题提出了解决进路,欧盟委员会于2022年9月28日提出了人工智能责任指令草案(以下简称AILD)和产品责任指令(以下简称PLD),提议将欧共体1985年建立的产品责任指令适用于人工智能产品,并建立使用披露和可反驳推定制度来完善制造商的严格责任。日本将机器人作为客体纳入产品责任法的规制范畴,如果人工智能存在“缺乏通常应提供的安全性”之缺陷,人工智能的制造商将根据产品责任法承担责任。然而,日本对于人工智能何时应被视为“缺乏其通常应提供的安全性”这一问题尚无既定观点。从整体上看,全球范围内专门针对人形机器人的立法尚未展开。

人形机器人是人类社会的新生事物,隐喻是一种应用于新生事物的有效研究工具,可以帮助理解和解释新事物。对人形机器人来说,隐喻的重要性不仅在于法律体系将如何理解和规范人形机器人,还在于法律体系将如何理解和规范人形机器人的用户。在实践中,欧盟委员会通过AILD将人形机器人视为“工具”适用产品责任指令;欧洲议会2017年2月16日决议以及向机器人民法规则委员会提出的建议《机器人技术民法规则》,主张赋予人形机器人“电子人”的法律人格;而日本道路运输车辆法将移动机器人归类为汽车或电动自行车,视为公共产品。通过隐喻的研究方法,将人形机器人比作其他人类熟悉的概念,如“工具”“儿童”“宠物”“电子人”“法人”等,可以更容易地揭示其功能、用途和对人类社会关系的潜在影响,以便汲取现有制度经验,进一步提炼出规制人形机器人侵权责任的内在逻辑。

(一)将人形机器人拟制为“法人”的人类代表人理论

欧洲议会提案《机器人技术民法规则》采用了人类代表人理论,使人形机器人制造商承担侵权责任。该草案规定:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”根据人形机器人的复杂程度,法案所称“最复杂的自动化机器人”应当指人形机器人。也就是说,欧盟视人形机器人为“法人”,赋予人形机器人以法律人格,负有监护义务的人类代表,诸如制造商、经营者等,对人形机器人所造成的损害负责。人形机器人在进入市场之前需要注册登记成为有限责任的法人,拥有其制造商提供的一份基金,该基金可以在出现侵权时支持缔约方的索赔。此提案在2017年提出后,于2022年被欧盟委员会在PLD中予以明确否定。法人实体之所以能够作为一个独立的法律主体,在于法人拥有签订合同、持有财产、负债、起诉和被起诉的能力,而赋予人形机器人电子人格可能会造成道德责任、因果关系和法律责任的错位。2018年来自14个欧洲国家的156名人工智能专家发表公开信,公开反对欧盟议会关于人形机器人应具有电子人法律地位的提案。一方面,人形机器人的责任体系构建主要涉及人形机器人的责任能力,而非权利能力,在人形机器人缺乏受其支配财产的情况下没有讨论法律人格的必要。另一方面,人形机器人不会遭受痛苦,也就无所谓是否对其进行惩罚,将人形机器人视为可以承担法律责任的实体是没有意义的。总之,人形机器人被拟制为“电子人”会对现有法律体制造成巨大冲击且缺乏法理基础。

(二)将人形机器人视为“动产”的产品缺陷责任理论

依据1985年欧共体PLD法案,产品缺陷责任适用严格责任,即如果产品存在缺陷并导致损害,即使制造商没有不当行为,也应对损害负责,但要求受害人应当证明损害、缺陷以及缺陷与损害之间的因果关系。2022年,欧盟借助AILD草案将人工智能系统定义为“产品”,再通过适用PLD法案将人工智能侵权责任体系指向产品责任模式。然而,随着人工智能技术的发展,PLD已不足以解决与其相关的所有法律问题。其一,受害人证明因果关系存在门槛过高。人形机器人是智能机器人,具有不可预测性,例如在人形机器人与生成式大模型合作的情形下,其可以根据用户输入生成合适的回答,但也可能生成无法预测的回答,甚至可能生成具有攻击性或歧视性的字词。再例如,人形机器人与人体工程学、心理学等技术交叉合作下,损害结果的产生可能牵涉人形机器人产业合作链条中的多个责任主体,其中的因果关系证明具有较高专业知识门槛。其二,缺陷的定义对产品责任的范围有重大影响。如果法院容易认定缺陷,产品责任则趋向于严格责任;相反,如果证明产品有缺陷较为困难,产品责任则更接近于疏忽规则。例如,飞机自动驾驶系统的制造商很少被认定负有责任,这是由于飞机自动驾驶系统适用疏忽规则,飞机制造商只要制定了详尽可执行免责声明和安全警告,就可以有效地保护其免于产品责任索赔。人形机器人的应用也可能出现类似情形。

欧盟产品责任指令在“产品”“缺陷”“责任理由”“生产者”和“举证责任”条款的执行方面面临挑战。为了解决这些问题,控制人形机器人行为的算法及其开发者可能构成责任链条中的一环,对损害或伤害承担一定责任。AILD草案规定,当人工智能系统存在缺陷并造成损害时,受害人可以向人工智能系统提供商或将其集成到其他产品中的制造商寻求赔偿。同时,AILD草案没有脱离严格责任体系,并且朝着有利于用户的角度细化。首先,针对人工智能系统的缺陷原因难以查明以及产品不符合安全的举证责任难问题,草案减轻了复杂案件中用户的举证责任,同时放宽了索赔限制,确保在基于过错的情况下遭受损失的索赔人能够诉诸损害赔偿或其他适当的补救措施。其次,AILD明确表示,承担产品缺陷责任的主体不仅包括硬件制造商,还包括影响产品工作方式的软件提供商和数字服务提供商。如果对人工智能系统的设计或开发不当,或者没有采取纠正措施来解决已发现的缺陷,软件系统提供商也应承担责任。最后,AILD确保制造商对其已投放市场的产品在升级之后仍然具有责任,只要这些更改是由软件更新或机器自学习触发的。总之,AILD旨在建立损害与人工智能系统“行为”之间的因果关系。然而,AILD仍未解决人工智能系统造成损害但无明显缺陷产品或过错的责任分配问题。当制造商在人工智能产品投放市场后仍保持一定控制权时,现有法律规则难以解释或认定技术革新下“更新”“升级”“缺陷”等行为的原因或责任主体。

考虑到人工智能系统的复杂性和不透明性,欧盟适用严格责任制度的可行性仍不确定。在侵权损害与被告行为之间无法建立因果关系的情况下,AILD草案不能对侵权损害提供充分救济。如果不能排除人工智能技术造成的损害,可能出现责任分配不公平或效率低下的情况。为了解决该问题,应首先讨论在出现人形机器人拟人化陷阱现象的情况下,能否直接适用最小化风险测试或严格责任标准,还是合理的替代测试标准。如果将人形机器人视为更具有自主性的产品,并且在使用过程中产生了损害,责任可能更倾向被归咎于机器人运营商或设计者,而不仅仅是被限制在硬件制造商或软件提供商身上。面对人形机器人的责任问题,法律和伦理的交叉影响应被考虑。在制定产品责任法时,立法者需要权衡保护用户的权益和鼓励技术创新的需要,同时也应考虑人与机器之间的权责关系以及用户对机器人行为的期待。

(三)将人形机器人视为“未成年人”或“宠物”的替代责任理论

替代责任是指责任主体在没有过错的情况下对其“监护人”的侵权行为所承担的相应责任。如果视人形机器人为“未成年人”甚至“具有高度危险的宠物”,在现有的法律框架下,可以将替代责任原则作为追究人形机器人用户责任的框架。根据日本产品责任法,运营商疏忽导致机器人责任,索赔人必须证明运营商没有采取应有的谨慎措施。我国民法典第1188条规定,无民事行为能力人、限制民事行为能力人造成他人损害的,由监护人承担侵权责任。监护人尽到监护职责的,可以减轻其侵权责任。人形机器人已具有非常丰富的应用场景,例如在日本东京大学医院使用人形机器人“Pepper”协助进行骨科手术。“Pepper”可以帮助医生进行手术规划并提供实时的手术信息。假设医院及其工作人员已经履行了所有可能的护理职责,但由于人形机器人的自主性对患者造成了损害,患者能否从医院处获得损害赔偿呢?此种场景下适用替代责任可以追究人形机器人操作用户的法律责任。

替代责任原则为追究人形机器人用户的责任提供了一个框架。人形机器人类似“未成年人”或“宠物”,如果用户未能履行其作为监护人的义务,并且导致了损害,根据替代责任原则,用户可能被推定为违反了谨慎义务,并承担相应的责任。确定用户责任的因素包括用户是否向人形机器人提供了适当的指令、是否充分评估了潜在的风险以及是否采取了措施防止损害等,这些因素的考量有助于确定操作用户是否违反了谨慎义务。

然而,替代责任理论的缺陷在于监护关系的认定困难和复杂场景下监护责任分配的合理性难题。人工智能的行为往往受到多种因素的影响,包括设计缺陷、数据输入错误、外部环境变化等。将这些因素全部归咎于监护人可能不够公平,也可能导致责任归属的混乱。或是在人形机器人责任事故发生之后,硬件、系统、算法以及操作用户之间会相互推诿,在纠纷发生时难以查明事故原因,难以确定“监护人”的身份。再者,基于人工智能技术的黑箱属性,监护人可能并不具备足够的技术知识和能力来全面了解和控制人工智能的行为。因此,即使监护人尽到了合理的注意义务,也可能无法完全避免侵权行为的发生。进一步而言,过于严苛的监护人责任将影响产业的创新动力,尤其是人机互动高度密切的人形机器人领域,如果监护人因担心承担过重的侵权责任而过度限制人工智能的使用和发展,可能会对技术创新产生不利影响。特别是在高风险领域,如自动驾驶、医疗诊断等,过度的法律责任可能阻碍新技术的应用和推广。此外,不同国家对于替代责任原则的适用可能存在差异,这可能导致跨国案件中的法律适用冲突。

(四)视人形机器人为社会公共产品的保险模式

保险机制可以分担人形机器人可能带来的风险,使制造商、运营商和用户都能够更好地承担责任,从而降低了参与者的风险感。严格责任或者替代责任是单个实体之间的关系,无法从根本上解决“自主安全悖论”。如果采取集体责任理论,人形机器人的特定风险由社会来分担,在受害方与责任方之间构建人形机器人与用户关系的可控整合,使得人形机器人厂家免于承担无限责任,从而更愿意从事人形机器人的研发、生产,而用户也能认可人形机器人的安全性。保险机制可以作为监管的一种手段,促进人形机器人技术的整合和安全应用。集体责任理论视人形机器人为公共产品,保险不仅能够为人形机器人公司和用户提供风险管理工具,而且可以作为促进人形机器人技术发展和整合的监管机制。不仅如此,保险还能更好地处理人形机器人造成的损害,同时为人形机器人行业提供预防和补偿功能。日本通过政策措施促进机器人技术在现实生活中的使用进而培育市场,很少关注欧洲讨论的机器人伦理问题。例如,日本政府为了鼓励自动驾驶技术,在2025年左右实现高速公路上私家车的L4级自动驾驶,于2019年修订了道路运输车辆法(“RTVA”)和道路交通法(“RTA”),规定如果自动驾驶系统符合安全标准,则允许使用该系统的汽车在公共道路上行驶,这使得“驾驶”的定义已被扩大到包括使用自动驾驶系统进行驾驶。这种产品安全认证制度可以确保制造商免于承担责任。在人形机器人领域,如果产品被证明符合安全要求,人形机器人的生产商也可参照自动驾驶立法而不需要承担侵权责任。用户使用符合安全认证的人形机器人遭受损害或者致人损害,可以通过保险来获得或作出赔偿。保险公司是整个社会生态系统的一部分,为了使新兴的数字技术尽可能安全,用户需要为高风险或灾难性风险的案件投保,以确保对潜在的严重损害进行赔偿。

对高度危险的公共产品设定第三方强制责任险具有非常多的先例。为了确保受害者能够获得充分的赔偿,在新兴数字技术造成的潜在伤害越发频繁和严重的当下,强制性责任保险可能是一种合适的选择。保险基金可以在受害者无法获得足额赔偿的情况下被用于保护受害者的权益,同时通过调整保费来提高人形机器人产品的安全认证级别。例如,机动车辆交通强制保险的原理是风险分摊。所有机动车的所有人或管理人必须投保交强险,并将保费交到保险公司。当发生交通事故时,由保险公司在责任限额内对受害人进行赔偿,从而减轻受害人的经济负担。在交强险的范围内,责任事故的原因无需被区分,造成的损害均由保险来赔偿,且保险公司在交强险的范围内原则上没有追索权,除非用户存在明显故意的过错导致事故发生。人工智能产品适用强制保险也有先例。美国内华达州自动驾驶汽车法规定,车主在注册自动驾驶汽车之前,需要提供一份特定类型的保险,而不是依赖运营商的责任保险。在这种情况下,车主被要求提供车辆责任保险,而不是驾驶员责任保险单。该法案旨在确保在发生交通事故时,受害人能够获得必要的赔偿。正如欧盟《机器人民法规则的指令提案》第57条指出,解决日益自主的机器人造成的损害责任分配复杂性的一个可能的解决方案是强制性保险计划,这为用保险机制解决人形机器人的侵权责任问题提供了法理支持。

保险机制可以通过创造责任缓冲区实现无过错赔偿。传统的侵权法无法规制受害者无法识别侵权者的情况,这使得网络犯罪对用户构成了严重威胁。为此,可以引入一种与适用于暴力犯罪受害者的无过错赔偿方案等效的无过错补偿方案,即允许因网络犯罪而遭受严重人身伤害的人得到与暴力犯罪受害者相同的待遇。简言之,受害者无需证明侵权者的过错,而是通过满足一系列明确的条件来获得赔偿。无过错赔偿方案可以为受害者提供更快速、更有效的补救措施,以此来更好地保护受害者的权益。因此,引入无过错补偿方案可以弥补传统侵权法规则的不足,为受害者提供更完善的保护。然而,在强制性责任保险政策制定前,需要考虑各个行业特定情况的重要性。在所有领域普遍施行强制责任保险的缺陷在于,一方面保险公司可能不愿意为新生事物提供保险;另一方面要求强制保险增加了人形机器人的社会成本并可能会阻碍其技术创新。

视机器人为社会公共产品的保险模式虽然提供了一种有前景的解决方案,但也存在一些潜在的弊端。首先是成本问题。强制性责任保险可能增加人形机器人的生产成本和使用成本,从而抑制了其在市场上的竞争力,制造商、运营商和用户可能因为需要支付较高的保险费用,而限制对人形机器人的使用和开发。其次,保险公司抵触。保险公司可能因为缺乏足够的历史数据和经验来评估风险而对涉及新兴技术和潜在高风险的领域持谨慎态度,进而不愿提供相关的保险产品或者提高保险费率。再次,赔偿难度。尽管保险机制可以提供赔偿,但在实际操作中,赔偿难度和赔偿争议仍然可能存在。受害者可能需要花费大量时间和精力来证明损害和索赔的合理性,会导致诉讼和争端的增加。最后,责任模糊。由于人形机器人涉及多个参与者,如制造商、设计者、运营商和用户,责任分配可能会变得复杂和模糊。保险机制可能无法完全解决责任归属的问题,导致赔偿流程不够顺畅或公平。综合而言,保险范式尽管为解决人形机器人责任问题提供了一种有前景的解决方案,但在实施过程中仍然需要克服一些挑战和限制。

综上所述,严格责任或替代责任体系在解决“自主安全悖论”的问题上尚显不足,尤其是传统的赔偿责任规则可能导致诉讼过程和结果不尽如人意。相对而言,将人形机器人视作社会公共资产,并提出强制性责任保险作为解决之道,借由风险共担的模式确保受害者能够得到必要的补偿是更好的方案。借助保险机制,无过错赔偿的方案能够被落实。进一步而言,推行强制性责任保险与无过错赔偿方案不仅能弥补传统侵权法规则的缺陷,而且对于明确人形机器人责任的归属问题亦具有重要意义。

四、构建链式人形机器人侵权责任治理模型

人形机器人产品进入市场需要在事先预防、监管范围和责任原则三方面做好平衡。首先,事先预防是解决人工智能风险而不过度降低其社会效益的方法,提升透明度、提高可解释性、进行安全测试、理解和减轻风险均是有效措施。例如,谷歌DeepMind和斯坦福大学推出了人形机器人Mobile ALOHA,通过双手远程操作的低成本开源硬件系统提升透明度。其次,行政引导和监管对于人工智能产品从实验室走向市场具有直接推动作用。2007年日本经济、贸易和工业部(METI)发布NGR(“下一代机器人”)使用的安全指南,阐述了确保NGR在其设计、制造、进口、安装、维护、维修、销售和使用等每个阶段安全应用的基本思路。最后,侵权责任体系位于人形机器人治理的末端,是人工智能侵权后果的补救措施。由上文对人形机器人产品责任范式的考察可知,采取单一的、不加区分的人形机器人治理范式无法满足人形机器人责任主体多元、侵权形态多样、侵权责任因果关系难以判断的客观情况。传统的科层式规制体系已难以适应人形机器人领域的规制需求,需要新的规制模式以适应技术的快速变化和不确定性。应构建分别适用于人形机器人制造商、系统程序开发商、运营商和操作用户的责任体系,链式人形机器人侵权责任治理模型的核心思想是根据各方对机器人行为的控制程度、技术开发和使用过程中的角色,以及对事故预防的成本和效率,形成从技术开发到最终使用的责任链条。这个链条上包含了多个关键主体——开发商、制造商、前端运营商、用户以及后端技术支持方,每个环节都有特定的责任和义务。

(一)适用汉德公式分配侵权责任

对人形机器人等新兴技术不宜采取过为严苛的责任规制措施,这也是国内外法律规制的共识。正如上文所言,在“法人”范式下,人形机器人不具备法律主体资格所需的责任能力,不能独立承担责任,将责任归咎于机器人,实质上仍是人类而非机器人承担责任。同时,在“保险”范式下,完全通过商业保险、设立赔偿基金等方式承担人形机器人的侵权责任,又使得人形机器人的使用成本过高。“法人”与“保险”范式将极大抑制消费者购买高风险产品的意愿,使得当传统辅助设备和人形机器人处在同一市场竞争之时,消费者往往会更倾向于选择风险更低的传统设备。为此,2023年7月10日,中国网信办与其他六家监管机构协商,发布了中国首个生成型人工智能部门规章《生成式人工智能服务管理暂行办法》,第3条提出“坚持发展与安全并重,促进创新与依法治理相结合”的发展宗旨。美国在2023年末发布关于安全、可靠和值得信赖的人工智能的行政命令,提出了安全有效的系统、防止算法歧视、通知和解释、人工选择、考虑和退出等五项原则,以积极推动人工智能产业发展。美国迎合了大多数行业参与者,采取最低程度的监管,避免政策限制阻碍技术发展并剥夺他们获得竞争优势的机会。可见,法律制度设计应平衡技术发展和责任分配的关系。

汉德公式是侵权法和产品责任法中的重要理论工具,尤其在处理复杂技术产品和高风险场景时具有重要的应用价值。1947年汉德法官提出了一个成本-效益分析的框架,以评估被控行为是否构成过失。这种经济学导向的归责模型,其核心是通过成本效益分析来确定最佳的责任分配,通过对预防成本、风险和损害的权衡来判断是否采取适当的预防措施,而不是仅仅依赖于抽象的法律原则或主观判断。汉德法官提到,这种权衡能帮助更有效地分配责任,确保最小化社会成本。具体而言,汉德公式分析了预防措施的成本(B)与可能损害的概率(P)及损害结果的严重性(L)之间的关系。如果预防措施的成本低于损害的可能性与损害严重性的乘积,那么就应采取预防措施。否则,责任应由相关方承担。在面对人形机器人“自主安全悖论”的情境下,汉德公式为确定侵权责任提供了一种有效的框架。其优势在于:其一,简化复杂判断。在机器人自主决策的情况下,如何判断是否发生过失行为可能变得复杂。传统的“全有或全无”因果关系理论有时过于严格,容易导致原告或被告承担不公正的责任。通过引入成本效益分析,汉德公式能够在不完全确定因果关系的情况下,为责任的分配提供一个合理的依据。通过明确将风险、成本和潜在损害联系起来,为法官和相关方提供了一种清晰的判断框架,避免了主观的推测。其二,平衡技术进步与安全防范。人形机器人在执行任务时可能面临多种安全风险。通过汉德公式,能够量化防止这些风险的成本与发生事故的概率,从而判断机器人制造商或操作者在设计、使用和管理过程中的责任是否合理。随着机器人技术的进步,它们在自主性和智能化方面可能带来更高的风险。汉德公式提供了一种衡量技术创新带来的潜在损害与防范成本之间平衡的方法,有助于判断是否有必要采取额外的安全措施或限制。最后,适应动态变化的法律环境,促进合理的责任分配。机器人和自动化技术的发展常常超前于现有法律体系。汉德公式灵活的应用性使其能够适应不同情境下的法律判断,特别是在技术进步带来新型风险时,能够更好地调整标准。在面对人形机器人自主行为时,应用汉德公式有助于合理分配制造商、操作者及其他相关方的责任。在处理人形机器人相关的法律问题时,汉德公式提供了一种经济学视角的框架,使得法律责任的分配更加科学和合理,尤其在机器人自主性和复杂性不断提升的背景下,能为侵权责任的界定提供重要的理论支持。

人形机器人引起的损害责任应分配给那些能以最低成本和最高效率预防损害的一方。具体而言,责任应首先被分配给使用人形机器人并因此增加他人受伤风险的消费者,对于使用人形机器人但不增加对他人伤害风险的消费者适用过错责任。对于制造商而言,即便其生产的人形机器人在进入市场后进行了自主学习,制造商仍应对产品缺陷导致的损害负责。若涉及主导使用相关技术并从中获益的前端运营商,以及持续塑造相关技术特征并提供必要持续后端支持的后端运营商,则应由对侵权行为拥有更多控制权的一方承担严格责任。同时,正如欧盟《机器人民法规则指令提案》第56条的规定,各方承担的责任应与其对机器人指令级别以及机器人实际自主程度的相对高低成比例,机器人的学习能力或自主性越强,以及机器人的训练时间越长,其训练者的责任就越大。在分配消费者与人形机器人制造商之间的责任时,应当确认机器人行为与其从消费者习得的运作模式之间的直接联系。换言之,机器人操作用户担当教师的角色,机器人接受教育的时长越长,操作用户承担的责任也就越重。

(二)适用合理的替代测试标准

将人形机器人视为“动产”“未成年人”以及“宠物”的责任承担范式,实际上采取的是消费者期望标准,为促进人形机器人的发展,应采取合理的替代测试标准。消费者期望标准以一般消费者的期待为标准来评价产品的安全性,考虑产品是否具有作为消费者的买主所期待的安全性能、质量或指示警告。消费者期望测试标准是以用户对产品合理预期为基础产品是否存在缺陷进行判定的标准。对于大多数传统产品和服务而言,该标准因其强调用户对产品品质和性能的预期而适用,有效保障了用户权益。然而,当涉及人形机器人等高科技产品时,用户对于产品的内部机理和技术细节往往知之甚少,这可能导致消费者期望超出产品的实际性能。

在人工智能侵权案件中,确定侵权行为与损害结果之间的因果关系是关键。合理替代测试标准通过评估侵权行为是否对原权利人造成了实质性的损害,并且这种损害是无法通过其他非侵权手段来避免的,亦有助于明确因果关系。例如,在面对复杂的侵权因果关系时,算法优化的可行性可以考察当下的技术水平是否存在一种设计,能够更好地减少偏见或错误决策?或是否有更合理方式改善训练数据的质量与覆盖范围,从而减少风险?是否存在更完善的安全防护设计以限制安全风险的损害?如果答案都是否定的,那么不存在更优的方案来防止损害,这样的侵权行为是不具有可责性的。因此,合理的替代测试标准更侧重于产品设计和制造过程的合理性及其可执行性,如果制造商在产品交付时的科技知识水平无法预见到产品缺陷,则其便无须承担责任。该标准主要考察产品是否遵循了技术层面的合理要求,是否存在可行的替代设计或技术路径,以规避潜在风险和损害。对于复杂如人形机器人的产品,制造商有责任通过合理的替代设计,尽可能降低产品风险,确保其安全性与可靠性,但没有能力完全符合消费者期望。由于人形机器人的拟人性和自主性,其带来的风险已经超出产品质量安全的范畴。例如,目前已出现人工智能伴侣唆使人类自杀的情况发生,在人形机器人具有亲和力的外观加之人工智能加持,其“拟人化陷阱”直接导致消费者对人形机器人产生感情、依赖,进而出现“因情受损”的情况将明显增多,产品制造商只能在设计、生产时进行规避,而无法预料消费者将如何使用或如何训练人形机器人,也即无法充分满足消费者对产品安全的期望。因此,相较于消费者期望测试标准,“合理的替代测试标准”展现出更为显著的优越性,可以在提升产品安全性的同时进一步激发技术革新,助力人形机器人企业更精准地认识和掌握产品风险,以此确保用户权益,推动行业持续健康发展。在评估设计是否存在缺陷以及责任承担时,应当运用“合理的替代测试标准”。对于人形机器人的硬件故障,即便是在产品投放市场后才显现出的缺陷,制造商也需要承担无过错责任。

(三)构建链式责任治理模型

软法治理范式对未来竞争极为关键,构建链式责任模型将发挥核心作用。美国学者对立法、行政和司法三大机构在人工智能领域的监管效果进行了分析,认为通过激励人工智能开发者将安全理念内化在开发过程中,所产生的系统性外溢效果胜于直接监管。采取链式责任顺序对于塑造稳固的责任框架具有积极作用。这样的责任治理体系不仅可以激励制造商研发安全可信产品,还能防止制造商因产品伤害问题而被牵涉入无止境的索赔法律诉讼。国际学者提出建立“制造商剩余责任”体制,即在运营商和受害者对自身疏忽导致的事故负责的同时,由制造商对非疏忽导致的事故承担剩余责任。据此,我们可以构建出人形机器人侵害财产权的链式责任顺序。

首先,对于人形机器人事故造成的损害,由无需查究事故原因即可进行赔付的保险覆盖绝大多数损失。当人形机器人发生事故时,强制性责任保险应优先介入赔偿。此种保险旨在确保受害者权益,提供迅速且便捷的赔偿途径,避免未知科学风险对人形机器人用户造成不合理的负担。

其次,若损失超出保险赔偿限额,应在查明事故原因后,由过错方承担相应责任,制造商则负担剩余赔偿义务。用户和受害者需为其疏忽行为负责,而制造商对并非由疏忽行为所导致的机器人事故承担严格责任。如果事故发生是由于软件系统的缺陷(如算法错误、训练数据偏差等),则不能仅由硬件制造商承担责任,软件和算法设计者也应当承担相应的责任。人形机器人应配备记录功能,类似飞机黑匣子的设备可以用于记录机器人行为的轨迹和数据,提供事故发生的详细信息。这一记录不仅仅涉及硬件故障,还包括机器人执行算法的过程和决策路径。若无法记录或提供数据记录的合理访问,则应倒置举证责任,保护受害者权益。该机制有助于将软件和算法的责任纳入责任链条,确保在事故发生后,能够追溯并确认责任的根源。

再次,制造商应可援引“发展风险例外”进行抗辩,依据通过“合理的替代测试”建立的技术标准评估是否存在“设计上的局限性”。如果损害发生在设计范围内,人形机器人产品应被认定存在缺陷,缺陷方应赔偿损害。相反,若损害超出设计范围,则认定人形机器人无缺陷,制造商有权拒绝赔偿。国家所制定的人形机器人技术标准,应作为评判产品缺陷的技术参考。

最后,作为前述考量的补充,若人形机器人的技术标准明显滞后于行业发展水平,导致设计局限性显著,且技术标准低于“合理的替代测试”,监管机构应当更新完善技术标准,以提升人形机器人产品的安全性。司法机构也可以借鉴合理的测试标准,确定责任方存在过错,据此承担赔偿责任。换句话说,通过建立健全的责任管理体系,自主安全悖论可以被有效规避。

综上所述,构建我国人形机器人侵权责任体系,应基于三个核心原则:汉德责任公式、合理的替代测试标准和链式责任治理原则。汉德公式强调,通过成本效益分析实现责任的公平和合理分配,依据责任主体对风险的控制能力及其行为对损害发生的影响程度来确定责任的大小。这一原则不仅有助于从个体追责向社会风险防范转变,还能促进法律的公正性、合理性和适用性。通过这一框架,法律能够更加科学地平衡个体责任与社会利益,确保责任分配既符合实际风险,又能体现社会公共利益。合理的替代测试标准取代了传统的消费者期望测试标准,更加注重产品设计和制造过程中的合理性和可行性,强调是否存在可以避免潜在危险和损害的替代设计或技术路径。这一标准的采用有助于平衡技术创新和产品安全,同时保护用户权益。链式责任治理原则旨在建立一个明确的责任顺序,首先通过保险机制赔偿损失,其次由过错方承担超出保险限额的损失,最后由制造商在非疏忽事故中承担剩余责任。此外,制造商可以主张发展风险例外抗辩,而监管和司法机构应根据技术发展适时更新技术标准。

结语

尽管哲学家普遍认为要求人形机器人作为法律主体承担责任是不切实际的,但一系列实证研究表明,在某些情况下,公众确实会将责任归咎于人工智能系统和机器人。这一现象令人不安:人类的责任可能从人工智能系统的所有者、用户或设计者被转移到系统本身,从而削弱了人类应承担的责任。这种困窘现象预示着现行法律概念和框架难以有效应对人形机器人可能引发的责任分配问题。然而,人形机器人等新技术的发展很大程度上取决于法律的确定性,特别是使用人形机器人所引起的损害责任分配相关的法律。面对这一挑战,我们需要重新审视和完善现有的法律制度,以充分平衡人形机器人技术发展与公民基本权益保障的龃龉。本文通过三个原则的有机结合,形成综合性治理框架,试图为我国人形机器人侵权责任体系的构建提供一般性理论框架。当然,人形机器人涉及的侵权场景和侵权标的众多,包括财产权、人身权、知识产权等,其侵权构成要件也各不相同,如何细化规制上述问题,需要在未来结合实践对不同权益进行更加深入的研究。

来源:上海市法学会

相关推荐