李丹|人工智能特殊侵权责任的理论证成及规范储备

B站影视 港台电影 2025-10-21 09:00 4

摘要:人工智能侵权责任认定是人工智能立法的核心挑战,一般侵权和特殊侵权路径难以有效应对人工智能侵权中的过错判定模糊、因果关系证明困难及损害结果不确定等问题。同时,还会引发责任间的竞合冲突,导致设计者/生产者、服务提供者与用户等多重侵权主体间的责任划分难题。立法需突破

人工智能侵权责任认定是人工智能立法的核心挑战,一般侵权和特殊侵权路径难以有效应对人工智能侵权中的过错判定模糊、因果关系证明困难及损害结果不确定等问题。同时,还会引发责任间的竞合冲突,导致设计者/生产者、服务提供者与用户等多重侵权主体间的责任划分难题。立法需突破现有侵权类型框架,将人工智能侵权设置为一种独立的新型特殊侵权责任,构建复合归责体系:对设计者/生产者适用无过错责任,通过强制保险分散技术风险;对服务平台适用过错推定责任,减轻受害人的求偿难度,对专业服务提供者维持过错责任原则以契合行业规范;对普通用户适用过错责任以公平分配责任。责任形态涵盖连带责任、按份责任和补充责任,辅以技术发展免责与过失相抵规则,以此回应技术迭代下的责任偏差。

一、问题缘起:技术迭代背景下人工智能侵权责任偏差

人工智能技术的自动化进程经历了显著跃迁:从初始的数据库编码驱动的传统计算机自动化,演进到依托机器学习的智能算法自动化,再到当前基于复杂神经网络的超级自动化阶段,从早先自下而上专业人士的“辅助/参考”和个别部门的“部署/应用”嬗变为自上而下的社会化“嵌入/集成”结构性的转变,每一次转变均标志着自动化水平与技术能力的深刻变革。人工智能技术在各领域的自动决策能力取得了突破,自动驾驶汽车、智能医疗等应用的推广普及,生成式人工智能更成为行业热点。这些创新引领人类迈向新纪元,大幅提升了生产效率与生活质量,但同时也伴随着人工智能侵权事件频发。例如,根据美国安全监管机构(NHTSA)统计数据,从2021年7月至2025年7月,汽车制造商报告了1545起带有自动驾驶系统的车辆碰撞事故。2023年10月在洛杉矶两辆自动驾驶车辆发生相互碰撞阻塞道路,延误了一位病人前往医院治疗,最终导致病人死亡。该案件促使NHTSA对自动驾驶汽车对周围行人的安全性进行了审慎评估。此外,数据学习赋能的机器人及包含人工智能组件的软件算法侵权问题日益凸显,对侵权责任法传统理论和司法实践掀起深层次、广范围的冲击。

学界对人工智能侵权的归责路径展开了广泛而深入的探讨,呈现出复杂多样的形态。主要探讨方向集中在如何适用或改造现有侵权责任框架以应对人工智能带来的独特挑战。部分学者主张在现有一般侵权责任框架下寻求解释空间,认为虽然人工智能大模型对自动驾驶等领域带来了巨大影响,但从促进和规范人工智能产业发展、鼓励科技创新出发,应适用一般侵权责任制度。更多学者因人工智能广泛的应用场景倾向于诉诸产品侵权、网络侵权、机动车交通事故或医疗损害等具体的特殊侵权责任规则,指出人工智能侵权面临责任主体归属难辨、主观过错判断困难、因果关系难证明、损害后果不确定等特殊性问题难以按照传统一般侵权责任理论适用,只能转而适用特殊侵权责任。但特殊侵权责任路径内部也存在分歧,核心争议在于具体适用何种特殊侵权类型。人工智能作为双重或多重主体交互的工具,承载设计者/生产者、服务提供者与使用者之间的法律关系,侵权责任法应对上述主体建立明确的行为模式指引与责任规范。已有研究侧重讨论现有框架是否可以解决与人工智能相关的侵权责任认定问题,贡献了诸多有建设性的制度方案,但鲜有从行为视角反思人工智能侵权责任的“事物本质”及其背后的“分配价值”,一时难以得出共识性的解决方案,并最终导致了人工智能侵权责任偏差问题。

鉴于人工智能侵权现象日益普遍且对传统侵权法理造成深刻挑战,一般侵权扩张性解释与已有特殊侵权类推解释方案均无法有效回应人工智能侵权的特殊性。人工智能侵权责任认定需另辟蹊径,可尝试将人工智能侵权定型为一种新型特殊侵权责任以解决现实困境。人工智能特殊侵权责任的理论证立与规范实现亦将减轻被侵权人维权难度,为技术发展提供明确的法律指引,也有益于司法实践中定纷止争。

二、既有侵权责任框架在人工智能领域的适用障碍

按照学界讨论和分析,人工智能侵权归责有两类方案:一是通过扩大解释为一般侵权以过错原则归责;二是根据不同场景视为网络侵权、产品侵权、医疗损害侵权和机动车交通事故侵权等特殊侵权。上述方案在适用过程中存在不同程度的适用障碍。

(一)一般侵权解释的传统方案及其适用障碍

将人工智能侵权视为一般侵权的处理方式,本质上是寻求在不改变现行法律体系的前提下,应对由人工智能技术引发的新型法律问题。这种思路借助传统侵权归责原则,确定人工智能致害的责任归属,强调将责任追溯到人类主体,简化责任归属过程,使受害者更易获得补偿。

值得注意的是,美国在人工智能侵权问题上尚未通过统一立法,主要采取围绕重点技术应用进行单行立法的规范路径。其中,针对换脸工具Deepfake的立法,是美国第一例响应人工智能的专项立法。为应对Deepfake被大量用于恶搞、丑化公众人物和报复他人的挑战,美国制定了《非合意性深度伪造色情法》,坚持只要人工智能的设计者和使用者没有侵权的主观意图,就不用承担侵权责任,遵循传统的过错责任原则,为技术发展营造友好型的法制环境。同样,瑞典政府认为基于《瑞典侵权责任法》的一般原则,人工智能系统承担责任要求程序员或用户存在疏忽,例如程序员未遵守行业标准或用户无视用户手册中的说明。在英国一起涉及搜索引擎的诽谤案中,法庭指出涉案搜索引擎仅仅提供了网络服务便利,并不满足主观要素。

作为一般性裁判规则,一般侵权责任界定的四要素“物化”方案未能把握人工智能侵权的特点,没有注意到过错责任基本原则是超出理性认知的人不能对过失的情况承担责任,明显偏离了一般侵权认定的理论逻辑。第一,侵权关系结构与归责原则不适配。在一般侵权关系中,侵权人因主观过错致被侵权人受损,过错既是责任有无的决定要件,也是责任大小的调节因素。但在人工智能侵权中存在适配难题,人工智能本身并非法律主体,若损害确切归因于它,该损害是否属于侵权法范畴则存疑。即便将人工智能视为“物”,其控制主体是否满足一般侵权对侵权行为人主观过错的要求,仍需考量。而人工智能侵权若由其自动运行导致,由于不具备价值判断能力,很难称其具备主观过错,无法满足一般侵权的过错要件。第二,因果关系难证明。只有原告的损害既可归因于侵权行为,又涉及可预见的不合理风险,侵权因果关系才会发生。一般侵权中,侵权行为和损害结果之间通常是直接因果关系或相当因果关系,具备明显的可预见性,受害人证明因果关系相对比较容易。但在人工智能侵权中,侵权行为由人工智能实施,其训练数据不公开、运行算法不透明、决策结论不解释等特点导致风险无法预见,给受害人证明因果关系带来极大的技术障碍。即使人工智能侵权行为源于人为操纵风险,基于信息不对称和专业技术差异,受害人仍处于举证弱势地位。第三,损害结果难评估。一般侵权中,损害结果涉及人身损害、财产损失和精神损害,通常都是已造成实际损害后果。但在人工智能侵权中,损害后果具有不确定性,可能仅在人工智能和用户之外造成了第三人名誉减损、个人信息侵害、隐私泄露,相关损失是否能够达到一般侵权的可补救性标准存在争议。

(二)既有特殊侵权的类推改良方案及其适用障碍

1.网络侵权方案及适用障碍

将人工智能侵权视为网络侵权的主要依据在于,人工智能作为网络技术的组成部分,其在虚拟空间所实施的行为和产生的结果具有相应影响力,故可将其视为网络侵权。例如,《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》第6条第1款将“是否以人工或者自动方式对侵权网络信息以推荐、排名、选择、编辑、整理、修改等方式作出处理”作为网络侵权行为的要素之一。在“何某与上海某人工智能公司网络侵权案”中,法院认为上海某公司作为涉案软件的运营者,通过产品设计和算法应用将何某姓名和头像预先设置于软件中,供用户选择为虚拟陪伴人物,侵害了何某的姓名权、肖像权以及一般人格权。

但若按照《民法典》第1194条至第1197条将人工智能侵权进行类推解释适用网络侵权存在逻辑上的不周延性。其一,网络侵权条款包括四种情境:服务提供者故意实施侵权行为、用户故意实施侵权行为、服务提供者在通知之后不作为以及服务提供者明知用户侵权不作为。不过,人工智能侵权情境中还包括人工智能自动运行导致侵权,这种侵权行为产生的损害如何救济,网络侵权条款缺乏应对规则。其二,“通知—删除”规则保护不足与价值转向。为保护平台创新热情,权衡受害人和平台之间的利益,《民法典》设置了“通知—删除”条款,奉行技术中立原则,认为网络服务提供者仅仅提供通道,不能强加其审查义务,否则将不利于技术发展和创新产出。该规则在平台经济快速膨胀的今天,已经招致不少批判和质疑,而若将此规则适用到人工智能侵权的处理中,会引发更大的争议。人工智能侵权的受害人往往无法察觉侵权行为,即便察觉也无力了解权利受侵的具体情况,更无从追踪实施侵权的人工智能和平台,导致欲维权却“求助无门”。其三,“红旗规则”中的“明知”难证明。网络侵权条款中的“红旗规则”,旨在严惩与网络侵权用户勾结的平台。然而,在人工智能侵权案件中,若引用网络侵权条款,受害人难以证明平台“明知”侵权行为,因为侵权行为可能是人工智能自发实施,平台未必知晓。即使平台知情,受害人也因技术壁垒而无法完成举证,这使得网络侵权中的“红旗规则”在人工智能领域形同虚设。

2.产品侵权方案及适用障碍

将人工智能侵权视为产品侵权的思路强调人工智能与传统产品一致,在设计、开发、销售和使用的每个环节都应遵循安全和质量标准。当人工智能在实际操作中表现出缺陷时,无论是数据处理、决策支持还是物理交互都是其作为产品的功能表现,应当按照产品侵权的无过错责任原则处理。

将人工智能侵权作为产品侵权认定的核心争议在于人工智能是产品还是服务。无论是欧盟《产品责任指令》、美国《侵权法重述》还是我国《民法典》,均将产品界定为“经过加工制造用于销售”,将服务排除在外。产品缺陷在生产过程中已经产生,到达消费者手中后,生产者无法施加控制,适用严格责任可以促使生产者提高预防意识,避免后续损害。美国部分法院将人工智能区分为包含软件的实物(产品)和软件(不是产品)。从人机交互过程的角度观察,宜将人工智能作为一种可供企业或个人使用的工具,而非一次性购买或拥有的产品。人工智能提供服务的缺陷并非一蹴而就,服务质量的优劣既取决于人工智能本身设计程序,更与后续使用过程中用户交互直接关联。此外,技术和伦理交织使问题异常复杂。传统产品缺陷可以通过检测、测试和质量控制等手段发现和预防。而人工智能的学习能力和自适应能力使行为模式难以预测,当发生侵权时,是归咎于算法设计缺陷,还是数据训练问题,或是使用者操作不当?这些技术因素交织在一起,使人工智能的“缺陷”认定变得更加复杂。同时,人工智能的决策过程涉及复杂的道德和伦理问题,将其简单地视为产品缺陷可能忽视了更深层次的考量。例如,在某些情况下,人工智能的决策可能是基于“最大幸福原则”或“最小伤害原则”,这些决策难以用传统的产品缺陷标准衡量。

3.医疗损害责任方案及适用障碍

当前医疗人工智能是医务人员诊疗活动的技术延伸,医务人员对人工智能的合理使用、审核验证负有过错责任。根据《民法典》医疗损害责任相关规则,医务人员需对人工智能输出的诊断建议、手术方案等履行再判断义务。若因未核实人工智能结论、过度依赖算法或操作不当导致损害,或医疗机构未对人工智能系统的采购、维护尽到管理义务,即可能被认定存在过错。

医疗损害责任方案的适用面临三重障碍。其一,责任主体认定与多因致害的冲突。医疗人工智能致害常涉及人机协同中的多重过错,可能是算法设计缺陷,可能是医务人员未履行审核义务,也可能是医疗机构管理失职。但现行规则侧重追究医疗机构及医务人员责任,对人工智能研发者、生产者的责任覆盖不足。其二,过错认定标准因算法特性而模糊。传统合理医疗标准要求医务人员尽到与当时医疗水平相应的注意义务,但人工智能算法黑箱与自主学习能力打破了这一标准的适用基础。一方面,医务人员难以验证医疗人工智能决策的逻辑;另一方面,医疗人工智能的高准确率可能弱化医务人员的独立判断,对其过度依赖可能导致医务人员专业能力退化,进而使过错认定失去参照标准。其三,因果关系证明因技术复杂性受阻。人工智能的自主学习能力与算法黑箱导致损害成因难以溯源,算法设计缺陷、实时数据交互错误、传感器故障与医务人员操作过失等因素交织,形成多因一果的复杂链条。医疗人工智能的动态更新特性使“缺陷”呈现时效性,进一步加剧因果关系认定难度。

4.机动车交通事故责任方案及其适用障碍

将自动驾驶汽车侵权纳入机动车交通事故责任框架的思路,强调自动驾驶本质上仍属交通活动范畴。无论系统自动化等级如何,使用者或车辆管理人均需对车辆运行承担监督与接管义务。当因未履行观察义务、未及时接管系统或违反操作规范导致事故时,应依据过错原则承担赔偿责任。同时,针对系统在设计运行范围内的自主决策行为,通过细化合理谨慎的使用者标准,明确使用者对系统提示的响应义务与注意程度。我国《道路交通安全法》及其司法解释关于机动车驾驶人过错认定的规则被视为基础依据,《智能网联汽车道路测试与示范应用管理规范(试行)》也明确测试主体需对驾驶人的接管能力进行评估,体现了对人机协同场景下传统交通责任规则的延伸适用。

但这一方案在司法实践中面临适配难题。其一,责任主体定位模糊。随着自动化等级提升,驾驶人的角色从操作者转向监督者,当系统处于高度自主模式时,使用者的过错认定失去传统驾驶行为直接控制的基础,即现有规则缺乏如何界定合理接管时机的明确标准,导致使用者无过错却需担责的失衡现象。其二,过错认定标准失效。传统违反交通法规即构成过错的逻辑难以覆盖系统自主决策场景。若系统因算法对突发路况误判导致事故,而使用者已履行监督义务,此时过错究竟是源于系统局限还是使用者未预判风险,缺乏客观判断依据。部分案件中系统提示的及时性与清晰度不足,进一步加剧了使用者过错认定的难度。其三,因果关系证明受阻。自动驾驶系统的决策过程依赖传感器数据、算法运算等技术链条,事故成因常涉及系统误判、使用者未响应等多环节关联,但系统日志的技术壁垒,使受害者难以证明使用者过错与事故之间的直接因果关系,传统交通事故鉴定机制也无法有效拆解技术因素与人为因素的混杂影响。

(三)不同人工智能侵权责任方案间的冲突

现有侵权责任框架在人工智能领域的适用,不仅存在各方案内部的适用障碍,还因不同方案在归责原则、责任主体等方面的差异,产生了外部责任冲突。

1.网络侵权与产品责任的冲突

当生成式人工智能自动生成侵权内容时,既可能因平台未对算法输出进行必要审核构成网络侵权,也可能因算法设计存在漏洞构成产品缺陷。此时平台可援引网络侵权的避风港规则,主张已履行义务而免责。受害者可主张产品责任,要求平台承担无过错责任。两种方案的冲突体现在网络侵权以明知、应知为过错要件,侧重平台的事后补救义务。产品责任无需证明过错,侧重生产者的事前风险预防义务,导致责任认定标准混乱。

2.医疗损害责任与产品责任的冲突

当医疗人工智能手术系统因程序漏洞致患者损伤时,可因医生未及时发现系统异常构成医疗损害,也可因系统设计未考虑手术场景的复杂性从而符合产品缺陷要求。此时医疗机构与人工智能生产者的责任划分形成责任竞合。医疗机构主张优先适用产品责任,由生产者承担无过错责任。生产者则主张医生的操作过失是直接原因,应优先适用医疗损害责任。除侵权责任主体不同外,两种方案的差异还体现在举证责任上,医疗损害需证明医务人员的过错,产品责任需证明缺陷与损害的因果关系,而由于人工智能的算法黑箱使受害人在两种举证过程中均面临技术壁垒,最终导致无人担责。

3.机动车交通事故责任与产品责任的冲突

当自动驾驶汽车在高度自主模式下发生事故时,既可能因使用者未对系统提示作出响应,也可能因系统对突发路况的识别延迟。此时过错责任与无过错责任的适用产生冲突,使用者主张系统缺陷应适用产品责任,生产者则主张使用者未履行接管义务应适用交通事故责任。自动驾驶的高度自主性模糊了“使用者控制”与“系统自主决策”的边界,导致法院难以确定责任优先顺序。

4.网络侵权与医疗损害责任的冲突

当人工智能问诊系统给出错误诊疗建议致害时,可能同时符合网络侵权与医疗损害责任的构成要件。两种方案的冲突体现在网络侵权侧重平台的技术中立与避风港保护,医疗损害责任则强调医疗服务的高度注意义务。平台可能援引网络侵权的“通知—删除”规则主张免责,受害者则以医疗服务的特殊性为由主张适用医疗损害责任,导致责任性质认定的争议。

三、人工智能侵权作为独立特殊侵权责任的引入

人工智能侵权的特殊性使其难以适用一般侵权规则。现有特殊侵权体系虽在直接适用上面临挑战,但其内在逻辑的包容性与制度框架的弹性,恰恰为系统性解决人工智能侵权提供了基石。基于历史经验、立法趋势和风险治理需求,应通过在特殊侵权体系内进行适应性扩张与整合,将人工智能侵权确立为一类独立的特殊侵权责任。

(一)历史动因:人工智能技术发展催生特殊侵权责任的共因

特殊侵权体系的产生与发展,根植于侵权责任法通过多元化归责原则应对新型、复杂风险的历史逻辑。

1.危险责任理论的适配性

侵权责任法的最初哲学理论基础为矫正正义,过错责任原则即是矫正正义的直接体现。但随着历史发展,工业革命后铁路运输、机械操作等高危技术活动兴起,此类活动虽具有社会必要性,却伴随不可避免的高风险,传统过错责任因受害人难以证明加害人的故意或疏忽陷入困境,危险责任理论应运而生。其核心逻辑是从事高度危险活动的主体,无论是否存在过错,均需对活动引发的损害担责。这一理论直接推动了高度危险责任等新型特殊侵权类型的确立,通过减轻受害人举证负担、强化风险控制者责任,实现了对新型风险的法律回应。

人工智能侵权正面临类似的历史情境,在人工智能侵权中具备危险责任理论的适配性。第一,减轻受害人证明难度。在人工智能侵权案中,应用危险责任理论意味着受害人无需举证侵权人的故意或疏忽,司法机关可直接依据损害与侵权行为的因果关系作出赔偿判决。此理论简化了受害人的举证流程,有效强化了信息弱势方的地位。第二,实现对受害人补偿。传统矫正正义要求证明行为人过错才能进行经济赔偿。但在人工智能侵权案例中,损害可能仅由技术瑕疵或数据污染引发的错误输出所致,并无明显过错,这导致矫正正义难以适用,却与危险责任理论的理念相契合。在此类侵权中,由掌控危险的无过错方对受害人进行经济补偿,以实现分配正义。第三,实现预防损害的目的。传统侵权矫正正义聚焦行为人是否违反注意义务,核心在于补偿受损利益,而预防损害仅为附带效果。相对而言,危险责任理论更注重预防损害,为避免潜在的高风险转化为实际损害,需通过加重责任来促使行为人更加审慎。要降低人工智能侵权的风险,既要求设计者在产品开发中将道德准则数字化,也要求使用者在使用过程中严守底线。在人工智能侵权中采用危险责任理论,能有效对相关行为人施加风险管控的压力,达到预防损害的目的。第四,直击危险控制人。危险责任理论并非要求所有人担责,而是科学地将责任分配给危险的实际控制者。在人工智能侵权中,主体复杂,涉及设计者/生产者、服务提供者及用户等。通过危险责任理论,可根据危险控制力合理分配责任,直接追溯到危险控制人。

2.报偿责任理论的适配性

随着商业活动的复杂化,收益与风险相伴的社会现实日益凸显,报偿责任理论逐步形成,其核心逻辑是从活动中获益者应分担损害。这一逻辑在历史上催生了诸多新型特殊侵权类型。例如,产品责任中生产者、销售者从产品流通中获益,当产品存在缺陷致害时,基于报偿责任,即便难以证明其过错仍需担责,使产品侵权成为独立的特殊侵权类型。再如,环境污染责任中企业从生产经营中获益,其排污行为造成的环境损害,基于报偿责任需由获益主体担责,使环境污染侵权作为特殊侵权类型。报偿责任通过将责任与收益挂钩,确保了利益与风险的均衡分配,成为应对商业活动中新型损害的重要理论支撑。报偿责任理论同样适用于人工智能侵权。作为一种商业运营工具,人工智能为各主体带来利益。人工智能的设计者/生产者可通过技术转让获取收益。服务提供平台可以向消费者收取服务费或通过广告、收集个人信息等方式获益。用户也可利用人工智能如搜索写作工具辅助创作以获取收益。

在人工智能的报偿过程中,各主体所获利益存在实质区别。在人工智能产业链的价值分配中,设计者/生产者凭借对核心技术的源头性垄断成为最大受益主体,其通过专利授权、持续分成及衍生数据权益构建了多重收益渠道。相较而言,服务提供平台虽直面终端用户,却因承担高额部署成本、合规压力及侵权风险,实际收益被大幅稀释。而普通使用者主要享受技术带来的便利,甚至可能成为权益受损方。基于不同的获益方式和规模,报偿责任理论将衍生出多样化的责任形态。获益越多者承担更大责任,获益较少或无获益者则承担较小责任或免于责任。归责原则分别适用无过错责任原则、过错推定原则和过错责任原则,而责任形态则依据不同的情形衍生为连带责任、按份责任或补充责任。

3.过错推定与替代责任的适配性

特殊侵权体系中,过错推定与替代责任同样为人工智能侵权提供了重要理论支撑。过错推定责任的确立源于19世纪工业社会结构性信息不对称的加剧。在劳工伤害、医疗事故等场景中,受害方常因技术壁垒或证据垄断而无法证明加害方过错,传统“谁主张谁举证”规则导致实质不公。例如,英国《雇主责任法》(1880年)率先在工伤领域采用过错推定,要求雇主自证无过失方可免责。这种历史演进的核心动因,是通过举证责任转移矫正强弱主体间的证明能力失衡。人工智能侵权再现了这一历史情境。算法黑箱性使受害人难以追溯设计缺陷或操作过失。譬如,平台疏于审核导致侮辱性输出的案件中受害人无法获取系统决策日志,此时,过错推定原则的适用要求控制人工智能系统的主体自证已履行合理注意义务,直接呼应了工业革命以来通过程序规则矫正技术性不公的法理传统。

替代责任的源头可追溯至罗马法主人对奴隶行为负责的规则,其现代化转型则与社会化大生产催生的组织控制力扩张紧密相关。18世纪英国普通法通过“雇主—雇员”关系确立替代责任,20世纪后该原则扩展至法人对机器致害的责任,如工厂主需为自动化机械事故承担无过错责任。其历史进程的本质,是法律对“控制力与利益归属一致性”的持续承认。人工智能系统具有实际控制力的主体,需对系统自主行为引发的损害承担责任,类似传统侵权中雇主对雇员职务行为的责任。在人工智能侵权中,开发者对算法设计、平台对人工智能部署均构成实质控制力,当系统因自主性决策致害时,基于替代责任理论,控制力主体需对系统行为负责。

(二)现实动因:各国人工智能立法竞争的价值驱动

人工智能以机器学习方法为支持取得突破,成为引燃第四次工业革命的表征科技,促生巨大的社会生产生活迭代发展态势,各国纷纷启动了人工智能立法进程。人工智能的立法基础和路径应当深入科技法及其迭代发展的语境中,并自觉体现“历史—发展”“社会—技术”的连接性。

各国国情不同,人工智能侵权的处理方式呈现出不同的发展趋势,但都有着相似的立法动因。例如,欧盟积极推动人工智能立法的逻辑是推动人工智能道德性和可信赖性,本身会刺激人工智能更广泛应用,进而促进经济增长、提升经济能力。在有关人工智能侵权的立法方面,欧盟构建了以《人工智能法》《通用产品安全法规》《网络安全法规》为一般规则,《医疗器械法规》《体外诊断医疗器械法规》《通用车辆安全条例》等细分领域的制度框架。一方面,《人工智能法》引入人工智能监管框架,其中“高风险”的人工智能系统需遵守一系列义务甚至禁令。《人工智能法》对人工智能的定义有意宽泛,具体范围仍需其他规则加以补充。《通用产品安全法规》规定的一般规则可适用于人工智能侵权。该法规旨在确保制造商只将安全的产品投放市场,明确人工智能系统和支持人工智能的商品是“产品”,缺陷则包括网络安全漏洞、连接问题和软件升级更新延迟。《通用产品安全法规》要求生产商和分销商向消费者提供安全的产品,采取一切可能的措施识别产品的任何危害,并在必要时将危险产品从市场中移除。当有缺陷的人工智能造成伤害时,受害者无需证明制造商存在过错即可获得赔偿。《网络安全法规》为信息与通信技术产品、服务和流程引入了统一的欧洲认证框架,需经过认证并分配安全级别。该认证计划降低了网络安全漏洞的风险,是对责任框架的重要补充。对于高风险行业,欧盟产品安全框架针对特定行业设置了横向规则。例如,在医疗保健领域适用《医疗器械法规》和《体外诊断医疗器械法规》;在运输领域适用《通用车辆安全条例》《自动驾驶车辆的型式认证法规》和《机动车辆保险指令》;在机械领域适用《机械指令》。对于高风险的人工智能系统,如果法院认为索赔人证明因果关系“过于困难”,可适用推定因果关系。从这些具体规则可以看出,无论是数字领域、网络领域还是人工智能领域,通过立法促进技术发展、降低技术风险已成为各国的法制热点。各国立法对特殊侵权的运用呈现多元协同特征,并非单一依赖危险责任。这些实践表明,人工智能特殊侵权责任的生命力在于根据人工智能风险等级和主体控制力,灵活组合不同归责原则。

(三)未来动因:人工智能技术发展的法律指引

人工智能作为一种技术,理应实现技术向善、降低技术风险。技术向善和风险分配作为原则指引为应对人工智能侵权提供了指导思路。

1.技术向善原则

在分析技术向善的理念时,技术中立原则是一个不可忽视的议题。技术中立原则主张技术本身是一种无价值取向的工具,并无善恶之分。然而,技术中立特别是技术或技术应用与价值无涉的命题,一直饱受质疑。例如,“由于技术具有价值体系,因此它不是中立的”。“技术的价值是自然属性和社会属性、目的与手段的辩证统一,其焦点是制度在其中的作用。”“网络平台时常自辩处于技术中立地位,无法承受海量数据处理之重。”然而,“技术原理是中立的,但是技术应用是包含主观意图的,应将平台算法设计部署的主观过错作为问责依据”。这些因和果使立法者开始反思,再秉持技术中立忽视人工智能侵权事实,保障技术创新的目的是否已经演化为侵权主体的免责面纱?

技术向善原则应运而生。人工智能在展现出巨大发展潜力的同时也带来了技术伦理危机及侵权认定难题。例如,支撑人工智能技术设计过程缺乏主观善意导致的决策不可控、人工智能自我学习导致的安全性不可靠、人机合作关系不畅导致的损害结果不清晰等问题,都在提示着人工智能的侵权认定应该融入技术向善的立法理念。在人工智能侵权案件中,技术向善原则强调,侵权人的责任不应因使用人工智能技术而有所增减。换言之,若人工智能技术的运用导致了侵权,侵权者必须承担相应责任,不能以技术中立为借口规避法律责任。因此,在侵权责任认定时,应考察行为主体是否秉持善意,这要求侵权法提供灵活的归责路径。对于无明显过错但源于高风险技术本身的损害,适用无过错责任;对于存在过程瑕疵或控制疏失的情形,可适用过错推定责任;对于有明显主观过错的情形,应适用过错责任原则。技术向善原则的实现,依赖于特殊侵权体系内多元规则的协同,而非单一归责原则。

2.风险分配原则

在贝克的风险社会理论视野下,现代技术的高速发展使风险呈现出系统性、不确定性与扩散性特征,传统风险管控模式难以应对技术迭代引发的新型挑战。人工智能凭借其强大的自主性和灵活性,对信息生成与传播的贡献达到了前所未有的高度。人工智能的技术性和网络性极大降低了受害人对于侵权行为的辨别和预防能力,扩大了损害结果的影响覆盖面和时间线,进而以低廉的成本和易滋生的特性吸引更多蠢蠢欲动的潜在侵权人加入。这正是风险社会中“人造风险”的典型表现,风险不再源于自然或偶然,而源于技术系统本身的复杂性与主体行为的关联性。风险分配原则依据风险程度和可控性来合理分配侵权责任,与人工智能侵权中的风险治理逻辑高度契合。此原则意味着,当人工智能技术风险高且可控性低时,控制者需承担更重的责任。反之,则控制者的责任相对减轻。人工智能在运行过程中可能存在的风险类型如下:

第一,自主运作型风险。所谓自主运作型风险,是指人工智能自发产生错误结论。人工智能模型的运行需要海量预训练数据为学习基础,在百亿量级的数据集中提取样本,通过融合、解构、消化等步骤,输出新内容。由于数据的需求量过于庞大,人工智能设计者/生产者无法完全保证训练数据的真实、客观和合法,这就给人工智能侵权提供了泛滥的内容基础。尽管设计者可以对人工智能系统设定“不得编造虚假内容,不得生成有害、歧视和偏见内容”的要求,但数据质量参差不齐的问题是客观存在的,建立在真假参半数据基础上的人工智能很难避免出现具有侵权损害风险的行为。如何设置归责原则以应对自主运作型侵权风险,是人工智能侵权规范设计中必须解决的问题。

第二,人为操纵型风险。人为操纵型风险是由人为因素引发的侵权行为。例如,若人工智能设计缺乏伦理考量,未设置国家安全屏蔽词或隐私保护程序,属于设计缺陷;若人工智能平台利用技术进行广告营销,却未对虚假信息进行必要审核,构成了审核疏忽;若用户故意诱导聊天软件生成侵犯他人名誉的言论,则显示出明显的侵权主观故意。不同的人为操纵型风险会对侵权责任的判定和承担产生直接影响。

风险分配原则要求依据风险来源、控制力与收益,科学分配责任。特殊侵权体系正是实现风险分配的理想载体。无过错责任直接对应高风险控制者,过错推定通过举证责任倒置强化风险控制义务,过错责任原则侧重一般风险防控,报偿责任贯穿其中以确保利益与风险均衡。面对人工智能的自主运作型风险和人为操纵型风险,唯有依托特殊侵权体系的综合规则,才能实现精准、公平的风险分配。

四、人工智能特殊侵权责任的规范体系构建

构建独立的人工智能特殊侵权责任类型并将其引入侵权法特殊侵权体系,是应对人工智能技术风险的系统性法律方案。该特殊侵权责任体系植根于历史逻辑、现实立法趋势与未来治理需求,具备包容多元主体、复合归责原则、层次化责任形态及技术容错机制的完整框架,是解决人工智能侵权问题的有效方案。

(一)多元主体的责任界定

人工智能缺乏主观意识和独立行动能力,尚无法成为民事责任主体。人工智能侵权的责任主体应覆盖技术设计、生产、服务提供与使用的全链条,确保责任分配无真空。与人工智能侵权相关的责任主体,主要涵盖设计者/生产者、服务提供方和普通用户,其中服务提供方可进一步细分为服务提供平台和专业服务提供者。

1.设计者/生产者的责任

人工智能作为人类智慧的集中体现,本质上是一种软件技术,也是知识产权领域探讨其技术专利化的核心对象。当人工智能在自主运行过程中产生侵权风险时,往往与设计者/生产者有关。通常情况下,设计者为生产者的技术人员(工作人员),在传统用人单位责任规则下,二者在侵权责任中对外统一视为“侵权方”,因此本文也将二者视为同一侵权主体进行责任界定,但并不影响二者的内部责任划分。在人工智能特殊侵权体系中,设计者与生产者是核心责任主体,其范围不仅包括传统意义上的硬件制造商,还涵盖算法模型的研发主体、人工智能系统的集成商,即所有对人工智能的硬件性能、算法逻辑、数据训练具有实质控制力的主体。例如,在生成式人工智能中,设计者/生产者需要决定抓取文献的时长范围、覆盖领域,是否遵守爬虫协议,是否对用户个人信息进行匿名处理等,这些参数的设置都离不开设计者/生产者的专业判断。同时,训练数据的选择与使用也会在无形中影响人工智能未来的侵权风险,从数据的筛选到训练结果的反馈,每一步都受设计者/生产者的严格把控。在生成式人工智能的开发流程中,设计者/生产者的决策对软件的运行效果及侵权风险的大小具有直接影响效力。因此,一旦人工智能的潜在风险转变为实际的侵权行为,设计者/生产者理应为此担责。

当然,在探讨归责过程中,需要对用人单位(生产者)和工作人员(设计者)的责任进行更细致的划分,可以参考单位知识产权的权益分配方式。若人工智能系统是由设计者自主研发并直接向用户销售,根据知识产权的分配原则,相关权益应归属于设计者。在此情况下,若因设计者原因发生侵权行为,设计者应承担责任。然而,当人工智能系统是由作为工作人员的设计者利用单位资源开发时,责任归属就变得复杂。此时,应参考技术开发协议中的收益分配条款确定责任归属。若协议中已明确权益分配方式,根据报偿责任理论,为确保权益分配与责任承担的一致性,责任归属也应参照协议约定处理以保障公平。若没有签订技术开发协议,或协议未对权益问题作出明确约定,那么类似知识产权的权益应归用人单位所有。在此情况下,如果因工作人员的设计行为导致人工智能系统侵权,根据用人单位侵权责任规则,应由用人单位承担替代赔偿责任。用人单位在对外承担责任后,有权向有过错的工作人员追偿。依据这一规则处理因设计者原因导致的人工智能侵权责任问题,既遵循了现有法律框架,也符合报偿责任理论的要求。

2.服务提供方的责任

人工智能现已被广泛应用于各类运营平台。例如,百度平台的文心一言、深度求索公司的DeepSeek、OpenAI公司的ChatGPT等生成式人工智能,都是由平台运营方控制软件的开放接口,用户通过注册成为会员使用智能服务,运营平台通过提供个性化信息推荐或收取会员费实现盈利。《生成式人工智能服务管理暂行办法》第4条规定:“提供生成式人工智能服务应尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。”这一规定实质上为生成式人工智能运营平台设定了对生成内容进行一般性审查的义务。若人工智能在使用过程中发生故障导致侵权,被侵权人有权要求提供人工智能服务的运营平台承担相应的损害赔偿责任。在具体案件中,若运营平台自身存在疏忽或故意导致侵权,其在承担责任后将丧失追偿权;若运营平台能够证明侵权系设计者/生产者过错所致,可依据相关约定行使追偿权。当人工智能产品/服务由平台自行设计、生产并对外提供时,此时应将平台视为生产者进行责任界定,既符合实际情况,也有利于被侵权人维护其合法权益。

人工智能亦可被专业人士用以提供服务。某些人工智能工具具有鲜明的专业化特征,不能直接向普通公众提供服务,例如法律服务软件、诊疗方案软件等。在这些人工智能与普通用户之间,必须由具备相关专业知识的人士对人工智能生成的结论进行严格审核。这种审核义务区别于平台所需履行的一般性审查,要求专业人士基于专业知识进行更为严谨的核查,注意义务标准也相应较高。这部分专业人士拥有双重身份:既是人工智能的使用者,同时也是借助人工智能提供服务的服务者。若这种类型的人工智能侵权是因为专业人士在审核过程中出现了疏忽,专业人士理应对其失误承担相应的损害赔偿责任。

3.普通用户的责任

普通用户在使用人工智能的过程中,也可能故意实施侵权行为或由于疏忽导致侵权。如用户在使用生成式人工智能时,可能通过故意诱导系统得出侵犯他人权益的结论。生成式人工智能的显著特点在于其能够通过人机交互不断拓宽信息搜索范围,从而提升系统的运行效能,最终为用户提供满意的答案。然而,这种交互性也可能被利用,用户通过不断提出特定要求诱导人工智能达成侵犯他人权益的目的。微软公司在2016年推出的聊天机器人“Tay”一经发布便受到了广泛关注。然而,在用户连续提问和引导下,“Tay”不断地吸收和扩充数据以进行自我革新,却意外地输出了包含种族歧视的内容,逐渐演变成了一个无法控制的“问题少女”。面对这一突发情况,微软公司不得不在次日紧急宣布关闭其使用通道。这一事件表明,普通用户在使用人工智能的过程中,有可能会实施一些设计者/生产者始料未及的侵权行为。在此情形下,实际侵权主体是存在主观过错的用户。设计者/生产者可以通过证明存在介入型侵权行为来实现责任减免。然而,最终责任的判定还需综合考量人工智能在设计和运行过程中能否预见到潜在的损害结果,并且是否已经采取了必要的防范措施。如果设计者未尽到应有的注意义务,仍需承担相应的责任。以前述聊天软件为例,该软件存在显著的技术性漏洞,微软公司迅速采取行动,通过紧急关闭软件防止损害进一步扩大,主动承担了停止侵害的责任。但如果该软件的使用已经对他人造成损害,作为普通用户的使用者必须为其存在主观过错的不当诱导行为承担侵权责任。

(二)复合型归责原则的确立

作为一类独立的特殊侵权行为,人工智能特殊侵权的归责原则体系必然具有复合性,这正是其作为“万能钥匙”应对人工智能侵权复杂性的关键设计。单一归责原则无法覆盖人工智能产品风险、服务风险和使用风险的多样性与复杂性。因此,需在特殊侵权框架内,依据风险来源、控制力及主体性质,构建层次分明的复合型归责原则体系。该体系包含无过错责任、过错推定责任和过错责任,它们并非相互排斥,而是协同作用于人工智能侵权责任认定的不同层面和不同主体。

1.设计者/生产者侵权适用无过错责任原则

针对人工智能设计者/生产者的侵权责任应适用无过错责任原则。该原则的核心逻辑在于:设计者/生产者作为技术研发的主导者与商业化受益者,对人工智能产品的潜在风险拥有绝对控制能力,且能通过定价机制、责任保险及行业风险基金分散损害成本,符合“风险控制—损害分散”的现代法治理念。同时,人工智能算法黑箱特性与自主决策机制导致受害人难以证明设计/制造缺陷,无过错责任通过免除过错要件举证彻底破除了技术维权壁垒,保障了实质正义。尽管有观点担忧严格责任会抑制创新,但实践证明,无过错责任反而倒逼企业提升了安全标准,并且可以通过强制保险制度、赔偿限额等配套措施实现责任平衡。如欧盟《人工智能责任指令(草案)》第3条与美国《自动驾驶法案》第12(b)条均采用无过错责任原则,并未阻碍其技术飞速发展进步。此外,人工智能本质属工业化技术产品,参照《产品质量法》第41条的无过错责任框架可保持法律体系的一致性,对算法特殊性引发的归责难题,可通过借鉴德国《自动驾驶法》第1b条的因果关系推定及强制性技术审计予以补充,而非退守适用滞后性的过错责任原则。因此,无过错责任原则基于风险分配正义、技术适应性调整与制度协同效应,成为人工智能侵权中设计者/生产者归责原则的必然选择。

2.不同服务提供方侵权适用不同归责原则

第一,在平台作为人工智能服务提供方的侵权情境中,适用过错推定原则具有制度合理性与实践可行性。过错推定原则要求平台就其已履行合理注意义务承担举证责任,既非放任平台免责,亦非施加绝对责任,而是基于平台的技术管控地位作出的衡平设计。其一,平台作为人工智能服务的直接运营方,掌握算法部署环境、用户交互数据及系统监控日志等核心证据,由其举证证明已采取基本审核措施(如内容过滤机制、异常行为警报)或及时修补已知漏洞,远比技术弱势的受害人举证平台存在过错更为公平高效。其二,平台在证明自身无过错后免责的安排,并不减损受害人权益,因损害可溯源于设计/生产缺陷时,受害人仍可依无过错责任向生产者求偿,且过错推定原则通过举证责任倒置已实质降低维权门槛,避免陷入“全有或全无”的责任僵局。需特别澄清的是,当设计者与平台均无过错时,虽不产生侵权责任,但可通过强制保险制度实现损害分担,而非由平台单方承受损失,此举也契合报偿理论的受益边界——平台仅为其控制范围内的运营收益担责。可见,过错推定原则在保护受害人、维护平台发展活力与技术源头责任之间构建了动态平衡。

需要注意的是,当平台自主完成人工智能产品的设计、生产并直接面向用户提供服务时,应将其法律地位明确界定为生产者并适用无过错责任原则。一方面,平台作为从算法研发、数据训练到服务部署全链条掌控者,对人工智能潜在缺陷具有绝对风险控制能力,依据权责一致原则理应与传统生产者承担同等严格责任。另一方面,无过错责任通过免除过错要件举证,仅要求证明人工智能缺陷与损害结果的客观关联,实质破解技术弱势群体的维权困境。如此,可通过降低受害人的维权成本彰显侵权责任法的实质公平,形成技术红利与风险责任的精准对价。

第二,在专业人士侵权情境中可设置过错责任原则。在人工智能提供诊疗等专业服务时,若因专业人士疏于审核输出结果导致侵权损害,应适用过错责任原则归责。受制于专业知识限制,受害人存在举证困难,这种情境中似乎宜适用过错推定原则以减轻受害人举证难度。但如果适用过错推定原则,将和目前侵权责任法体系产生直接冲突,引发同案不同判的问题。如医疗事故责任中的诊疗过失适用过错责任原则,旨在平衡举证责任并考量法律的社会引导作用。若在人工智能诊疗中设置过错推定原则,将使医务人员借助人工智能提升医疗水平的努力成为一种风险性尝试,即人工诊疗出现失误尚适用过错责任原则,而人工智能介入诊疗过程,医务人员不仅不能减轻压力,似乎还需承担更多注意义务防范人工智能失误,这种规定既不利于人工智能技术的推广应用,也不利于医疗事业的发展。故而,在需要专业人士辅助的人工智能侵权中,只能遵循传统过错责任原则,当然不排除可在司法实践中通过举证责任缓和降低受害人举证难度。

3.普通用户侵权适用过错责任原则

普通用户利用人工智能实施侵权行为,宜适用过错责任原则。用户过错责任是特殊侵权体系内处理使用风险的常规规则。普通用户承担的过错责任,可能存在疏忽和故意两种过错形态。普通用户使用的是不具备专业性能的人工智能,但并不意味着可以不做任何价值判断,当人工智能输出明显有违常理或存在侵权意图的结果时,如人工智能将黑种人标记为黑猩猩,用户应该基于常人的注意义务判断输出结果存在错误。若用户未加甄别而使用该结果,进一步扩大损害影响范围,则需承担因疏忽而导致的侵权责任。普通用户也可能故意利用人工智能实施侵权行为。这类用户虽不具备设计者的专业技术能力,但已能熟练运用人工智能进行侵权操作。例如,某些用户会故意引导生成式人工智能使用非通用语言输出侵权言论,规避道德审核系统之后再通过翻译软件将其转换为通用语言,从而达到侵权的目的。对于此类利用技术漏洞实施的侵权行为,用户应当承担过错责任。

(三)层次化责任形态的配置

侵权责任形态是行为人之间分配侵权责任的具体形式。在人工智能特殊侵权责任体系框架内,针对多主体导致同一损害的情形,需配置层次化的责任形态。这些责任形态(连带、按份、补充)是特殊侵权体系固有的责任分配工具,旨在实现精准追责与有效救济。

首先,设计者/生产者和服务提供者需承担连带责任。此设置的目的是简化受害人在人工智能侵权案件中的求偿流程。当设计者/生产者和服务提供者是同一主体时,自然由侵权主体承担责任,和连带责任也无制度性冲突。当二者分属不同主体时,此即设置连带责任制度的目的所在。通常,受害人难以直接追溯到人工智能的设计者/生产者,其可先向服务提供者索赔,此时服务提供者的身份相当于产品责任中的销售者,其需先行对外向受害人承担责任。当然,如果受害人能直接找到设计者/生产者,设计者/生产者作为类似产品责任中的生产者,自然应承担损害赔偿责任。但若服务提供者无过错,其在赔偿后有权向设计者/生产者追偿。这可以进一步理解为,前述服务提供者适用过错推定原则是相对于设计者/生产者而言的,对于受害人来说,个案中服务提供者甚至可能承担无过错责任。这种处理方式与我国《民法典》侵权责任编中的产品责任制度保持一致,旨在确保人工智能侵权行为规范的设计与现有法律制度相协调,避免出现责任冲突现象,从而维护法律体系的整体性和一致性。

其次,在涉及专业人士因审核疏忽导致人工智能侵权的场景中,同时产品存在警示缺陷,如未显著标注使用限制、错误率阈值或强制核验要求时,专业人士与设计者/生产者应承担按份责任。其原因如下:其一,专业人士作为风险防控的最终屏障,负有人工审核的法定注意义务,其疏于审核即构成过错责任的核心要件。如《德国民法典》第630a条规定,医生负有独立专业判断义务,需亲自验证关键数据,否则构成重大诊疗过失。法院基于此确立了BGH裁判规则:“医生对自动化诊断工具的结论仅视为辅助参考,最终诊断必须基于自身专业核验。”其二,设计者/生产者未充分警示风险独立构成《产品质量法》第27条项下的警示缺陷,美国《侵权法重述(第三版)》§2(c)也确立了生产者应对警示缺陷承担责任。其三,按份责任框架通过精准划分过错程度和原因力实现实质公平——专业人士按审核过失担责,设计者/生产者依警示缺陷担责,司法机关应综合评估各方过错与风险贡献度确定最终赔偿责任比例。

最后,若用户实施侵权行为,服务提供者应承担补充责任。这一规则与我国《民法典》第1198条安全保障义务条款形成呼应。当用户借助人工智能实施侵权行为时,作为服务提供者的平台有义务对输出结果进行必要审核。若平台疏于审核而导致侵权损害的发生或扩大,应承担相应的补充责任。需明确的是,平台为用户故意侵权提供了侵权途径,仅因审核过失而承担补充责任,但用户基于主观故意的侵权行为性质更为恶劣,应受法律更严厉的责难。因此,当人工智能用户具备承担全部损害赔偿责任的能力时,应由用户自行担责,仅在用户无力承担全部赔偿责任的情况下,作为服务提供者的平台才需承担与其过失相应的补充责任,并且承担责任后有权向侵权用户追偿,以此体现侵权责任法惩罚侵权人的法律立场。

(四)技术容错的责任减免机制

法律应为人工智能的技术进步预留制度空间。损害后果的发生并非必然引致赔偿责任,人工智能侵权规则中应设置相应的免责事由。

1.技术发展免责

即使严格的产品责任体系,也为技术发展预留了免责空间,该要义在人工智能领域更为重要。人工智能技术的发展具有阶段性,其进步过程充满挑战,甚至可能遭遇停滞或倒退。若要求设计者/生产者对所有损害担责,会导致其负担过重。在收益与风险严重失衡的情况下,设计者/生产者可能会选择保守策略,放弃进行突破性的技术创新,这对于人类社会而言,无疑是得不偿失的选择。因此,当设计者/生产者能够证明其在人工智能设计生产过程中已根据当前的技术发展水平进行了充分的风险管控,即使出现了损害后果,也应免除其责任。

然而,技术发展免责规则面临不可回避的伦理困境,当损害实际发生且设计者/生产者依法免责时,损害后果终局性地由受害人承担。这实质是将技术创新的社会成本转嫁于个体,构成显失公平的风险分配。尽管该结果在现行法框架下具有形式正当性,但其折射的正义缺失已超出侵权责任制度的调适能力,需通过系统性制度安排予以回应。破解之道并不在于对归责原则或免责事由进行调整,而在于通过强制保险机制实现风险的社会化分散。根据危险责任理论,由于人工智能潜在着不可控的技术风险,为了平衡各方利益并缓解由此带来的困境,可考虑引入强制责任保险制度。以机动车交通事故责任为例,由于机动车的机械危险性,可能会发生驾驶人和受害人均无过错的交通事故。在此情况下,除了由驾驶人承担补偿性责任外,更完善的制度设计是通过交通强制保险分散风险。这也是经过实践证明的可行制度。在人工智能驾驶领域,强制保险制度也能有效分散技术风险,该制度也可类推适用于其他人工智能侵权损害的情形。伴随人工智能进行大规模应用,应强制要求推广方购买相关保险,防范不可预测的技术风险。当发生各方均无过错的侵权损害时,可通过保险公司的赔付补偿受害人损失。

2.过失相抵减责

免责事由涵盖完全免责和减责情形。若人工智能侵权损害结果是由用户不当诱导或疏忽导致,用户也应对损害负责,以过失相抵减轻设计者/生产者和服务提供者的责任。其一,过失相抵体现了侵权责任法的公平原则。在侵权责任法体系中,损害赔偿范围主要由过错决定。若损害由受害人过错导致,其理应承担相应责任,减少相对方的赔偿范围,如此方符合公平原则。其二,过失相抵有助于推动技术发展。在构建人工智能侵权归责原则体系时,之所以设置过错责任原则,正是出于促进技术发展的深思熟虑。过失相抵是实现这一目标的关键环节,当用户故意诱导人工智能输出损害结果时,受害人的过错成为造成损害的主因,唯有让受害人承担相应后果,才能有效降低设计者/生产者和服务提供者所承担的技术风险,进而激励其主动引导技术向善。其三,过失相抵有助于防止损害扩大。由于当前技术水平的限制,人工智能在投入应用时可能仍存在未知的技术缺陷。一旦发生损害,除了依靠强制保险制度为受害人提供补偿外,更需要受害人主动采取措施防止损害进一步扩大,如停用软件或采取其他必要手段等。法律制度设计应致力于将损害控制在最小范围。设计者/生产者和服务提供者承担预防损害发生的首要责任,而防止损害扩大的责任则更适合由使用人工智能的用户承担。从维护自身合法权益的角度出发,用户应作出理性选择,积极防止损害扩大,这也符合人情法理。

结语

随着人工智能自动化程度的加深,技术发展中难免出现技术漏洞,亦不排除有主体借机实施侵权行为,侵权责任法亟需通过制度设计对此类漏洞进行填补。人工智能侵权因其主体难以界定、侵权行为隐蔽难证、损害结果复杂多变等特性,显著区别于既有侵权责任类型,无法因循旧例解决新出现的特殊问题。无论是现有的一般侵权还是特殊侵权制度,在应对人工智能侵权时均存在无法克服的障碍。与其不断修补既有规则,不如将人工智能侵权明确界定为一种新型特殊侵权责任,并为其量身定制一套责任认定规则。这不仅符合技术与法律的内在规律,能有效解决当前实践困境,亦可为人工智能技术的健康发展提供法律指引,实为明智之举。当然,本文提出的制度构想仍有待进一步完善和细化,但仍希冀通过将人工智能侵权作为一种新型特殊侵权责任,为人工智能侵权的法律应对提供有益的建议和倡导。

来源:上海市法学会一点号

相关推荐