郑志峰:DeepSeek的法律属性及其侵权责任承担

B站影视 港台电影 2025-04-01 11:36 2

摘要:2025年初,一款来自中国的生成式人工智能应用DeepSeek迅速走红,吸引了全世界的关注。有关DeepSeek的火热讨论延续到了全国两会现场,大会发言人娄勤俭表示,DeepSeek公司取得的重大进展,代表着一批中国公司在人工智能领域的崛起;教育部部长怀进鹏表

郑志峰西南政法大学科技法学研究院教授

2025年初,一款来自中国的生成式人工智能应用DeepSeek迅速走红,吸引了全世界的关注。有关DeepSeek的火热讨论延续到了全国两会现场,大会发言人娄勤俭表示,DeepSeek公司取得的重大进展,代表着一批中国公司在人工智能领域的崛起;教育部部长怀进鹏表示,DeepSeek和机器人是教育改革和发展的重大机遇。此外,许多政协委员、人大代表在讨论人工智能相关议题时都会拿DeepSeek举例。

相较于其他生成式人工智能,DeepSeek具有如下属性:一是低成本,摆脱以往依赖海量数据和高性能算力的研发思路,主要通过算法优化和分布式计算架构实现。二是高性能,DeepSeek的平均推理时间仅数十毫秒,显著优于传统模型的数百毫秒,同时为用户提供联网搜索、深度思考模式。三是本土化,DeepSeek大量使用中文数据语料,在中文文本生成和交互中表现更自然。四是开源化,不同于OpenAI的闭源模式,DeepSeek通过免费开放模型权限,吸引全球开发者参与低成本构建应用。与此同时,DeepSeek也带来了一系列法律挑战。其中,侵权责任问题尤为重要。

一、DeepSeek的法律属性界定

界定DeepSeek等生成式人工智能的法律属性是合理分配其侵权责任的前提。以DeepSeek为代表的生成式人工智能具有智能、软件、信息三大特征,导致在判断其究竟属于产品还是服务上存在困惑。

从目前学界研究来看,大多数学者认为人工智能的智能特征并未影响其客体地位,仍然可以从产品与服务二分的角度来界定其法律性质。比较困惑的是软件与信息两大特点。一方面,传统产品责任法中的产品概念以有形动产为模板,强调产品的物质属性,而DeepSeek以软件形式部署,是否构成产品存在疑问。有观点认为,如果软件存储在有形介质上,如DVD或者闪存盘,那么它有资格作为产品;反之,如果软件是通过云服务下载的,那么则不属于产品。有观点则认为,产品的本质并非有形无形,人工智能软件仍然可以构成产品。例如,2024年欧盟《关于缺陷产品责任的指令的提案》明确指出:“为了法律的安定性,应明确软件是适用无过错责任的产品,无论其供应或使用方式为何,也无论软件是存储在设备上、通过通信网络或云技术访问,还是通过软件即服务模式提供”。

另一方面,传统产品责任法理论将产品的范围局限于有体物,强调产品的介质,而介质所承载的思想、信息等不能作为产品。其中,最典型的例子是书籍出版物中的信息。与自动驾驶汽车等人工智能应用不同,DeepSeek等生成式人工智能的一大特点是生成能力,即以生成的文本、视频、音频等信息内容作为展示形式,这使其很难构成一般的产品。例如,在一个网络游戏的案件中,美国法院认为,尽管计算机源代码和程序在税收领域被解释为“有形财产”,在美国《统一商法典》中被解释为“货物”,但这些分类并不表明计算机视频游戏、电影或互联网材料中包含的思想、想法和信息应被视为适用严格责任的产品。当然,信息内容适用产品责任也有先例,如地图、航海图中的错误信息等。

笔者认为,DeepSeek原则上应当认定为服务。首先,DeepSeek的算法模式创新与高性能表现未改变其运行逻辑,仍然遵循用户通过输入指令来获得特定的输出内容的技术机制。这种方式符合《生成式人工智能服务管理暂行办法》关于生成式人工智能服务的定义。其次,DeepSeek生成功能的实现需要提供者与使用者的相互配合,前者负责提供算力支持、云端服务、实时交互和后期运维,而后者负责具体交互中指令的发出以及生成内容的使用。在此过程中,生成内容以及后续使用都具有强烈的个性化定制特征,更贴近服务的性质。最后,DeepSeek生成内容多为纯粹表达文化思想、体现言论自由的文化信息,认定为服务更加合适。

需要注意的是,当前DeepSeek等生成式人工智能正在广泛赋能交通、医疗等领域,这种深度融合很可能会改变其服务的性质。一方面,当DeepSeek与产品结合时,DeepSeek将作为产品的部分被整体认定为产品。例如,在自动驾驶汽车上引入DeepSeek大模型以提升车辆运行的性能,此时DeepSeek不具有独立性,而是构成整个产品的必要组成部分。另一方面,当DeepSeek提供的是技术信息,也可能被认定为产品。从历史上看,与提供文化信息的普通书籍不同,提供技术信息的地图被广泛认为构成产品。背后的原因在于地图提供的技术信息与一般产品的性能没有本质区别,公众对其存在合理的信赖。同理,当DeepSeek大模型与诊疗人工智能结合用于诊断疾病,此时虽然其形态仍然属于软件,但由于其生成内容不再是文化信息,而是一种辅助诊断疾病的技术信息,对于医务人员最终的诊断行为有重要作用,故将纳入医疗产品的范畴,而不再属于服务。

二、DeepSeek服务提供者的归责原则

DeepSeek作为服务,其侵权责任主要涉及提供者与使用者,其中服务提供者适用何种归责原则至关重要。对此,学界存在不同的方案。有学者认为,生成式人工智能侵权作为一种新型危险责任类型,适用无过错责任原则有其正当性,符合风险收益一致原则,能够为生成式人工智能行业发展提供稳定预期。

有学者则认为,生成式人工智能本身通常并不会直接造成人身或财产的物质性损失,不具有高度危险性,故适用过错责任更为合适。与此同时,自2023年以来,学界相继发布了两部人工智能法建议稿,一部是由中国社科院牵头的《人工智能示范法2.0(专家建议稿)》,一部是由中国政法大学等共同起草的《人工智能法(学者建议稿)》,两者都针对人工智能侵权责任作了规定。其中,《人工智能示范法2.0(专家建议稿)》一律采取过错推定责任;《人工智能法(学者建议稿)》则区分一般人工智能与关键人工智能,分别适用过错责任与过错推定责任。而根据《人工智能法(学者建议稿)》的规定,DeepSeek大模型属于在算力、数据、使用规模等方面达到一定级别的基础模型,属于关键人工智能的一种,需要适用过错推定责任。

笔者认为,当前对于DeepSeek等生成式人工智能适用过错责任更为合适。首先,规范依据。根据《民法典》有关侵权责任的规定,适用无过错责任和过错推定责任需要法律的明确规定,否则原则上需要适用过错责任。当前,《生成式人工智能服务管理暂行办法》等法律法规并未就生成式人工智能侵权责任做出特别规定,故适用过错责任更为合理。与此同时,从比较法视野来看,目前只有巴西和我国台湾地区对服务侵权采取无过错责任模式,大多适用过错责任原则。既然生成式人工智能被界定为服务,那么其归责原则理应区别于产品责任,适用无过错责任并不合适。当然,如果服务提供者利用DeepSeek大模型实施侵害个人信息的侵权行为,理当根据《民法典》和《个人信息保护法》的规定承担过错推定责任。

其次,风险原理。从侵权法原理来看,侵权责任归责的设置是损害分配的基础,一个重要考量因素就是风险的大小。从DeepSeek的应用场景来看,侵权风险主要是个人信息、隐私、著作权侵权等,其风险程度远低于自动驾驶汽车、医疗人工智能等直接关乎人们生命健康权益的应用,适用过错责任足以实现风险的合理控制。与此同时,相较于其他生成式人工智能,DeepSeek的一大特色是将推理功能可视化,向用户全程展示推理过程,这大大缓解了算法模型不透明带来的举证责任难题。

最后,制度效应。当前,人工智能技术已经成为国家核心竞争力,人工智能治理需要兼顾安全与发展价值。从全球来看,我国人工智能发展仍然处于追赶美国的位置,DeepSeek的横空出世让我国在生成式人工智能乃至整个人工智能领域有了更多机会。此种背景下,围绕生成式人工智能设置侵权责任规则时需要特别考量行业发展与技术创新的需求,不宜施加过重的责任,否则很可能会引发欧美等国家的特别对待,进而影响我国人工智能主权、安全与发展利益。

三、DeepSeek服务提供者的过错认定

既然DeepSeek作为一项服务需要适用过错责任,那么如何判断服务提供者的过错就至关重要。

注意义务的标准。依据侵权法原理,违反注意义务通常构成过错。DeepSeek服务提供者需要就提供的服务负担注意义务,具体采取何种标准存在疑问。对此,笔者认为,可以采用“理性算法+理性人”的综合判断标准。一是对于大模型自主生成内容带来的侵权风险适用理性算法标准。理性算法标准脱胎于理性人标准,是随着人工智能技术的发展提出的概念。具体来说,人工智能技术让人机之间的控制权力逐渐发生改变,机器决策不断取代人类的决策,公众的合理期待自然也会从人类身上转移到机器身上,由此就有必要针对人工智能系统适用理性算法标准。对于生成内容而言,侵权风险主要源自于DeepSeek大模型的自主行为,服务提供者很难知晓单个用户与大模型之间的交互,故应当针对大模型本身进行判断,即大模型在预防侵权风险方面的能力是否符合当前市场上大模型通常具有的水平。理性算法标准能够将注意义务从幕后的服务提供者转向台前的大模型,有助于过错判断的精准化和可视化。当然,在适用理性算法标准时,需要选取适当的参考标准,考虑到DeepSeek在生成式人工智能领域的领先水平,其理性算法标准也应相应提升。

二是针对服务提供者本身的侵权风险适用理性人标准,即从服务提供者本身的规模、收益、能力等进行判断,是否尽到了一个理性的服务提供者应当尽到的注意义务。从DeepSeek的使用场景来看,理性人标准的适用范围主要包括两类:第一类为算法模型提供训练语料产生的侵权风险场景;第二类是用户使用算法模型生成内容产生的侵权风险场景。无论是何种情形,如果服务提供者知道或者应当知道侵权风险的存在而没有采取相应的措施,都会被判定存在过错。需要注意的是,第一类风险因为是服务提供者直接训练大模型的行为,因而负有主动审查的义务,而第二类风险由于是用户的侵权行为,服务提供者不负有主动审查的义务,但在接到通知时应当及时采取措施进行处理。当然,无论是事先预防还是事后处理,都需要考虑DeepSeek初创企业的实际情况。

第二,注意义务的内容。服务提供者的注意义务需要根据其身份来分别判断。具体来说,DeepSeek服务提供者的注意义务包括如下几类:一是大模型训练者义务,负有使用具有合法来源的基础模型和数据、不侵害他人知识产权,采取有效措施提高训练数据质量以及大模型的可靠性和稳定性等义务。二是网络信息内容生产者义务,需要预防和制止DeepSeek生成和传播危害国家安全、破坏社会稳定、扰乱社会秩序、侵犯他人合法权益等信息内容。三是网络服务提供者义务,虽然与传统网络服务提供者存在区别,但仍然可以作为网络服务提供者来履行相关义务,如灵活适用通知删除义务。具体来说,传统网络服务提供者主要通过删除来停止侵权,而考虑到DeepSeek等生成式人工智能的逻辑机制、技术成本等因素,服务提供者很难采取措施从大模型的训练数据中删除特定的侵权内容,故其重心是确保侵权内容不再生成。四是个人信息处理者义务,即需要对用户的输入信息和使用记录等个人信息负有保护义务。

来源:最高法司法案例研究院

相关推荐