人工智能AI产业合规之困:从多国政策监管到落地实践的关键挑战

B站影视 韩国电影 2025-09-02 17:06 2

摘要:为引导人工智能健康发展,兼顾鼓励技术创新,各国及地区纷纷出台相关监管要求。部分国家因维护本国人工智能领域竞争地位制定的政策,对人工智能产业供应链也产生极大影响。人工智能法律风险评估已成为企业及相关从业者的重要课题。

为引导人工智能健康发展,兼顾鼓励技术创新,各国及地区纷纷出台相关监管要求。部分国家因维护本国人工智能领域竞争地位制定的政策,对人工智能产业供应链也产生极大影响。人工智能法律风险评估已成为企业及相关从业者的重要课题。

人工智能生命周期可以大致分为初始阶段、设计开发、验证确认、部署应用、运营监控和退役。与人工智能监管有关的法律风险涵盖数据安全、内容传播、算法伦理、产品形式、知识产权、出口管制等领域。人工智能生命周期各阶段均伴随多样的法律风险,人工智能系统各阶段的主要风险如下:

1. 在初始阶段,人工智能开发者在设计人工智能系统前,应结合利益相关方的需求,确定开发人工智能系统的目标和产出成果(如帮助企业员工提升工作效率),并确认人工智能系统的规格与需求(系统所需的要求或材料,如计算机搭载芯片等)。在该阶段,开发者应重点考虑系统实现目标是否符合科技伦理、预期产出结果是否存在生成内容风险、所用芯片等是否涉及出口管制风险。

2. 在设计研发阶段,人工智能开发者需要构建人工智能模型架构,选择算法、设计工作流程并准备测试数据。在该阶段,开发者应重点评估投喂模型数据的来源合法性,是否侵犯个人信息主体和第三方知识产权等。

3. 在验证确认阶段,人工智能开发者需测试并评估人工智能模型,确认系统是否符合预设标准且与预期目标一致。在该阶段,开发者应重点评估验证数据的来源合法性、算法是否具备透明度和可解释性、生成内容是否安全可靠。

4. 在部署应用阶段,人工智能开发者需在生产环境中实施已验证的模型,确保与其他系统集成并遵守操作及安全要求。在该阶段,如所使用的底层模型是在第三方模型的基础上调整,开发者应重点评估系统所使用的基础模型是否符合与模型提供方的约定,生成内容是否侵犯第三方知识产权,产品形式是否合规,如是否验证用户身份,签订用户协议等。

5. 在运营监控阶段,人工智能开发者应主动监管人工智能系统,监控可能影响输出结果偏差、性能变化等问题。在该阶段,开发者应重点持续关注生成内容的安全性,以及模型的网络安全,降低数据泄露风险。

6. 在退役阶段,人工智能系统或组件失效,人工智能开发者应对人工智能进行停用。在该阶段,开发者应妥善处理数据,维护个人信息主体权益。

现阶段,我国对人工智能主要通过部门法及配套细则进行监管。评估人工智能法律风险需要根据各类风险涉及的法益,适用相对应的规则。不同领域的规则如同经纬线交织,织就人工智能监管的法律防护网,维护个人权益、社会秩序和国家安全。企业在海外经营业务,还需要考虑当地的法律规则。本团队对人工智能监管重点进行了统一汇总分析,以期为企业提供参考,后续将对人工智能监管合规重点内容进行专题解读。

一、数据来源合规

Open AI于2022年末引起广泛关注后,数据安全风险成为最先拉响的警报。2023年初,意大利、西班牙、加拿大、法国等国家的数据保护监管机构,聚焦用户信息处理合法性问题,对Open AI展开调查。数据是人工智能发展的三驾马车之一,人工智能训练需要海量数据优化,但生成内容时可能泄露用户隐私和商业秘密,如某模型曝出输出内容泄露用户微信号。此外,数据内容也影响人工智能输出质量,若数据存在残缺和偏颇的情况,人工智能生成内容也会失真。因此,维护数据主体权益和保障数据内容优质是监管规制人工智能的重要锚点。

开发者一般将从多种渠道收集的原始数据经过数据清洗、过滤等手段后形成预处理数据,再通过数据标注、转换、增强等方式形成可用的训练数据、测试数据和验证数据。AI训练和优化的数据来源包括开发者直接采集数据、间接获取数据、构建合成数据等方式。鉴于数据种类的多样性,数据来源合规与国家秘密、商业秘密、知识产权、数据保护等领域法律紧密相关。获取数据的技术手段不当亦有可能触犯刑法。数据来源合法性主要集中在以下方面

(一)直接收集数据

中国《个人信息保护法》第13条规定了个人信息处理的合法性基础,即获得同意、为个人作为一方当事人订立履行合同所需,处理个人自行公开或已公开个人信息等条件。GDPR下处理个人信息的合法性基础条件与中国处理个人信息合法性基础条件大部分相似,但GDPR还额外规定“为控制者或第三方的合法利益所必需”,2025年5月23日,德国一法院作出判决,认定Meta可以依据GDPR下“为控制者或第三方的合法利益所必需”,使用德国用户在社交软件上公开的数据作为人工智能训练来源。

对于直接收集用户数据的情形,开发者获得用户明确书面授权用于训练优化模型,是遵守《个人信息保护法》采取的普遍做法。开发者援引《个人信息保护法》中的其他合法性基础条件作为主张处理个人信息合法性依据,通常与业务实践的关联度不高。但获取同意并不能完全成为企业的免责符。如国内某公司在隐私政策中陈述将对用户主动上传的文档材料,在采取脱敏处理后用于模型训练引发广泛关注,用户质疑数据用于模型训练的合理性。随后,该公司官方向用户致歉,并承诺用户文档不会被用于人工智能训练目的。AI企业在数据收集场景下,应避免笼统援引合法性基础,应审查数据收集是否获得必要授权、处理是否符合最小必要原则,同时建立应急预案以应对用户质疑和监管检查。

(二)自动化访问数据

生成式AI模型对训练数据的需求十分庞大,通过自动化访问手段(亦称爬虫)获取数据是开发者拓宽数据来源的重要途径。自动化访问数据在实践中一直是颇具争议的话题。2023年,某教育行业公司起诉合作伙伴,称合作伙伴在未经合法授权和许可下,爬取自身大量数据用于训练AI模型,要求合作伙伴公开道歉。自动化访问数据不当,也很有可能触犯侵犯公民个人信息罪、破坏计算机信息系统罪等罪名。我国《网络数据安全管理条例》(以下简称《条例》)对自动化访问手段秉持技术中立的监管态度,明确网络数据处理者使用自动化工具访问、收集网络数据,应当评估对网络服务带来的影响,不得非法侵入他人网络,不得干扰网络服务正常运行。

《条例》第十九条同时要求提供生成式人工智能服务的网络数据处理者应当加强对训练数据和训练数据处理活动的安全管理,采取有效措施防范和处置网络数据安全风险。

目前我国对自动化访问手段获取数据主要从数据保护、反不正当竞争、刑事等领域法律规制。企业通过自动化访问手段获取数据应建立合规前置评估机制,综合被访问网站性质、访问数据量级和获取数据的内容等因素评估风险,确保不触碰非法侵入、干扰网络服务正常运行、个人信息保护等合规红线。

(三)间接获取数据

开发者间接获取数据的渠道包括通过协议购买数据,使用免费开源数据等。开发者间接获取数据,需要注意数据提供方是否具备特殊资质和合法授权,可以对外提供数据;此外,还需要注意数据购买/使用协议中数据使用目的、是否允许开发者对外提供等条款。

(四)合成数据

合成数据是模仿真实数据,通过计算技术和算法模拟创建产生的数据。使用合成数据目的是为弥补开发者在训练模型时,无法获取真实数据或获取真实数据成本较高的缺陷。合成数据可用于训练、增强和验证模型。合成数据需要注意数据处理的技术或系统是否侵犯第三方合法利益。

二、生成内容合规

人工智能在信息检索、内容合成方面为社会带来极大便利,在各个领域广泛应用的同时,生成内容所带来的合规风险日益显著,对国家安全、社会秩序以及个人权益等都可能造成不良影响。

(一)人工智能生成内容合规表现

结合《生成式人工智能服务管理暂行办法》(以下简称《办法》)第四条,我国人工智能生成内容合规主要集中在以下方面。

1. 遵守法律和社会公序良俗内容

生成内容应坚持社会主义核心价值观,违反法律和社会公序良俗包括传播虚假有害信息、宣传暴力色情,危害国家安全和利益等。如不法分子利用AI换脸技术冒充明星,实施诈骗活动;部分自媒体博主生成虚假图片编造新闻获取流量。AI企业需建立生成内容合规审查机制,强化对输入和输出的监控,运用技术手段识别并过滤敏感或违法内容,同时设置举报和追溯机制,确保生成内容可控、可追溯。同时通过合同、用户协议、隐私政策、使用规范等条款,把法律义务和合规要求转化为可执行的责任分工。

2. 不得生成歧视性内容

歧视性内容包括民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。2024年7月30日,联合国人权理事会专员在其报告中称生成式人工智能引发种族歧视问题。如当人工智能应用于教育工具时,可能存在种族偏见,由于算法设计和数据选择,这些工具通常认为少数族裔在学业和职业生涯中取得成功的可能性较小,助长排斥和歧视。2024年,美国一名黑人女性Mary Louis因租房申请被第三方服务的评分算法拒绝,其后发起集体诉讼,指控该算法在种族和收入方面存在歧视。法院最终批准和解,算法公司SafeRent Solutions同意支付220万美元赔偿并调整产品功能。该案成为美国首批因AI算法歧视而达成和解的案件之一。AI企业应在生成内容和算法应用中建立偏见检测与校正机制,通过多样化和均衡化的数据训练减少系统性偏差,从源头降低因歧视性内容引发的法律与声誉风险。

3. 生成内容不得侵犯组织和个人合法权益

侵犯组织合法权益行为包括侵犯他人知识产权、违反商业道德、泄露商业秘密、实施垄断和不正当竞争行为等;个人合法权益包括个人身心健康、肖像权、名誉权、个人信息权益等。如湖南省长沙市开福区人民法院审结一起视频侵权纠纷案件,认定被告某网络公司通过其开发的人工智能“一键成片”功能,未经原告同意,非法传播原告享有网络传播权的某古装剧的短视频片段构成侵权,判令被告立即停止侵权行为,并赔偿原告经济损失及合理支出。企业在设计与运营生成式AI产品时,应对生成内容设置版权与权利提示机制,在用户使用相关功能前明确告知潜在风险,并在用户协议中明确数据与生成内容的使用边界,从而降低侵犯知识产权与他人合法权益的风险。

4. 生成内容需准确可靠

内容不准确可靠体现在AI输出看似合理,但却与事实不符或产生错误结论,即AI幻觉。AI幻觉可能是完全虚构,也可能是细节出现偏差,这种现象受限于技术。2025年3月,在美国印第安纳州一场劳资纠纷案中,律师在法律文件中引用AI生成的虚构判例,法官审查后发现这些判例均不存在,该律师因此受到了处罚。该案件中,法官并未对AI企业进行处罚。若AI工具频繁出现幻觉并被媒体曝光,仍可能对大模型公司造成商誉损害与市场信任流失。因此,AI服务提供方应在系统中设置明显的风险提示和免责声明,同时不断优化幻觉检测与校正功能,以降低用户误用风险,并维护企业声誉。

(二)人工智能生成内容合规应对措施

1. 保障训练数据质量

训练数据的内容质量是影响人工智能合成内容质量的基石。数据不完整、内容存在误导、价值观偏差、歧视性等标签,将直接影响AI内容输出结论正确性。开发者应加强对数据质量管控,制定明确的数据标注规则,尤其是境外开源数据,需要注意数据内容是否有违中国道德规范。

2. 完善算法运行机制

定期对算法运行机制进行安全评估,检测模型漏洞,避免生成违法不良信息,保障算法运行的可解释性和透明度。此外,对输入内容和生成内容加强审核,如对输入内容生成接口处进行多层过滤,通过关键词库拦截包含违法、淫秽色情等敏感信息的输入指令,拒绝对高风险输入回答。

三、知识产权合规

人工智能及其生成内容的普及已成为经济社会发展的必然趋势,人工智能研发阶段获取的数据及其生成内容权属问题均涉及知识产权法律下的要求,法律规定和产业发展平衡为规则的应用和解读提出了全新的探讨话题。

(一)训练数据来源的知识产权合规

生成式人工智能为生成文字作品、图像、音乐、视频等,需要高质量大量的语料训练,涵盖新闻、各领域论文、摄影素材、设计图、歌曲及影片等素材,这些素材涉及权利人的许可使用,知识产权合法性成为人工智能合规的又一焦点。围绕人工智能训练数据知识产权的争议一直不断,如2023年6月,美国作家协会及8000多名作家签署公开信,要求Meta、微软等公司不得在未经许可下使用他们的作品进行人工智能训练;2023年末,美国《纽约时报》起诉Open AI及其投资主体微软,指控这两家公司未经许可收集该报文章训练人工智能。AI企业在训练数据收集与使用环节应优先选择公开许可或已明确授权的数据集,以降低潜在的版权诉讼与商誉风险。

《办法》第七条规定生成式人工智能服务提供者开展预训练、优化训练等训练数据处理活动,涉及知识产权的,不得侵害他人依法享有的知识产权。除此之外,我国知识产权法律法规中并未对人工智能训练数据的知识产权问题作出其他特殊规定。

取得权利人许可毫无疑问是最合规的方式,但在实践中人工智能训练来源广泛,涉及的权利人众多,开发者获取许可的成本较高。国外法律和我国法律规定了著作权“合理使用”规则,在满足特定情形下,法律允许可以不经权利人许可,不向其支付报酬,自由使用有著作权的作品。我国《著作权法》第二十四条明确规定了十三种“合理使用”类型,尚不包括人工智能训练数据情形。“合理使用”还需要注明作者及作品名称、不得影响作品正常使用、不得损害著作权人利益。

目前在与人工智能训练数据知识产权的国内外争议中,被告通常会援引著作权“合理使用”。2025年6月,美国加州北区联邦法院就三位原告诉人工智能公司Anthropic作出判决,三位原告诉称Anthropic在未经许可、未支付报酬的情况下,使用了他们作品的盗版版本训练模型,法院判决使用受版权保护的书籍来训练其大模型的行为,属于美国版权法下的合理使用;但Anthropic从盗版网站下载盗版书籍并存储在数据库的行为,不属于合理使用,构成侵犯版权。企业在训练数据环节应建立权属尽调与合规分级机制,明确区分合法授权、合理使用与侵权数据;对潜在高风险数据(如来源不明、疑似盗版内容)应设置技术隔离与替代方案,避免直接进入训练库。同时,应通过日志留痕和溯源机制记录数据处理过程,以便在权利人或监管部门提出质疑时,能够提供合规依据并降低侵权风险。

学界于2024年7月发布《人工智能法(学者建议稿)》(以下简称“建议稿”),将人工智能训练使用著作权的数据列为合理使用情形,反映学界鼓励创新人工智能的立场,建议稿第二十四条规定“人工智能开发者使用他人享有著作权的数据进行模型训练时,如果该使用行为与数据原本的使用目的或功能不同,并且不影响该数据的正常使用,也没有不合理地损害数据权利人的合法权益,则该使用行为属于数据合理使用。对于符合上述合理使用情形的数据使用行为,人工智能开发者可以不经数据权利人许可,不向其支付报酬,但是应当以显著的方式标注数据来源。”

2024年6月20日,北京互联网法院在线开庭审理了四起画师起诉人工智能绘画软件开发运营者的著作权侵权案件。四起案件的原告认为被告抓取原告作品用于模型训练侵犯其合法权利,被告则抗辩称使用原告作品用于大模型训练构成合理使用。目前,该案仍在审理中。

(二)生成内容权属

1. 用户对成内容可享有著作权

在全国首例人工智能生成图片著作权侵权纠纷案中,原告诉称被告未获得原告的许可,在被告发表文章中使用原告通过开源软件生成且发布在社交平台的图片,使得相关用户误认为被告为该作品的作者,严重侵犯了原告享有的署名权及信息网络传播权。

法院判决,涉案图片并非“机械性智力成果”,在无相反证据的情况下,可以认定涉案图片由原告独立完成,体现出了原告的个性化表达,涉案图片具备“独创性”要件。关于作品的认定,人们利用人工智能模型生成图片时,本质上仍然是人利用工具进行创作,即整个创作过程中进行智力投入的是人而非人工智能模型。鼓励创作,被公认为著作权制度的核心目的,人工智能生成图片,只要能体现出人的独创性智力投入,就应当被认定为作品,受到著作权法保护。

人工智能服务提供者对生成内容的所有权和知识产权,目前法律法规未直接规定,人工智能服务提供者多以用户协议与用户约定,如某人工智能模型用户协议中约定“(2)我们将本服务输出的内容的任何权利、所有权和利益(如有)归属于您”,即输出内容的任何权利和所有权归用户所有。人工智能服务提供者通过用户协议明确界定生成内容的权属归属与使用范围,可避免因权利不清导致的侵权纠纷,同时服务提供者可建立署名与权利声明机制,保障用户合法权益。

2. 人工智能服务提供者的合理注意义务

如前所述,人工智能服务提供者对生成内容负有守门人的义务。人工智能服务提供者对于生成内容知识产权合法性保护的责任认定边界如何确定,全球第一例人工智能服务平台侵权案“【2024】粤0192民初XXX号”判例对此予以明确。

原告认为被告未经授权,擅自利用原告享有权利的作品训练其大模型并生成实质性相似的图片,侵害其对奥特曼作品享有的知识产权。被告称案涉网站的人工智能绘画功能是通过第三方服务商实现的,与被告无关,被告亦未使用原告享有权利图片训练模型。

法院判决被告通过可编程接口的方式接入第三方服务系统,属于人工智能服务提供者。被告作为生成式人工智能服务提供者,未尽到合理的注意义务,主观上存在过错,应对侵权行为承担相应的赔偿责任。“未尽到合理的注意义务”表现如下:(1)投诉举报机制欠缺,权利人难以通过投诉举报机制保护著作权;(2)潜在风险提示的欠缺,被告作为服务提供者未以服务协议等方式提示用户著作权人;(3)显著标识的欠缺,生成式人工智能服务提供者有义务对其提供的生成物进行显著标识,被告未显著标识案涉生成图片,未尽标识义务。

结合该案,企业应避免使用可能侵权的训练语料,明确投诉举报反馈渠道,及时处理用户反馈;并在服务协议中明确要求用户不得在模型中上传侵权内容,不得使用输出内容侵犯他人合法权利;对生成内容按照国家标准进行标识等。

四、模型使用许可合规

大模型开发成本和时间较高,在已有第三方基础模型上训练得到衍生模型是目前行业通用做法,模型应用方可通过内部数据训练模型、调整模型参数等,定制企业专属用途模型。基础模型分为开源和闭源两种。开源模型的源代码、训练数据和技术文档完全公开,任何人都可以查看、修改、分发和使用。闭源大模型不公开源代码和训练数据,通常需要付费或通过特定许可才能使用。

2023年12月,Open AI称中国某知名高科技企业“秘密”使用Open AI的技术训练自己的大型语言模型,违反了Open AI的服务条款。2025年1月,Open AI又称中国某初创人工智能企业未经授权获取大量Open AI数据。为防止发生类似争议,AI企业在使用开源模型和闭源模型时,均需要注意模型许可协议的要求。重点审查许可协议中的下列条款:(1)修改分发限制,如分发代码是否需要明确指出修改内容,是否允许他人可以相同条件再分发;(2)版权声明,如使用修改软件,是否需要保留原始的版权声明;(3)使用目的限制,是否允许商业使用,是否允许用于优化其他模型;(4)许可范围,是否存在地域限制;(5)许可对象,如模型用户月活数达到一定规模需要专门申请许可。

五、产品形式合规

人工智能服务提供者向用户提供人工智能产品时,在产品形式上需要满足相关要求。

1. 协议合规

根据《办法》第九条要求,人工智能服务提供者需要与用户签订服务协议,明确服务提供者与用户的权利关系。根据《个人信息保护法》要求,人工智能服务提供者处理个人信息,还需要制定个人信息处理规则。人工智能服务提供者不仅应结合商业需求制定协议条款,还应落实法律要求,如根据《人工智能生成合成内容标识办法》,服务提供者应当在用户服务协议中明确说明生成合成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求。此外,在隐私政策中写明处理者名称、处理个人信息目的种类、采取的技术保护措施、个人信息委托处理和共同处理情况,个人信息主体行使查阅、复制、更正、补充、删除权利的方式;明确投诉举报方式,及时处理用户投诉举报情况并反馈结果。

2. 标识合规

为防止人工智能生成信息误导用户,中国监管部门在《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《办法》提出了对生产内容进行标识,提示用户的要求。为进一步明确相关服务主体的标识责任义务,规范内容制作、传播各环节标识行为,网信办于2025年3月发布《人工智能生成合成内容标识办法》,人工智能内容标识分为显式标识和隐式标识。

(1)显式标识

显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识。服务提供者应对生成文本、音频、视频、图片等合理位置添加显著标识。服务提供者提供生成合成内容下载、复制、导出等功能时,应当确保文件中含有满足要求的显式标识。用户申请服务提供者提供没有添加显式标识的生成合成内容的,服务提供者可以在通过用户协议明确用户的标识义务和使用责任后,提供不含显式标识的生成合成内容,并依法留存提供对象信息等相关日志不少于六个月。

(2)隐式标识

隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。服务提供者应当按照《互联网信息服务深度合成管理规定》第十六条的规定,在生成合成内容的文件元数据中添加隐式标识,隐式标识包含生成合成内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息。

此外,提供网络信息内容传播服务的平台应核验文件元数据中是否含有隐式标识,文件元数据明确标明为生成合成内容的,应在发布内容周边添加显著提示标识;未核验到隐式标识,如用户声明为生成合成内容或通过技术手段识别疑似生成合成内容,应显著标识。

3. 登记备案

人工智能服务提供者需要满足算法备案和生成式人工智能备案的要求。

《办法》要求具有舆论属性或者社会动员能力的算法推荐服务提供者,应按照《互联网信息服务深度合成管理规定》通过互联网信息服务算法备案系统填报服务提供者名称、服务形式、算法类型等备案信息,履行备案手续。完成备案的算法推荐服务提供者应当在其对外提供服务的网站、应用程序等的显著位置标明其备案编号并提供公示信息链接。

此外,提供具有舆论属性或者社会动员能力的生成式人工智能服务提供者开发并上线大模型,还需要线下向属地网信办提交材料备案。部分企业未独立研发模型,通过API接口等形式调用已备案第三方大模型向公众提供服务,需要进行大模型登记及算法备案。已上线的生成式人工智能应用或功能,应在显著位置或产品详情页面公示所使用已备案或登记生成式人工智能服务情况,注明模型名称、备案号或上线编号。展示算法备案信息和大模型备案/上线信息的位置没有固定要求,将备案信息公示在隐私政策或资质证照信息页面是企业目前采用的通常做法。

六、人工智能相关物项以及技术进出口审批要求

人工智能是各国竞相发展的领域,鉴于企业在海外业务不断拓展,技术出口是各国监管重点。且随着中美在人工智能领域的竞争不断升温,美国为遏制中国人工智能产业发展,持续出台细化管制规则,禁止向中国提供与人工智能相关的硬件、软件、技术和资金等方面支持。

(一)中国法律要求

1. 中国技术出口要求

2025年7月15日,商务部会同科技部调整发布《中国禁止出口限制出口技术目录》(以下简称《目录》),属于军民两用技术的,纳入出口管制管理。

《目录》禁止出口的技术不得出口,限制出口的技术实行许可证管理。《目录》以外技术属于自由出口的技术,实行合同登记管理。《目录》将“基于数据分析的个性化信息推送服务技术”列为限制出口技术,“基于数据分析的个性化信息推送服务技术”具体是指“基于海量数据持续训练优化的用户个性化偏好学习技术、用户个性化偏好实时感知技术、信息内容特征建模技术、用户偏好与信息内容匹配分析技术、用于支撑推荐算法的大规模分布式实时计算技术等。”

2. 中国制裁清单和出口管制清单

中国组织和个人在与外国组织和个人合作前,应识别筛查外国组织和个人是否属于制裁清单和出口管制清单主体,谨慎开展合作。

(1)制裁清单

为应对外国政府滥用法律实施“长臂管辖”,保护我国国家安全和经贸秩序,我国先后制定《不可靠实体清单规定》《阻断外国法律与措施不当域外适用办法》《反外国制裁法》,设立不可靠实体清单和反制裁清单。

列入不可靠实体清单的法律后果包括限制或者禁止其从事与中国有关的进出口活动,中国组织或者个人在特殊情况下确需与该外国实体进行交易的,应经不可靠实体清单工作机制办公室(办公室设在商务部)同意后开展交易。2025年4月4日,不可靠实体清单工作机制将浩劫人工智能公司等11家美国实体列入不可靠实体清单,禁止上述企业从事与中国有关的进出口活动,并禁止上述企业在中国境内新增投资。

列入反制裁清单的法律后果包括禁止或者限制我国境内的组织和个人与外国实体进行有关交易。

(2)出口管制清单

出口管制清单分为管控名单和关注名单。2024年10月19日发布的《两用物项出口管制条例》第三节完善《出口管制法》中的管控名单制度,并对列入管控名单的进口商、最终用户采取限制交易、禁止交易等措施;《两用物项出口管制条例》第二十六条借鉴国际经验做法,首次建立关注名单制度,对不配合最终用户和最终用途核查的当事人,可以列入关注名单,被列入该名单并不导致禁止交易,但在向其出口时将面临更严格的审查制度,出口经营者与其交易不得享受各种许可便利措施。2025年3月4日,商务部将护盾人工智能公司等15家美国实体列入出口管制管控名单,禁止向上述15家美国实体出口两用物项,正在开展的相关出口活动应当立即停止;特殊情况下确需出口的,出口经营者应当向商务部提出申请。

(二)美国法律要求

1. 芯片管控

算力是人工智能发展的关键驱动力,美国近年加强人工智能算力芯片和半导体设备的管控。美国《出口管理条例》(以下简称“EAR”)管辖的物项包括(1)位于美国境内的所有物项,包括美国自由贸易区和从美国过境的物项;(2)所有原产于美国的物项,无论位于世界何地;(3)受控美国原产物项成分超过最小占比的外国生产物项;或(4)特定外国生产产品(FDP规则):特定受控美国技术的“直接产品”或利用特定受控美国技术制造的设备、大型工厂的“直接产品”。

前述(3)、(4)类EAR管辖物项专门针对外国生产的产品而设,是美国实施域外适用EAR的重要抓手,明确这两项规则的具体边界对于非美国企业梳理产品线受控情况比较重要。美国商务部工业与安全局(BIS)多次调整FDP规则,FDP规则涵盖先进计算、超级计算机、半导体制造设备等维度,如根据超级计算FDP规则,未经BIS许可,出口方不得在知晓的情况下将受管制物项的直接产品用于特定国家超级计算机的设计、生产、操作、安装、维护、修理、大修或翻新等活动。

2025年1月13日,拜登离任前制定《人工智能扩散规则》。该规则号称史上最严格的芯片出口管制规则,中国大陆被禁止采购美国先进的人工智能芯片用于训练人工智能模型等。2025年5月12日,美国商务部宣布废除《人工智能扩散规则》,但同步推出三项政策强化半导体管控意见,主要包括限制先进芯片被用于中国训练人工智能模型、禁用华为Ascend 910B芯片、强化审查先进集成电路交易严控技术转移。

根据《金融时报》及路透社消息,部分中国科技企业,因英伟达高性能芯片库存逐步耗尽,且美国不断收紧先进芯片出口管控,不得不加快测试和导入华为等国产替代芯片,以缓解供应链断裂带来的冲击。更换供应链预计将导致前述企业人工智能相关研发与模型训练进度整体推迟约三个月。该案例凸显了美国芯片管控措施对中国AI企业核心算力依赖的直接冲击,也揭示了企业在转型过程中的现实困境。中国企业除建立健全的合规体系外,还应及时跟踪美国及其他主要国家的相关立法、执法动态,动态评估对供应链风险;同时制定完善的应急预案,包括算力资源替代方案、供应商多元化布局和跨境业务的风险隔离机制,从而降低因政策调整导致的研发延误和业务中断风险。

2. 投资管控

在特朗普的第一任任期内,2018年8月生效的《外国投资风险审查现代化法案》扩张了美国外资投资委员会(CFIUS)的职能。特朗普政府将CFIUS适用范围扩张至外国主体在以下领域的交易:“关键技术”“核心基础设施”或“涉及美国公民敏感数据”。2024年10月28日,美国财政部发布一项最终规则《有关美国在相关国家投资某些国家安全技术和产品的条款》,规则限制美国投资者投资半导体和微电子、量子信息技术、人工智能领域,帮助中国获取相关技术核心、人才以及业务。2025年5月25日,特朗普签署《美国优先投资政策》备忘录,再次指示CFIUS严格审查限制与中国有关联的主体投资美国的技术、关键基础设施等其他战略行业;加强CFIUS对“绿地”投资的权限,以限制外国对手获取美国敏感技术(特别是人工智能)方面的人才和业务,扩大CFIUS可管辖的新兴和基础技术的范围。

2025年5月,美国财政部对硅谷风投公司Benchmark Capital投资中国初创公司M 7500万美元是否违反美国对外投资审查政策进行审查。美国律师事务所认为M并未自研基础模型,而是利用现有模型开发产品,且其母公司注册在开曼群岛,数据存储在境外服务器,因此不应被认定为受限投资。然而从执法实践中看,在当前美国投资审查日益收紧的背景下,即便企业以开曼、英属维京群岛等地为注册地,形式上并非中国公司,仍有可能被CFIUS等机构视为“受关注国家”的企业,从而受到严格审查。

3. 数据管控

2024年2月28日,当时的美国总统拜登签发《关于防止受关注国家获取美国主体大规模敏感个人数据及美国政府相关数据的行政命令》(以下简称“EO 14117”),禁止受关注国家(中国、俄罗斯、朝鲜、古巴、委内瑞拉和伊朗)访问大量美国人的敏感个人数据和政府数据,维持美国在人工智能领域的竞争优势。2025年1月8日,美国司法部发布了落实EO 14117的数据跨境传输限制最终规则,最终规则确定了被禁止和受限制交易获取数据的类别,并设立触发监管的数量交易阀值。该规则是一部维护美国国家安全的法律,个人信息保护法律中的告知同意规则不适用,匿名化的数据也属于规则管制的对象。纯粹美国主体之间的交易不受监管,规则设立了其他豁免交易类型。交易主体需要遵守审计尽调和报告等义务。

七、人工智能境内外立法和监管执法趋势

(一)中国人工智能立法和执法趋势

1. 立法趋势

目前,我国监管仅对生成式人工智能作出专门规定,尚未制定类似欧盟《人工智能法案》的专门针对人工智能全方位监管的纲领性法律。中国人工智能监管规定主要关注人工智能重点风险领域,涉及网络安全和数据保护、科技伦理与算法合规、知识产权等维度,形成“法律-行政法规-部门规章-地方法规”的全位阶体系,并通过强制性国家标准和推荐性标准为企业实操提供指导。

《国务院2024年度立法工作计划》将“人工智能法草案”列入预备提请全国人大常委会审议项目。《国务院2025年度立法工作计划》未将“人工智能法草案”列入预备提请全国人大常委会审议项目,表述调整为“推进人工智能健康发展立法工作”。部分学者建议仍需制定纲领性的人工智能法律。鉴于人工智能产业形态的迅速变化,笔者理解人工智能监管仍主要通过既有法律规定,具体细化重点风险领域要求。

2. 执法趋势

个人信息处理合法性一直是监管重点,网信、工信和公安是主要的监管部门,通过定期检测APP、小程序处理个人信息情况,维护个人信息主体权益。如2025年某人工智能企业被工信部通报违法处理个人信息。

2024年年底网信办发布算法专项治理公告,聚焦信息茧房、大数据杀熟等公众关心问题,促进推动算法导向正确、公平公正、公开透明。2025年4月,网信办部署开展“清朗·整治AI技术滥用”专项行动,分为两阶段开展,第一阶段强化AI生成合成内容审核机制,第二阶段聚焦利用AI技术制作违法不良信息。AI治理重点已进入深水区。

(二)境外人工智能立法和执法趋势

1. 立法趋势

(1)欧盟

欧盟是数字经济发展治理监管探索的先驱者,欧盟制定了《通用数据保护条例》(即“GDPR”)《数字服务法案》《数字市场法案》等法案,为世界各国立法提供指向和借鉴。欧盟制定了世界第一部人工智能专门性法律——《人工智能法案》(以下简称《法案》),《法案》基于风险分级的监管思路,AI造成的社会风险越高,监管要求就越严格,《法案》合规义务分阶段实施,笔者此前对《法案》进行了详细分析,请见《欧盟合规义务解读》。尽管多家大型企业认为《法案》不利于人工智能的发展,呼吁推迟《法案》生效,但是欧盟态度强硬,表示不会延迟《法案》生效时间。

《法案》规定欧盟人工智能委员会将制定通用人工智能模型的“行为守则”,“行为守则”内容至少涵盖通用人工智能模型提供者的义务、具有系统性风险的通用人工智能模型提供者的义务、管理系统性风险的措施程序和方式(包括有关文件),以及确定系统性风险的性质来源等。模型提供者可以自愿通过参与“行为守则”来证明其遵守《法案》规定的义务,并定期向人工智能委员会报告承诺的履行情况和所采取的措施及其结果。如不遵守“行为守则”也可通过其他手段证明并经欧盟委员会评估是否符合合规要求。2025年7月10日,欧盟发布“行为守则”正式版本,包括透明度、版权和安全保障三个章节,各成员国和欧盟委员会将评估其充分性。Open AI、谷歌、微软表示愿意签署“行为守则”,Meta拒绝签署。

(2)美国

相较于欧洲重点监管人工智能的态度,美国对人工智能监管的态度更为宽松。美国联邦层面尚未制定统一的人工智能立法。拜登政府曾于2023年10月发布EO 14110《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》,旨在监管人工智能监管风险。特朗普上台后于2025年1月23日,发布《消除美国在人工智能领域领导力的障碍的行政命令》,加强美国在全球人工智能领域的主导地位,废除拜登政EO 14110行政命令,认为拜登政府政策阻碍人工智能创新,为人工智能公司设立了苛刻要求。

2025年7月23日,特朗普政府发布《人工智能行动计划》政策文件,该文件的核心内容是放宽监管,加速人工智能领域创新,推动人工智能应用,建设人工智能基础设施,无论是在州还是联邦层面。联邦政府不允许制定严苛的繁琐人工智能法规,但也不干涉各州通过不过度限制创新的审慎法律。

州层面上的监管重点是具有重大影响力的风险模型,2024年9月29日,加州州长以“不应只考虑模型成本和算力”“缺乏灵活解决方案”等为由否决了《CA SB1047前沿人工智能模型安全与创新法案》,法案规制监管训练成本高于1亿美元,训练期间使用达到10^26 FLOPS(浮点运算)的超大规模人工智能模型。

2. 执法趋势

欧盟针对人工智能公司的监管仍主要聚集在维护用户个人信息权益,执法依据为GDPR。如前文提到2023年年初,意大利、西班牙等数据保护机构对ChatGPT的调查,主要聚焦处理个人信息的合法性基础。2024年8月,奥地利、比利时、法国、希腊、爱尔兰、意大利、荷兰、波兰及西班牙等九国的数据保护机构联合提交了九项投诉,指控X平台在未获取用户明确同意的情况下,擅自抓取用户数据用于训练人工智能模型。

美国政府则声称出于国家安全,对中国某人工智能企业开展调查,调查聚焦训练数据来源、安全管控措施、美国用户数据收集共享等情况。

特别声明:

大成律师事务所严格遵守对客户的信息保护义务,本篇所涉客户项目内容均取自公开信息或取得客户同意。全文内容、观点仅供参考,不代表大成律师事务所任何立场,亦不应当被视为出具任何形式的法律意见或建议。如需转载或引用该文章的任何内容,请私信沟通授权事宜,并于转载时在文章开头处注明来源。未经授权,不得转载或使用该等文章中的任何内容。

— 往期推荐 —

1. 蔡开明等:美国、欧盟以外其他国家对俄制裁、管制措施及中国企业的合规应对

2. 蔡开明等:欧盟对俄罗斯的制裁、管制措施及中国企业的合规应对

3. 《钱伯斯2022大中华指南》蔡开明等:中国海关、出口管制与经济制裁概述

4. 蔡开明等:《两用物项出口管制条例(征求意见稿)》解读及应对

5. 蔡开明等:中国首次发布出口管制白皮书,企业需要关注什么?

6. 蔡开明等:美欧对俄罗斯的制裁规定及应对建议

7. 蔡开明等:美将33家中国实体列入出口管制“未经核实名单”,中企如何应对

8. 蔡开明等:简析美国《NS-CMIC制裁条例》

9. 蔡开明等:跨境数据合规 - 《数据安全法》解读与企业合规管理的三个建议

10. 蔡开明等:《防止强迫维吾尔人劳动法》下执法战略公布,第一批黑名单落地!

11. 蔡开明等:《防止强迫维吾尔人劳动法》下执法战略公布!

12. 蔡开明等:《移动互联网应用程序信息服务管理规定》要点解读+法规对比

13. 蔡开明等:美国商务部2022年出口管制年会召开,持续关注中国、聚焦半导体产业

14. 蔡开明等:简析中美审计监管合作协议

15. 蔡开明等:美国针对先进计算及半导体制造物项实施新的出口管制措施

16. 蔡开明等:美国、欧盟、英国宣布对俄罗斯实施进一步制裁的背景之下,涉俄企业风险分析及合规应对

17. 蔡开明等:《个人信息出境标准合同备案指南(第一版)》发布,企业如何顺利完成个人信息出境

18. 蔡开明等:31家中国企业被列入美国实体清单

19. 蔡开明等:荷兰半导体出口管制新规重点解读

20. 蔡开明:美国证券交易委员会发布中国特定事项信息披露指导文件

21. 蔡开明等:数个中国企业被列入未经核实清单(UVL)

22. 蔡开明等:美国BIS发布新规,进一步扩大对俄罗斯、白俄罗斯的出口管制措施范围

23. 蔡开明等:简析美国商务部发布美国基础设施即服务(IaaS)相关拟议规则对中国企业的影响

24. 蔡开明等:俄乌冲突“两周年”,美欧等国再次对俄采取制裁行动

25. 蔡开明等:《保守国家秘密法》第二次重大修订,对企业有何影响?

26. 蔡开明等:美国禁止与特定国家进行敏感个人数据跨境交易

27. 蔡开明等:美国商务部发布联网车辆规则预先通知——解读并探讨中国企业的合规建议

28. 蔡开明等:美国总统拜登签发第14116号行政命令,以加强美国港口网络安全

29. 蔡开明等:美国三部门联合发布合规说明,重点提示外国主体应遵守美国制裁与管制规则

30. 蔡开明等:美国发布最终规则以升级针对特定SDN主体的管控

31. 蔡开明等:欧盟电池新法正式适用,企业如何开展供应链尽职调查

32. 蔡开明等:美国BIS发布两项关于新增最终用户和最终用途管控的拟议规则

33. 蔡开明等:欧盟《人工智能法案》合规义务解读

34. 蔡开明等:美国供应链安全审查——拟禁止采购涉及中、俄的网联车软硬件

35. 蔡开明等:欧盟Europrivacy数据保护认证机制解读

36. 蔡开明等:《网络数据安全管理条例》企业重点合规义务解读

37.蔡开明等:美国BIS发布先进计算芯片新规,实施针对先进计算集成电路的额外尽职调查措施

38. 蔡开明等:简析美国发布的针对中国及俄罗斯联网车辆最终规则

39. 蔡开明等:简析欧盟发布的第十六轮对俄制裁措施

40. 蔡开明等:美国出口管制透明度立法进程及执法趋势分析

41. 蔡开明等:简析美国解除对叙利亚部分制裁措施

本文作者

来源:大成律动

相关推荐