摘要:近年来,生成式人工智能、深度合成等新技术快速发展,为人们的生产生活带来极大便利,但同时也伴生出虚假信息传播、恶意内容生成等诸多新问题。为促进人工智能健康发展,规范人工智能生成合成内容标识,国家互联网信息办公室等四部门制定了《人工智能生成合成内容标识办法》(以下
近年来,生成式人工智能、深度合成等新技术快速发展,为人们的生产生活带来极大便利,但同时也伴生出虚假信息传播、恶意内容生成等诸多新问题。为促进人工智能健康发展,规范人工智能生成合成内容标识,国家互联网信息办公室等四部门制定了《人工智能生成合成内容标识办法》(以下简称《办法》),并于2025年9月1日起施行。
这部新规的施行,对于当前虚假消息传播、恶意内容生成等AI领域乱象的治理,有哪些现实意义和价值?未来应如何压实平台主体责任,确保《办法》的相关要求能够得到有效落实?在推动新规实施过程中,又可以通过哪些措施不断提升用户合规意识?日前,法治网研究院邀请南开大学法学院副院长陈兵、中国政法大学数据法治研究院教授王立梅、中国人民大学人工智能治理研究院研究员黄尹旭、《法治日报》律师专家库成员张云燕,围绕相关话题展开一场深度对谈。
01
法治网研究院:9月1日,人工智能领域这部备受瞩目的《办法》已正式施行,您如何看待这一新规的作用和价值?
陈兵:近年来,人工智能生成合成内容逼真程度不断提高,虚假消息传播、恶意内容生成等风险日益凸显,严重削弱了民众对网络传播内容的信任根基。
我认为,《办法》的出台能够有效遏制AI内容乱象。从保障信息安全角度看,《标识办法》通过明确要求服务提供者对生成合成内容添加显式和隐式标识,使内容具备可追溯性,从源头遏制虚假信息的传播。
从技术进步以及产业发展的角度看,它促进了人工智能技术的规范化发展,提升了技术的透明度,有助于规范相关服务提供者、内容传播服务提供者以及用户在AI内容生成、传播过程中的各类行为。
从统筹发展与安全的角度看,在防范技术滥用风险的同时,为产业创新预留空间,有助于推动人工智能健康有序发展。最终,《办法》能够促进人工智能技术的透明度与可信度的提升,确保人工智能实现坚持高质量发展与高水平安全良性互动。
黄尹旭:《办法》构建了客观判断标准,为平台治理提供了具象化参照,明确了生成合成内容的界定、标识方式及未标识后果;同时,其也明确了责任承担,划分了用户主动标识义务与平台审核监督义务,构建了清晰的责任链条;此外,它还提升了规则公开性与可预期性,遏制了平台权力滥用风险,明确规范了平台行权边界。
可以说,《办法》体现了人工智能治理从以往的被动响应,迈向了主动建构的新阶段,既着眼于防范技术风险,更可经由“标识”这一新型法律工具,推进变革数字时代的法律关系、责任伦理与创新生态,是对技术向善理念的制度化诠释。
02
法治网研究院:我们注意到,针对《办法》相关要求,腾讯、抖音、B站、快手、DeepSeek等众多平台均在第一时间予以响应,纷纷出台了各自的细化规则。对于未来如何进一步压实平台主体责任,您有哪些建议?
王立梅:我认为,需要以平衡理念推动平台主体责任落实。 一方面,平台应加强技术能力,开发AI生成内容识别技术,完善标识技术,同时确保标识可识别和可溯源。对未按要求标识的内容提前筛查,对已发布的违规内容及时下架,落实事前管控和事后整改双重责任。
另一方面,也应明确“平台权力”的边界,要求对AI内容的识别逻辑和处置措施与信息内容治理目的相符、手段适当,防止AI内容识别异化为流量操控的工具。
陈兵:一些平台针对上述《办法》出台了细化规则,还纷纷推出AI内容标识功能,帮助平台用户更快捷方便的对AI合成内容进行甄别。但是,随着AI技术的发展,平台想要落实主体责任的挑战依然严峻。
首先,平台应当持续加强技术能力建设,不断提升对生成合成内容标识的检测、识别和管理技术能力。
其次,建立投诉举报与反馈机制,鼓励用户对涉嫌未按规定标识的生成合成内容进行投诉举报,对于有问题的内容及时进行处理。
再次,可以加强平台间的联动,推动平台间技术与经验共享,形成治理合力,避免“各自为战”导致的监管漏洞。
最后,平台还需推动用户教育与透明化,定期发布平台治理报告,公开违规案例处置结果,接受社会监督。
张云燕:《办法》实施后,平台的责任更明确了,但要真正压实,确实还需要进一步细化。第一,不同平台定位不同,比如社交、视频、模型提供方,不能一刀切,而要分级分类,明确各自的责任。
第二,平台要提高可操作性,不能只满足于“贴标签”,而是要形成事前提示、事中拦截、事后追溯的完整机制。
第三,要有跨平台协同,虚假信息常常跨平台传播,单靠一家难以彻底管住。未来可以通过行业联盟或第三方数据库,推动标识规则互认和信息共享。
总体上,我更倾向于把平台理解为“风险把关人”,只有在技术、合规和协同三个方面同时发力,主体责任才能真正落地。
03
法治网研究院:《办法》提出,用户使用网络信息内容传播服务发布生成合成内容的,应当主动声明并使用服务提供者提供的标识功能进行标识。这在具体实施过程中,需要用户也积极参与进来。您认为,可以通过哪些措施不断提升用户合规意识和意愿?
黄尹旭:可以强化认知教育以传递标识价值,在用户首次使用相关工具或平台时,设置短图文、15秒短视频进行前置化规则引导。
可以明确不同类型 AIGC(如文本、图像、视频)的标识标准与方式,帮助用户清晰知晓义务。例如,规定文本类AIGC需在开头显著位置以特定字体、字号标明“AI生成”。
可以设立合规指引机制,编写通俗易懂的合规指南,经由线上线下多渠道向用户普及,降低用户理解法规的成本。
同时,对主动合规标识的用户,平台可采取流量扶持、专项推荐等激励措施。
王立梅:未来需要打好“便利+约束+激励”的组合拳,来提升用户合规意识和意愿。一是以便利化功能降低合规门槛。平台应在内容上传渠道中将标识功能前置化、默认化,自动核验隐性标识并提供适当的显性标识,使合规成为一键式操作。
二是建立惩戒机制明确违规代价。通过风险提示、案例释明等方式,让用户知悉未尽标识义务、使用不正当标识手段的平台处罚措施与责任承担风险。
三是完善正向激励机制以加强合规动力。鼓励平台通过可信用户认证等方式激励用户合规标识,通过积分、声誉、流量等收益促进合规。
张云燕:提升用户的合规意识和意愿,核心是降低成本、提高收益。第一,要让用户标识更方便。比如平台提供一键标注、自动识别的功能,让用户几乎不需要额外操作。
第二,要让用户清楚后果。平台可以通过弹窗提示、合规指引,告诉用户如果不标注,可能会面临的处罚或限流。
第三,可以正向激励。比如对主动合规的用户,平台在推荐、流量上给予一定支持,让大家感觉标注不吃亏。
第四,还要加大宣传,让更多用户意识到标识不是形式,而是对网络环境的一种保护。
我认为,只有这样结合便利性、约束力和激励措施,用户的合规意识和意愿才会真正提高。
专家简介
陈兵
南开大学法学院副院长、教授、博士生导师,中国新一代人工智能发展战略研究院特约研究员
王立梅
中国政法大学数据法治研究院教授,中国法学会网络与信息法学研究会副会长
中国人民大学法学院副教授,中国人民大学人工智能治理研究院研究员
张云燕
来源:法治日报法治网一点号