摘要:“张文宏医生”推销蛋白棒视频“走红”网络,后被本人“打假”澄清该视频非其本人参与录制,系AI合成;今年2月,“‘80后’死亡率突破5.2%”的消息在网络上疯传,后被辟谣,专家称最初来源可能是AI;全国两会期间,全国政协委员靳东谈到“一些喜欢我作品的观众,被AI
人民政协网
第二时间
我们很难第一时间到达现场,但我们会在第二时间权威发声。第二时间,与您相伴。
“张文宏医生”推销蛋白棒视频“走红”网络,后被本人“打假”澄清该视频非其本人参与录制,系AI合成;今年2月,“‘80后’死亡率突破5.2%”的消息在网络上疯传,后被辟谣,专家称最初来源可能是AI;全国两会期间,全国政协委员靳东谈到“一些喜欢我作品的观众,被AI换脸视频骗得很惨”……
过去,深受AI伪造之害者尽管义愤填膺,但苦于没有完善的法律法规,除了谴责之外,有力有效的办法不多。随着3月14日国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),这一问题有望得到有效遏制。部分政协委员在接受记者采访时表示,亮明AI“身份证”,可以让“AI制造”真实可信,有助于人们在享受技术创新红利的同时,保护个人合法权益。
《标识办法》引导人工智能向善
近年来,人工智能浪潮方兴未艾,从工作到生活,AI不仅显著提高了生产力,也极大地丰富了我们的生活体验。与此同时,人工智能带来的真伪之辨,如同“闯关游戏”越发难以区分。
今年全国两会期间,全国政协委员、新疆新的社会阶层人士联谊会副会长海尼扎提·托呼提就“关于加强AI生成不实信息治理”提出具体建议。他呼吁,有关部门对平台内容执行严格监管,明确AI生成内容的标识、审核、责任划分等具体要求,为AI内容生成企业提供清晰的操作指引;互联网平台应加强内容审核机制,建立专门的AI生成内容审核团队。
“我注意到了《标识办法》出台的新闻,对当下的AI行业来说,这是一份及时有效的规范性引领文件。”海尼扎提·托呼提表示。
全国政协委员、中华全国律师协会监事长吕红兵表示,随着DeepSeek、豆包等AI工具的广泛应用,有效防范人工智能生成合成技术带来的风险已经刻不容缓。“单独制定《标识办法》,积极回应了针对人工智能生成合成内容风险监管的核心诉求,并通过明确‘强制标识’义务,对人工智能行业的合规发展提供了重要引导。”
全国政协委员、首都经济贸易大学特大城市经济社会发展研究院副院长郭媛媛认为,进入人机协同时代,AI存在数据不真实、技术黑箱、深度造假等问题,冲击了基本的新闻真实性原则。因此,出台相关办法很有必要,需用法律、人机协同、社会协同等手段进行规范,以坚守人本、人文和社会伦理的根本原则,维护社会稳定运行。
北京市政协委员、北京市帅和律师事务所主任沈腾向记者表示,2024年北京互联网法院宣判的全国首例“AI声音侵权案”令他印象深刻。据他介绍,案件中,配音师殷某发现其声音被某App以“魔小璇”名义商业化出售。法院经勘验认定,AI生成声音与殷某的音色、语调高度一致,公众可通过声音特征识别其身份,最终判定被告侵犯殷某声音权益,赔偿25万元。“但是像这样成功维权的案例并不多。《标识办法》要求对AI生成的文字、图像、音频等内容进行显著标识,标志着我国在AI伦理与安全领域迈出重要一步,既能有效防止此类案件的发生,也能引导人工智能向善。”
标识制度引领行业新生态
《标识办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容制作、传播各环节标识行为。
“该办法的出台体现了对技术风险的前瞻性应对。核心价值在于构建可信的数字生态,为全球AI治理提供‘中国方案’。”全国政协委员、金杜律师事务所高级合伙人张毅表示,《标识办法》要求公开亮出“身份标识”,明确规定采用显式和隐式两种标识形式,使用户能直接辨别内容的AI属性,做到了可识别;压实“链条”上各方责任,办法规定服务提供者、传播平台和用户需分别承担的责任,重点解决“哪些是生成的”“谁生成的”“从哪里生成的”等问题,形成了从生成到传播的全链条管理机制,做到了可溯源。
虽然新规2025年9月1日才正式实施,预留了近半年的过渡期,但记者了解到,不少AI平台和社交平台已开启了显式标识的落地工作。
张毅表示,《标识办法》实现起来也有难度,主要体现在三方面:一是技术复杂性,显式标识需要在文本、图像、音视频等不同载体中嵌入直观提示,而隐式标识则需确保制作要素信息在多次编辑和压缩下文件元数据或数字水印中的标识完整和跨平台兼容,这对技术开发提出了较高要求;二是跨境监管盲区,海外平台未标识内容可能规避审查;三是用户配合度,普通用户主动标识生成内容的意识需长期培育。“对行业而言,短期内可能带来合规成本上升,尤其是中小企业在技术改造、流程适配和法律风险防控方面面临压力。但长期看,将推动行业规范化竞争,催生标识技术和第三方审核服务等新业态。”
探索“促进创新﹢动态监管”的本土路径
AI谣言、AI诈骗、AI侵权……在AI快速发展的今天,政府、平台和网友应该如何应对这些AI伪造陷阱?
“《标识办法》实施之后,可以有效提高虚假信息拦截率,明显削弱AI诈骗的成功率。因此,制度实施后的有效监管尤为重要。”郭媛媛建议,监管部门需加快出台全面、细致的配套规则,以促进法规真正落地执行;还应构建更加系统完备的数据标识体系和设施工程体系,比如可考虑将类似价值观模型植入数据应用的软硬件,使相关标识的标记生成更加便捷。除此之外,也可以通过人工智能技术赋能监管,实现监管过程的人机协同,从而提升监管能力和水平。
吕红兵认为,应对AI陷阱是综合性工程,需要从技术治理、伦理规范、公众教育、法律监管等多个方面入手。他特别提到,在法律监管方面,要逐步加快人工智能领域,特别是生成式人工智能等新兴领域的专门立法,这是完善法律监管的重要任务。此外,建立多部门联动的动态监管体系,完善监管协同机制,共享监管信息和技术,方能有效打击违法犯罪,维护公众利益和社会稳定。
“过度监管可能抑制技术发展,放任自流则会加剧虚假信息、隐私泄露等风险;大模型与垂直场景结合后,上游模型缺陷与下游应用风险相互传导,传统‘一刀切’监管模式难以覆盖。”沈腾表示,欧盟《人工智能法》采用“风险分级”模式,我国亟须探索“促进创新﹢动态监管”的本土路径。
沈腾建议,构建“科技﹢应用”双轨治理框架。在加强立法和明确责任的基础上,强化技术伦理与特殊群体保护,建立AI伦理审查与法律问责机制,制定AI适老化与未成年人保护标准,防范养老机器人情感操控、儿童数据滥用等风险。同时,强化国际合作,要求境外AI服务提供者通过“数据安全网关”接入中国市场,并完成网信部门安全评估(非“备案”),确保境内外主体平等遵守中国法律。
张毅则表示,应对AI陷阱需要多管齐下:在技术层面,应加强数据质量与安全控制,如依托区块链和数字水印确保AI生成内容可追溯;通过数据清洗、校验等手段确保训练数据的准确性和完整性,避免“模型幻觉”的产生。在公众层面,须将数字素养教育融入国民教育,通过媒体宣传或者其他方式提升公众对AI生成内容的辨识能力,增强公众对AI生成技术的理性认知。
海尼扎提·托呼提则提示,加强人工智能行业规范是大势所趋,但要循序渐进,不能因此形成限制人工智能发展的枷锁。“早期互联网行业同样版权意识淡薄,经历过从无序到有序、从无版权意识到有版权意识的阶段,所以通过政策和法律法规引导促进行业培养自我规范意识,更有利于人工智能行业有序发展。”
记者:石伟强 李木元
文字编辑:李晨阳
新媒体编辑:洪琳
审核:李木元
来源:人民政协网