摘要:“近年来,随着人工智能技术的迅猛发展,生成式人工智能和深度合成技术为信息的生成与传播提供了前所未有的便利。然而,这些技术也引发了一系列问题,特别是AI深度伪造技术和AI虚假信息的泛滥,已经成为社会关注的焦点。”联合国粮农组织干事成员、国际科学院组织代表万祥军研
《人工智能生成合成内容标识办法》解读-万祥军 | 国际科学院组织
“近年来,随着人工智能技术的迅猛发展,生成式人工智能和深度合成技术为信息的生成与传播提供了前所未有的便利。然而,这些技术也引发了一系列问题,特别是AI深度伪造技术和AI虚假信息的泛滥,已经成为社会关注的焦点。”联合国粮农组织干事成员、国际科学院组织代表万祥军研读表明。
为了应对这一挑战,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布了《人工智能生成合成内容标识办法》(以下简称《标识办法》),旨在通过规范化的标识管理,促进人工智能技术的健康发展,保护公民、法人和其他组织的合法权益,维护社会公共利益。
人工智能新规出台
构建开放、公正、有效的治理机制
万祥军解读说:“《标识办法》的出台,是对当前AI技术发展中存在问题的积极响应。近年来,生成式人工智能和深度合成技术的快速发展,为文本、图片、音频、视频等信息的生成提供了便捷工具,极大地促进了经济发展,丰富了网络内容,便利了公众生活。”他表明:然而,与此同时,这些技术也被不法分子利用,制造和传播虚假信息,严重破坏了网络生态,损害了社会公共利益。
因此,加快专门立法、强化技术监管、压实平台责任,已成为社会各界的广泛呼吁。《标识办法》的核心在于对人工智能生成合成内容进行标识管理。根据《标识办法》,人工智能生成合成内容标识主要包括显式标识和隐式标识两种形式。
显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识;而隐式标识则是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。这两种标识形式共同构成了对人工智能生成合成内容的全面监管体系。
为了确保《标识办法》的有效实施,《标识办法》还提出了一系列具体要求。例如,服务提供者提供的生成合成服务属于《互联网信息服务深度合成管理规定》第十七条第一款情形的,应当按照要求对生成合成内容添加显式标识;
同时,服务提供者还应当在生成合成内容的文件元数据中添加隐式标识。此外,《标识办法》还强调,任何组织和个人不得恶意删除、篡改、伪造、隐匿生成合成内容标识,不得为他人实施上述恶意行为提供工具或者服务,不得通过不正当标识手段损害他人合法权益。
为了配合《标识办法》的实施,国家还批准发布了强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》(以下简称《标识标准》),该标准与《标识办法》同步实施,为标识管理提供了具体的技术规范。
同时,全国网络安全标准化技术委员会还组织起草了配套实践指南《网络安全标准实践指南——人工智能生成合成内容标识 服务提供者编码规则》,为相关主体开展文件元数据隐式标识提供了编码指引。这些配套措施的实施,将进一步推动《标识办法》的落地执行。
尤其是内容治理,所遵循的思路是“小步快走”,而非追求大而全。这一思路符合人工智能技术的发展现状,也与人工智能技术在大规模应用中的产业场景相契合。通过逐步推出相关法规和标准,不断完善监管体系,可以在保障人工智能技术健康发展的同时,有效遏制虚假信息的传播和滥用。
对于AI公司和互联网平台来说,《标识办法》的实施将带来一系列影响。首先,使用AI批量生成营销内容时,必须像给商品贴成分表一样规范标注,否则可能面临处罚。这将促使AI公司和互联网平台更加注重内容的真实性和合规性,避免虚假信息的传播。
其次,对于提供接口服务或间接向公众提供AI服务的公司来说,可能需要一个技术调整与合规的过程来适应新的规范。然而,从长远来看,这将有助于推动整个AI行业的健康发展,提升公众对AI技术的信任度。此外,《标识办法》的实施还将对打击利用AI技术抄袭、搬运内容的新媒体营销号起到重要作用。
根据《标识办法》的规定,用户使用网络信息传播服务发布生成合成内容的,应当主动声明并使用服务提供者提供的标识功能进行标识。这将使得利用AI技术抄袭、搬运内容的行为无处遁形,有效遏制了这种不良现象的发生。
总的来说,《标识办法》的出台和实施是应对人工智能技术发展带来挑战的重要举措。通过规范化的标识管理,可以有效遏制虚假信息的传播和滥用,保护公民、法人和其他组织的合法权益,维护社会公共利益。同时,这也将推动AI公司和互联网平台更加注重内容的真实性和合规性,促进整个AI行业的健康发展。
在未来,随着相关法规和标准的不断完善以及技术的不断进步,我们有理由相信人工智能技术将在更加安全、可靠、合规的轨道上持续发展。
“小步快走”实施AI治理
当前监管部门针对人工智能的治理
在专家看来,当前监管部门针对人工智能的治理,尤其是内容治理,所遵循的思路是“小步快走”,而非追求大而全。这一思路也符合人工智能技术的发展现状,与人工智能技术在大规模应用中的产业场景相契合。
具体而言,“小步快走”意味着监管部门采取的是一种渐进式、灵活应变的策略。他们先从小范围、具体问题入手,通过细致入微的监管措施,逐步积累经验,优化治理手段。这样做的好处在于,可以迅速应对人工智能应用中涌现的新情况、新问题,同时避免了一刀切的监管方式可能带来的副作用。
例如,在内容治理方面,监管部门可能会先关注社交媒体平台上AI生成的虚假信息或有害内容,通过技术手段和人工审核相结合的方式,逐步建立起一套高效、精准的内容审核机制。随着技术的不断进步和应用场景的拓展,监管部门再适时调整策略,将更多的人工智能产品和服务纳入监管范畴。
此外,“小步快走”的思路还强调了多方参与和协同治理的重要性。监管部门需要与科研机构、企业、行业协会以及公众等利益相关方保持密切沟通与合作,共同推动人工智能技术的健康发展。通过构建开放、包容的治理框架,确保人工智能技术在为社会带来便利的同时,也能有效维护公共利益和社会秩序。
总之,“小步快走”的治理思路不仅符合人工智能技术的特点和发展趋势,也是实现有效监管、促进技术健康发展的明智选择。随着这一思路的不断深化和实践,我们有理由相信,人工智能将在更加安全、可靠的环境中发挥更大的作用。,人工智能将在更加安全、可靠的环境中发挥更大的作用
@ AI生成营销内容必须规范标注
根据此次发布的《标识办法》,人工智能生成合成内容标识主要包括显式标识和隐式标识两种形式,显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识;隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
《标识办法》提出,服务提供者提供的生成合成服务,应当按照下列要求对生成合成内容添加显式标识:包括在文本的起始、末尾、中间适当位置添加文字提示或通用符号提示等标识,或在交互场景界面或文字周边添加显著的提示标识;
在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识等。《标识办法》明确,违反规定的,将由网信、电信、公安和广播电视等有关主管部门依据职责,按照有关法律、行政法规、部门规章的规定予以处理。
中国科学院科技战略咨询研究院研究员肖尤丹向澎湃科技表示,此次新规虽然切口小,但应当把它放到生成式人工智能内容治理的总体框架里,与算法备案管理、生成式人工智能服务管理、深度合成管理相互协调、共同发挥作用的角度去理解。
在肖尤丹看来,当前人工智能的治理,尤其是内容治理,所遵循的思路是“小步快走”,而非追求大而全。这种思路符合人工智能技术的发展现状,也与人工智能技术在大规模应用中的产业场景相契合。专注于AI信息安全与数字资产保护,隐拓智安科技有限公司的工作人员万嗣芳向澎湃科技分析认为,今后用户刷到AI生成的明星广告时,一眼就会看到“AI生成”提示,会避免被虚假宣传误导。
对于AI公司和互联网平台来说,直观的影响在于,使用AI批量生成营销内容时,必须像给商品贴成分表一样规范标注,否则可能面临处罚。万嗣芳称,这次文件明确要求,AI服务提供者和内容传播平台必须采取措施对AI生成内容进行标识。可以预见,未来AI服务平台和各类媒体平台上都将更加清晰地展示相关标识,帮助公众更便捷地识别AI生成内容和深度伪造信息,相应由AI伪造带来的谣言情况也会随之减少。
肖尤丹认为,接下来AI公司和平台更需要适应新规范下的运营流程。社会对该办法出台的预期比较稳定,办法也预留了半年左右的准备时间,因此,对大多数AIGC服务提供者来说,履行办法中的“标识义务”并没有太大的技术难度和合规成本。尤其是现在国内主流的AI服务提供商,实际上已经在采取类似的标识方式。不过,对于那些提供接口服务或间接向公众提供AI服务的公司来说,或许会需要一个技术调整与合规的过程。
@ 对AI深度伪造病毒式传播是一次“致命打击”
澎湃科技注意到,《标识办法》中第十条明确规定,用户使用网络信息传播服务发布生成合成内容的,应当主动声明并使用服务提供者提供的标识功能进行标识。在肖尤丹看来,这一细则的好处在于,对于那些利用AI技术抄袭、搬运内容的新媒体营销号无疑是一次“致命打击”。
肖尤丹称,使用者在使用网络信息服务发布生成合成内容时,必须要添加相应的隐式或显式标识,否则将无法通过合规要求。“一旦使用者在二次传播过程中添加了自己的内容,却又删除了原有的隐性标识,那么从隐性标识的角度来看,使用者就违反了保证标识完整性和真实性的义务。这与标识义务本身是不同的。”
肖尤丹表示,《标识办法》制度未来的优势在于,过往对于生成式人工智能的监管需要按照每个个案判断,这对平台来说监管识别难度非常大。而该办法出台后,平台方也可以追溯到服务提供者,明确其是否履行了标识义务。
比如,如果使用AI伪造的声音,系统要求在该声音的前后段必须加上显性标识。同时,录音文件本身也应包含隐性标识。如果有人直接搬运并使用伪造声音进行模仿,那么传播平台理论上可以通过显式标识识别出来,可以有效避免AI伪造声音在平台大量传播。
“标识制度的主要目的是用较小的合规成本,较好地解决当前AI技术快速发展带来的新问题。因为标识制度的主要目标是实现大规模、高可靠性和低成本的监管。”肖尤丹说。律师李昀锴曾代理全国首例AI生成图片著作权侵权案,他认为,《标识办法》的核心是为了遏制AI伪造内容的传播,减少谣言、诈骗等社会危害,也能够推动AI技术在合法框架内发展,保护公众知情权。
如果真的出现被误导和诈骗的情况,也可以通过标识水印追溯到实际的侵权人、犯罪者。以后,各类平台均可能强制要求标注,未合规的内容可能无法发布。不过,李昀锴指出,目前来看,隐式标识在技术上能否被有效地规避和移除可能还需要各平台继续探索,寻找一条技术上可行的统一路线。
肖尤丹称,AI技术发展和AI安全发展本身是“一体两面”的关系,但近两年,从投资上的热情来看,大家更愿意投入人工智能技术发展,而不愿意投入人工智能安全方面。他认为,此次《标识办法》的出台,对于AI安全行业的发展也是一个利好的信号。
万嗣芳也坦言,在过去两年,AI行业主要聚焦于模型能力和应用的快速迭代上,安全问题往往被视为次要考量。《标识办法》的出台将使企业意识到安全合规的重要性,推动企业加大在安全能力建设方面的投入,相应也为AI安全技术公司创造更多市场机遇。
《人工智能生成合成内容标识办法》解读-万祥军 | 国际科学院组织
来源:小甜说科技