“亮明身份”,人工智能不再无序狂飙!

B站影视 日本电影 2025-09-03 17:16 1

摘要:国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》已于9月1日正式施行,所有AI生成的文字、图片、视频等内容都要“亮明身份”。以下是对其的详细解读:

国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》已于9月1日正式施行,所有AI生成的文字、图片、视频等内容都要“亮明身份”。以下是对其的详细解读:

标识的定义及意义

随着AI技术的发展,其生成的内容日益逼真,容易被用于制造和传播虚假信息,引发侵权等问题。标识可以让公众清晰辨认AI生成内容,维护网络生态健康。所以,《办法》要求人工智能生成合成内容必须标识,即给AI产出的内容打上“这是AI生成合成的”等类似标记,包括显式标识和隐式标识。

标识的具体方式

显式标识:用户可直接感知的标识,以文字、声音、图形等形式呈现。例如文本在开头或结尾添加“AI生成”文字提示;音频在起始或结尾插入语音提示;图片在边角添加水印等。

隐式标识:通过技术手段嵌入文件元数据或内容本身,不易被用户直接感知,但可通过工具解析,核心要素包括元数据标识和数字水印等。

各主体的责任

服务提供者:需在制作内容中添加隐式标识,并在可能导致公众混淆或误认的内容中添加显式标识。在提供内容下载等功能时,确保文件中含有满足要求的显式标识。

网络信息内容传播服务提供者:需主动核验待发布文件元数据中的隐式标识,判断用户的声明内容,并在发布内容周边添加显著的提示标识。

互联网应用程序分发平台:在应用程序上架或上线审核时,核验提供人工智能生成合成服务应用程序的标识相关材料。

用户:在发布信息内容时,主动声明并使用服务提供者提供的标识功能进行标识。

《人工智能生成合成内容标识办法》是我国在人工智能治理领域迈出的关键一步,具有多方面的重要意义,但同时也面临一些挑战。

面临的挑战

用户责任界定模糊:虽然办法规定了用户在发布信息时需主动声明并标识,但在实际操作中,用户可能因缺乏技术知识或故意忽视而未履行这一责任。

标识的易篡改性:显式标识容易被恶意用户移除或修改,而隐式标识如元数据、数字水印等也存在被篡改的风险。例如,用户可以通过截图或外部设备拍摄等非下载方式绕过元数据记录。

监管难度大:AI生成内容的多样性和复杂性使得监管难度增大,难以对所有内容进行全面、实时的监管。

违规处罚执行难:对于违反标识规定的行为,虽然有处罚措施,但在实际执行中可能存在困难,如难以确定责任主体、证据收集困难等。

总体而言,《人工智能生成合成内容标识办法》的实施是我国在人工智能领域安全治理的重要举措,虽然在技术、实施和监管等方面面临一些挑战,但其积极意义重大,为人工智能产业的健康发展和公众权益保护提供了重要保障。

来源:数字化企业一点号

相关推荐