央视报道|天融信助力打击“AI滥用”,筑牢人工智能安全防线

B站影视 电影资讯 2025-08-24 14:47 2

摘要:随着AI技术的普及,“克隆”特定人物声音已实现“一键式”操作,同时也带来了民事侵权甚至涉嫌犯罪的法律问题。在互联网上,奥运冠军的“声音”突然开始推销农产品,知名演员的“声音”24小时不间断在直播间与粉丝互动……这些以假乱真的AI克隆声音正成为部分自媒体博主的“

央视报道|天融信助力打击“AI滥用”,筑牢人工智能安全防线###

随着AI技术的普及,“克隆”特定人物声音已实现“一键式”操作,同时也带来了民事侵权甚至涉嫌犯罪的法律问题。在互联网上,奥运冠军的“声音”突然开始推销农产品,知名演员的“声音”24小时不间断在直播间与粉丝互动……这些以假乱真的AI克隆声音正成为部分自媒体博主的“流量密码”。

一键盗声仅需十几秒 AI技术应做具体限制

有人为自己的权益被侵犯而困扰,侵权者却滥用AI技术违法牟利。那么,AI克隆声音是如何实现以假乱真的?又是谁在为“盗取声音”推波助澜?

记者调查发现,在抖音、快手等网络平台上,以“声音克隆”为关键词进行搜索,能轻易找到大量相关教程视频和软件下载信息。部分博主不仅详细演示操作过程,还直接提供软件资源。

天融信科技集团网络安全专家潘季明介绍,基于开源的语音大模型,只需一段清晰的语音样本,任何人的声音都可能在极短时间内被克隆,并能被操纵说出攻击者设定的任意内容。它可以对用户输入的音频文件进行现场的实时学习,通过学习当前目标人物的音色、语调、语速等特征,然后根据攻击者的输入内容,按照目标人物的声音实时说出攻击者想要说出的任意内容。

AI克隆声音最大隐患是被诈骗分子利用。

据潘季明介绍,除了侵犯声音权等合法权益,AI克隆声音目前最大的隐患是被诈骗分子利用,一旦与AI换脸等技术结合,生成高度逼真的“数字人”实施诈骗,危害将非常严重。潘季明建议,目前相关的技术要从源头进行相应限制。

潘季明:在开源的过程当中,我们可能需要对这些开源代码做一些使用层面上的限制,包括使用时长、应用场景上,也需要做一些具体的应用限制。

保护“声音” 法律为AI克隆划出红线

从“一听就假”到“真假难辨”,AI克隆技术的滥用不仅严重侵犯了当事者的权益,而且还涉嫌违法违规。

据法律专家介绍,我国民法典将人格权独立成编,首次以立法形式将保护“声音”写入其中,在第1023条中明确,对自然人声音的保护,参照适用肖像权保护的有关规定。

北京航空航天大学法学院副教授 赵精武:利用人工智能合成的这些声音,如果能够使得一般公众或者相关领域的公众,根据他的音色以及风格关联到特定自然人,那么就具有了法律上认定的可识别性,仍然可以构成对他人的侵权行为。我们国家的民法典1019条、1023条,都明确了相关侵权行为的认定,是没有经过肖像权人的同意作为前提的。

赵精武介绍,任何自然人的声音均应受到法律的保护,对录音制品的授权并不意味着对声音AI克隆的授权,未经权利人许可,擅自使用或许可他人使用权利人的声音构成侵权。

技术+监管 重拳整治AI技术滥用

针对目前网络上AI克隆声音的相关内容被大量传播,相关的平台是否也应承担相应的责任呢?此类乱象该如何治理呢?

北京航空航天大学法学院副教授 赵精武:根据民法典1197条的相关规定,平台与平台用户承担连带责任有一个前提,也就是平台知道或者应当知道用户利用了它的网络信息服务,实施了侵害他人合法权益的行为,并且没有采取必要措施。这里知道或者应当知道的判断标准,主要是考虑到平台对网络信息内容的管控能力,所提供的服务性质、方式,以及引发侵权可能性的大小,平台有没有采取预防侵权措施的技术的可能,并且有没有相应的合理的措施。

专家建议,针对滥用AI克隆声音的乱象,平台层面要切实履行监管责任,建立健全对AI声音的审核和侵权举报机制,及时发现和拦截侵权、虚假、违法等不良内容。

今年3月,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》,将于2025年9月1日起施行,其中明确了服务提供者应当对文本、音频、图片、视频、虚拟场景等生成合成内容添加显式标识等。另外,中央网信办近日在全国范围内部署开展“清朗·整治AI技术滥用”专项行动,将强化AI技术源头治理,清理整治违规AI应用程序,推动网站平台提升检测鉴伪能力等。

来源:同花顺财经一点号

相关推荐