摘要:一张图片、一段声音,就能生成虚假视频。近一段时间,诸多受害者的回应,让AI伪造侵权再次成为热点。除伪造名人形象带货营销,AI换脸和语音合成技术还被用于诈骗。
AI刘德华虚假宣传,AI张文宏医生和AI工程院院士张伯礼做起带货主播……
一张图片、一段声音,就能生成虚假视频。近一段时间,诸多受害者的回应,让AI伪造侵权再次成为热点。除伪造名人形象带货营销,AI换脸和语音合成技术还被用于诈骗。
那么,人脸替换、声音模拟,网络上泛滥的AI深度合成作品是怎么做到的?如何防止人工智能技术被滥用?
深度AI合成视频是怎么做的?
专家表示,AI换脸和换声的软件属于半专业软件,普通网民还不能轻松掌握。但记者在调查中发现,普通网民即便不能掌握技术,也能轻松获得自己需要的合成视频。
在购物平台搜索声音克隆,就会出现众多商家。记者发现,声音AI深度合成的价格,根据字数不同在20—50元之间。
商家告诉记者,只要提供一分钟的语音素材,就可以用AI深度合成该声音的任何话语。其中一个商家还给记者发来了此前客户定制的刘德华的声音。
AI深度合成视频分两个步骤:首先是声音克隆,有目标人的声音后,再用目标人的一段视频进行合成,对嘴型进行匹配。这样AI深度合成视频就完成了。
针对此类问题,网信部门持续督促各网站平台进行巡查处置。近一个月,重点网站平台累计处置违法违规账号和店铺797个。
AI合成视频违反了哪些法律法规?
中国政法大学副教授朱巍介绍:“按照民法典规定,人脸和声音都属于当事人的人格权利,未经允许,任何人不得侵害。不仅不能直接使用,也不能使用人脸信息、声音信息进行深度合成。”
针对AI深度合成作品,我国法律法规有明确的规定:
▪ 2023年施行的《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。
▪ 今年9月1日即将实施的《人工智能生成合成内容标识办法》也提出,对AI生成合成内容要进行标识,以便公众识别和区分,防止误导性信息传播。
网店制作、售卖AI声音和视频未做标识
应承担怎样的法律责任?
中国政法大学副教授朱巍说:“未经权利人同意随便使用别人的肖像和声音,并且对外发布,要承担包括损害赔偿、基本损害赔偿在内的相关责任。如果视频编辑之后形成的相关内容违法,当事人可能要承担包括刑事责任在内的处罚。”
今年两会期间,“应对和防止人工智能技术被滥用”的话题热度始终不减,如何在技术创新和法律约束间找到平衡,是治理虚假信息和谣言传播亟待破题的关键。
中国计算机学会计算机安全专业委员会委员吕延辉表示:“防范AI侵权问题需要从法律、平台和公众等多个层面综合施策。法律层面,应进一步完善相关立法,细化法律条款,明确侵权行为的定义和责任,同时加强执法力度。”
来源:四川观察