张捷财经观察 | AI深伪视频让视听公信力巨降

B站影视 港台电影 2025-09-24 13:34 1

摘要:近日,AI 深伪技术引发的安全危机再度引发全球关注。据环球网报道,马来西亚 10 余名议员近期陆续收到勒索电子邮件,邮件中附带通过 AI 换脸技术伪造的不雅视频,勒索方要求议员在 3 天内支付 10 万美元 “赎金”,否则将公开伪造视频。

近日,AI 深伪技术引发的安全危机再度引发全球关注。据环球网报道,马来西亚 10 余名议员近期陆续收到勒索电子邮件,邮件中附带通过 AI 换脸技术伪造的不雅视频,勒索方要求议员在 3 天内支付 10 万美元 “赎金”,否则将公开伪造视频。

马来西亚《星报》于 14 日以《越来越多的议员称自己成为 AI 制作淫秽视频的目标》为题发文,明确受影响议员来自该国多个州。面对敲诈,涉事议员均拒绝支付款项,并第一时间向有关部门报案,目前案件正进一步调查中。

值得注意的是,这并非马来西亚首次出现 AI 技术滥用事件。今年年初,该国多名官员及政治领袖就曾成为诈骗分子的目标,后者利用 AI 换脸技术伪造相关人员视频,以 “官方背书” 为噱头,诱骗民众参与虚假投资项目,造成恶劣社会影响。

为何 AI 深伪视频能频繁成为犯罪工具?关键在于其 “以假乱真” 的技术特性。所谓 “深伪视频”,即通过深度合成技术伪造的视频内容,普通民众不借助特殊技术手段,几乎无法分辨真伪,当前技术已能实现 “肉眼难以识别” 的效果。

更值得警惕的是,政要、议员等公众人物的个人信息及活动轨迹高度公开 —— 脸部特征、外部形象等属于公开信息,日常活动场所、行程路径也相对固定,这使得犯罪者极易捕捉与他们现实生活重合的场景进行视频伪造,进一步降低伪造痕迹,提升欺骗性。

AI 深伪视频的危害远超 “不雅视频敲诈” 单一范畴。除直接勒索钱财外,犯罪者还可利用伪造视频冒充政要开展诈骗活动:通过合成政要讲话、承诺等内容,伪造 “与领导人合作”“获得政策支持” 等虚假场景,向公众兜售虚假项目、虚假投资,甚至发布不实政策信息,误导社会舆论。

此外,深伪技术还可能引发 “信任危机转嫁” 问题。一方面,若真实不雅视频被曝光,涉事者可谎称 “视频为 AI 伪造”,利用技术鉴定的复杂性逃避责任;另一方面,网上传播的视频多经过平台压缩优化,像素降低后 AI 伪造痕迹更难察觉,且现有鉴定技术存在失误率,并非 100% 准确,进一步增加了真相还原的难度。

技术层面的挑战更为严峻。目前 AI 深伪鉴定多依赖 “模型特征值比对”,即通过识别特定 AI 模型的制作痕迹进行判断。但如果犯罪集团自主搭建新模型,其特征值未纳入现有鉴定数据库,将导致鉴定工作陷入 “无据可依” 的困境,几乎无法识别伪造内容。

AI 深伪技术的泛滥,正对传统社会信任体系和公信力造成冲击。过去,视频作为 “可视化证据”,在揭露丑闻、法庭举证等场景中具有重要公信力;如今,“视频是否为合成” 成为新的争议点,若无法 100% 鉴定真伪,其作为证据的效力将大打折扣,公众对信息的信任度也会持续降低。

正如信息学 “扰乱定律” 所揭示的:当前 AI 技术的发展速度,已超过相关法律制度、监管措施及公众认知的更新速度。制度建设的滞后,使得技术滥用风险难以被及时管控,可能引发更多社会混乱。

类似的信任危机还体现在生物特征领域。以指纹识别为例,若指纹信息泄露,犯罪者可制作假指纹规避验证,这将直接威胁指纹刑侦系统、身份认证系统的可靠性。长期来看,AI 技术对传统证据体系、认证体系的冲击,可能导致公众对司法、行政等领域的信任度下滑。

面对 AI 深伪技术带来的挑战,需从技术、制度、公众教育三方面协同发力:一方面,加快研发更精准、高效的深伪视频鉴定技术,扩大鉴定模型数据库覆盖范围;另一方面,完善相关法律法规,明确 AI 技术滥用的法律责任,加强对个人信息(尤其是公众人物信息)的保护;同时,通过科普宣传提升公众对深伪技术的认知,增强辨别能力。

如何在技术发展与公信力保护之间找到平衡,已成为全球各国亟待解决的重要课题,需要政府、企业、科研机构及社会公众共同参与,构建更安全、更可靠的技术应用环境。

来源:张捷财经观察

相关推荐