摘要:说起央视主持人,康辉、董卿、朱迅等等,都是颇具代表性的人物,而要说这些年以来,在电视台出勤次数最多的人,可能很多人第一个想到的就是李梓萌了。
编辑^W.n
说起央视主持人,康辉、董卿、朱迅等等,都是颇具代表性的人物,而要说这些年以来,在电视台出勤次数最多的人,可能很多人第一个想到的就是李梓萌了。
作为《新闻联播》的门面担当,李梓萌也有着“国脸”的称号,她曾一年出镜112次,远甩其他人好几条街。
然而就是这么一个勤勤恳恳的人,却被倪萍调侃“贷款上班”,工作二十多年都没能买下一套房子。
最近李梓萌还深陷一场名誉风波之中,明明她也是受害者,却让很多人对她有了不好的印象,这是为何?
2025 年上半年,一多段疑似李梓萌的视频在网络平台传播,视频中的 “李梓萌” 身着类似《新闻联播》的播报服装,却在内容中推荐理财产品、发表与官方立场不符的言论。
这些视频通过剪辑拼接与 AI 换脸技术处理,画面流畅度高,声音模仿也极具迷惑性,不少观众误信为李梓萌本人发声,导致大量负面评价涌向真实的李梓萌,让这位本是受害者的主持人陷入名誉争议。
此次针对李梓萌的 AI 仿冒,并非单一技术手段所能实现,而是一套包含数据采集、模型训练、视频生成的完整技术链条。
技术溯源显示,涉案人员首先通过网络爬虫工具,收集了李梓萌在《新闻联播》及其他公开活动中的视频片段,累计时长超过 50 小时,这些素材为 AI 模型提供了充足的面部特征数据。
在面部合成环节,采用的是当前主流的 “深度伪造”(Deepfake)技术,通过生成对抗网络(GAN)对李梓萌的面部表情、神态进行学习,甚至能精准模拟她播报时的微表情与肢体动作,使得换脸后的画面难以分辨真假。
声音模仿则依赖于声纹克隆技术。涉案人员提取了李梓萌公开播报中的声音素材,去除背景噪音后,输入到声纹生成模型中。
该模型通过分析声音的频率、语调、语速等特征,生成与李梓萌声线高度相似的语音。为了让造假更具迷惑性,技术人员还在语音中加入了类似《新闻联播》的背景音效,进一步增强场景真实感。
值得注意的是,这些技术工具并非高门槛的专业设备,部分 AI 换脸软件可在网络上轻松获取,甚至提供 “一键生成” 功能,为造假行为降低了技术成本。
随着调查深入,警方发现此次 AI 仿冒事件并非个例,受害者群体远不止李梓萌一人。
在收集到的涉案素材中,还包含多位央视主持人、地方卫视知名主播的仿冒视频,内容涵盖虚假代言、不实言论传播等多种类型。
其中一位地方台新闻主播的仿冒视频,被用于虚假医疗广告宣传,导致数十位观众轻信广告购买无效药品,造成经济损失与健康风险。
除媒体从业者外,文化、体育领域的公众人物也成为 AI 仿冒的目标。某知名作家的 AI 仿冒账号,以 “新作预热” 为名发布低俗内容;一位退役运动员的仿冒视频,则被用于虚假体育培训招生。
这些仿冒行为不仅损害当事人名誉,更利用公众人物的公信力误导消费者,形成从个人名誉侵权到公共利益受损的连锁反应。
据不完全统计,截至案件侦破时,涉案的 AI 仿冒内容已涉及 12 个领域的 28 位公众人物,相关视频在全网的传播量累计超过 3000 万次。
针对此次 AI 仿冒事件,公安部网络安全保卫局联合多地公安机关展开专项侦查,最终锁定以张某为首的 5 人犯罪团伙。
经查,该团伙自 2024 年起,利用 AI 技术仿冒公众人物制作虚假视频,通过植入广告、推广诈骗链接等方式非法牟利,涉案金额达 180 余万元。
依据《中华人民共和国刑法》第二百八十七条之一(非法利用信息网络罪)、第二百四十六条(诽谤罪)及《网络安全法》相关规定,法院对涉案人员作出判决:主犯张某被判处有期徒刑 3 年,并处罚金 15 万元;其余 4 名团伙成员分别被判处 6 个月至 2 年不等的有期徒刑,并处相应罚金。
同时,根据《个人信息保护法》,涉案团伙需删除所有非法获取的公众人物数据,并在国家级媒体上公开致歉,消除不良影响。此次判决不仅是对 AI 仿冒行为的严厉打击,也为后续类似案件的处理提供了司法参考。
面对日益泛滥的 AI 仿冒问题,技术层面的防范措施已同步推进。
央视技术部门联合国内科技企业,研发出 “媒体内容溯源系统”,该系统通过在视频中嵌入不可见的数字水印,记录内容的制作时间、来源信息,观众可通过专用 APP 扫描视频验证真伪。
同时,音频领域的 “声纹防伪技术” 也已投入使用,能识别出 AI 生成语音与真人语音的细微差异,准确率达 98% 以上。
制度层面,国家网信办于 2025 年 3 月发布《人工智能生成合成内容管理暂行规定》,明确要求 AI 生成的视频、音频等内容必须标注 “AI 生成” 标识,未标注的将对制作方与传播平台处以罚款,对于利用 AI 技术仿冒他人、损害他人权益的行为,将依法追究民事与刑事责任。
此外,行业协会也在推动建立 “公众人物信息保护数据库”,为媒体从业者、公众人物提供个人信息保护服务,从源头减少数据泄露风险。
李梓萌 AI 仿冒事件虽已尘埃落定,但背后折射出的 AI 技术伦理与法律边界问题仍值得关注。随着 AI 生成技术的普及,如何平衡技术创新与个人权益保护,成为亟待解决的课题。
技术研发应遵循 “安全可控” 原则,在算法设计中加入伦理审查机制,法律体系需进一步完善,针对 AI 仿冒、深度伪造等新型网络犯罪,明确责任认定标准与处罚措施,形成 “技术防范 + 法律规制 + 行业自律” 的全方位治理格局。
对于公众而言,此次事件也敲响了信息辨别意识的警钟。在面对网络上的名人视频、言论时,需保持理性判断,通过官方渠道核实信息,避免被 AI 仿冒内容误导。
只有社会各界共同参与,才能构建起抵御 AI 仿冒风险的坚固防线,让 AI 技术真正服务于社会发展,而非成为侵害他人权益的工具。
来源:青天御史