摘要:提到央视的主持阵容,除了董卿、周涛、康辉这几位大牌,很多人还会想到李梓萌。曾经倪萍还打趣她是“贷款上班”,引得不少网友发笑,问道:“央视主持人还有这么困难的时候吗?”这个称呼倒也让我们看到了央视主持人的另一面。
提到央视的主持阵容,除了董卿、周涛、康辉这几位大牌,很多人还会想到李梓萌。曾经倪萍还打趣她是“贷款上班”,引得不少网友发笑,问道:“央视主持人还有这么困难的时候吗?”这个称呼倒也让我们看到了央视主持人的另一面。
不过,尽管她这么幽默风趣,竟然也陷入了一场风波当中。
前言
到了2025年2月,北京海淀区市场监管局收到消费者举报,反映一个拥有88万粉丝的视频账号在直播时涉嫌虚假宣传“深海多烯鱼油”。
举报人提供的视频链接显示,直播间的展板上清楚写着“适合头晕头痛、手麻脚麻、记忆下降人群”等医学用语,而镜头对准的竟是中央广播电视总台主持人李梓萌的形象,担当“站台”角色。
调查结果曝光,这款号称有治疗效果的产品,实际的执行标准只是糖果级别,不属于药品,只是普通的食品罢了,根本没有任何治病的作用。
更让人觉得吃惊的是,经过专业技术鉴定,视频里的李梓萌形象完全是靠AI深度合成技术做出来的假象,她本人根本没有参与过这款产品的任何宣传推广。
因为违反《中华人民共和国广告法》的相关规定,这家涉事企业已经被行政处罚了。这起案子也是北京市市场监管部门查获的第一例用 AI 技术进行虚假广告宣传的典型案例。
业内人士说,现在做这种换脸视频的门槛已经大大降低了。不法之徒只需要几张李梓萌的公开新闻图片和视频片段,再借助网络上随处可见的 AI 换脸工具,就能在几个小时内打造出逼真的假冒影像。
有位消费者在接受采访时提到,是因为看到“李梓萌”推荐,才误以为这个产品有官方认可的保证,才花了快一千块买了下来,结果服用之后身体出了不舒服,才发现不对劲。
从名人到普通人的受害图景
李梓萌并不是唯一遭遇AI换脸陷阱的人。随着生成式人工智能技术的快速普及,这种深度伪造的事情已经在不少行业里悄悄泛滥开来。
根据中国互联网络信息中心发布的《生成式人工智能应用发展报告 (2025)》,我国生成式人工智能产品的用户数已经达到 5.15 亿,随着用户数量的增加,换脸换声、版权侵权等问题也变得越来越突出。
在商业界,虚假代言的问题变得越来越严重。有些不良商家假冒奥运冠军的形象来推销土鸡蛋,有的还复制医生的面容来推广保健品,借着公众对权威人物的信任搞欺骗。
有一位不愿透露姓名的奥运体操冠军团队透露,仅在2025年前半年,就查获了13起用AI模拟其形象进行带货的事件,产品涵盖壮阳药、理财产品等多个领域,团队不得不专门成立法律维权小组来应对。
更让人担心的是,AI换脸技术已经渗透到电信诈骗当中。浙江杭州警方曾披露过一宗案件,不法分子利用AI技术复制受害者家人的脸和声音,制作出虚假的视频通话,用“突发车祸需要手术费”这样的借口,骗走了68万元。
这种诈骗手段因为能准确模仿亲友的表情和语气,认出真假的难度非常大,受害的人多是中老年人。
在侵犯隐私方面,“AI脱衣”这些恶意用法屡次出现。有一些不法分子借助AI技术制作女性公众人物的不雅图片,拿来威胁索钱。
甚至有人把普通人的生活照上传到非法平台,用算法制作出虚假的色情内容,严重伤害了他人的隐私和名誉。
北京航空航天大学法学院的副教授赵精武说了,这种事情不仅是民事侵权的范畴,而且如果情节严重的话,就可能涉嫌刑事犯罪了。
以假乱真背后的破绽与应对
AI换脸技术如今已经挺成熟了,假冒内容能够做到真假难辨,这让普通人辨别真伪变得困难重重。
潘季明,人工智能大模型的研究员,表示现在主流的AI换脸技术可以比较准确地模仿面部肌肉的运动,可在一些微妙的生理特征上还露出破绽。
从技术鉴别的角度来看,专业的机构主要用三类特征来辨别深度伪造内容。在生理特征方面,AI生成的脸部通常会出现眨眼频率异常或者面部轮廓和光影不协调的问题。比方说,人类自然的眨眼间隔大多是在2到10秒之间,可是在AI合成的影像里,经常会看到超过15秒都没有眨眼的情况。
在音频同步上,假视频的口型和声音的配合,经常会有几毫秒的误差,普通人听不出来,但用专业工具一键就能发现差异。
在画面细节方面,AI 制作出来的头发丝、皮肤纹理这些边缘区域,经常会出现模糊不清或重复的像素图案,这是算法在生成过程中的常见痕迹。
虽然技术上还存有一些瑕疵,但对于一般人来说,要用肉眼区分确实挺困难的。于是,业内普遍觉得“用 AI 来识别 AI” 的方法,是目前最有效的办法。
到目前为止,已经有不少科技公司推出了深度伪造识别模型,利用检测视频中的生理一致性和光线合理性这些指标,可以迅速判断内容是否由 AI 生成,准确率超过了 98%。不过,这类技术大多还是用在监管和平台审核上,还没有大规模推送给普通公众使用。
专项行动与法规建设双管齐下
AI技术被滥用带来的社会问题,已经引起监管部门的高度关注。到2025年5月,中央网信办发出通知,在全国范围内启动为期三个月的“清朗 · 整治AI技术滥用”专项行动,主要针对各种深度伪造现象进行打击。
这次专项行动分成两部分,形成完整的治理链条。第一阶段主要关注技术源头,重点查处那些违规的AI应用程序,比如未经授权盗用别人的生物信息、出售换脸软件啥的,还会推动平台落实AI生成内容的标识制度。
到了第二步,主要是在遇到一些具体违法情况时出手,比如用AI做谣言、假冒他人、搞网络水军这些突出的七个问题,集中整治,不能留情面。
在专项行动的推动下,到2025年10月,全国共清理了237款违规的AI应用,处理了1.2万个人涉AI造假账号,还关闭了49家非法换脸工具的下载平台。
法规方面的支持也在逐步跟进,到了2025年9月,《人工智能生成合成内容标识办法》正式出台,这也是我国首部专门针对此类AI生成内容的法规。
规定里头明说,所有由AI生成的文字、图片、视频啥的,都得加个明显标志“亮明身份”,比如在视频的角落打上“AI 生成”字样啥的,还鼓励使用数字水印啥的隐性标记,这样好追溯内容的出处。
北京市场监管部门对李梓萌仿冒事件的处理,完全按照这个规定和广告法做的处罚,传递出了明确的监管信号。
监管部门还特别强调,平台必须承担主要责任。内容平台和AI生成服务平台要提升识别技术,增强追溯伪造内容的能力,对于没有按照规定标注的内容,要进行下架处理。目前,抖音、快手这些大平台已经引入了AI内容检测系统,自动检测直播和短视频中的换脸内容,每天筛查出超过50万条疑似内容。
守护真实的网络空间
AI技术本身没有善恶之分,关键在于怎么用以及监管的界限在哪里填。现在呢,大家都认同,要搭建一个多方共同管理的治理体系,这已经变成社会的普遍共识了。
在技术方面,科研单位正努力研发更高端的深度伪造识别技术,清华大学人工智能研究院推出的 “AI 鉴真” 系统,能在视频生成过程中自动加入隐形水印,从创作到传播的全过程都能追溯到源头。
平台方面,多家 AI 技术公司都设立了非常严格的用户资格审查制度。比如,百度、阿里等企业都明确规定,用户在使用换脸、声纹复制等功能之前,必须提供本人身份证件和被克隆人的授权证明,以从源头上杜绝滥用的可能。
短视频平台会利用算法进行优化筛查,特别关注那些用公众人物形象的营销内容。一旦发现有 AI 生成的迹象,就会马上启动人工复核流程。
公众素质的提高也非常关键。新华网在评论里提到,随着 AI 技术快速发展,现在那种“看到就是事实”的老观念正被冲击,这就要求网民要保持更强的信息敏感度。
结语
中国互联网协会为了这个事儿,发起了个“AI 识真”的科普活动,用短视频、公益讲座啥的,普及AI造假的常见特点和怎么辨别的方法,累计到场或者观看的人数超过了8000万。
从李梓萌被仿冒的事情到各种AI造假案件的调查处理,这场关于技术道德和社会信任的保护战已经全面拉开了帷幕。
随着法律法规不断完善,技术不断提升,再加上公众的认知不断增强,AI技术终究会回归到服务社会的本源,从而在有序的框架内保持健康向前。
参考信源
来源:游戏岛AwbCK