官方通报后依旧嚣张,继全红婵王楚钦之后,央视主持人也遭ai毒手

B站影视 电影资讯 2025-10-17 19:59 1

摘要:要说当下科技真的是大进步了,以至于如今有些人可以用十分低劣的手段和龌龊的思维,

要说当下科技真的是大进步了,以至于如今有些人可以用十分低劣的手段和龌龊的思维,

继全红婵和王楚钦之后,又可以毫无顾忌的用ai“克隆”了一个假的央视主持人李梓萌来带货。

这个假的李梓萌视频一出来,好多人都被唬住了。

视频里头,那个“李梓萌”穿着一身特职业的西装,发型也跟在《新闻联播》里看到的一样。

她就坐在那,用一种特别沉稳、特别有说服力的语气,开始介绍一款理财产品。

那说话的调调,还有脸上那种一本正经的表情,简直跟本人没啥区别。

她说得头头是道,什么高回报,零风险,听着就让人心动。

关键是,大家对李梓萌这张脸太熟了,也太信任了。

这可是天天在国家级新闻节目上见的人,谁会怀疑她说的话呢?

很多人一开始根本就没往“这是假的”那方面去想。

他们觉得,央视主持人都出来推荐了,那这事儿肯定靠谱。

可看着看着,一些心思细的人就感觉不对劲了。

视频里那个“李梓萌”的嘴型,跟说出来的话,偶尔会有那么一丁点对不上。

还有就是她的眼神,虽然在动,但总感觉有点空,没有真人的那种神采。

央视有严格规定,主持人是不能随便接这种商业广告的。

这事儿一想就不符合逻辑。

后来,这事儿在网上传开了,央视那边也很快注意到了。

他们马上就发了声明辟谣,说那个视频是假的,是有人用AI技术合成的。

央视还特意提醒大家,一定要提高警惕,别上当受骗了。

这下子,大家才恍然大悟,原来自己差点就被骗了。

这个事情影响挺大的,因为它跟之前那种简单的“换脸”视频还不一样。

以前的AI视频,破绽挺多的,仔细看看就能发现。

但这个假的李梓萌,技术上明显又“进步”了。

它不光是换了个脸,连声音和神态都模仿得惟妙惟肖。

就是诈骗的门槛因为技术,变得越来越低了。

以前你得找个长得像的人来演,现在呢?

只需要在网上找一些李梓萌的视频资料,再用软件一跑,一个假的视频就出来了。

这成本多低可骗起人来,效果却出奇的好。

骗子们也正是看中了这一点,他们专门挑李梓萌这种公众形象好、信誉度高的人下手。

因为这样的人,大家对她们有天然的信任感,防备心会降到最低。

这事儿也给所有人敲响了警钟,就是眼见不一定为实了。

以后在网上看到什么名人推荐、专家讲座的视频,真得多个心眼。

不能因为视频里是那张熟悉的脸,就轻易相信他说的话。

技术本身是中性的,是把双刃剑,可以用来做好事,也能被坏人利用。

现在的问题是,技术跑得太快了,相关的法律和监管有点跟不上。

怎么去识别这些AI合成的虚假内容,怎么去追究那些制作者和传播者的责任,都是急需解决的问题。

这件事也反映出,对于新技术的普及教育还不够。

很多人,尤其是中老年人,他们对AI合成这种东西了解不多,很容易成为被骗的对象。

我们不能指望每个人都变成技术专家,但至少得让大家知道有这么回事,心里有个防备。

这已经不是简单的肖像权问题了,它直接威胁到每个人的财产安全,甚至会扰乱社会秩序。

如果有人用AI伪造领导人的视频,发布假消息,那后果简直不敢想。

对这种滥用AI技术的行为,必须得下重拳整治才行。

现在回头从全红婵被“卖鸡蛋”,到费玉清被“传病危”,再到李梓萌被“做广告”,这些事其实都是一个路数。

都是利用公众人物的脸和名声,来达到自己不可告人的目的。

手段越来越高明,性质也越来越恶劣。

这事儿发展到现在,真是让人觉得,以后上网冲浪跟玩“大家来找茬”似的,得时刻睁大眼睛辨别真假,不然一不小心就掉坑里了。

来源:才高八斗山雀PL

相关推荐