AI换脸,已经不要脸了!

B站影视 欧美电影 2025-03-19 18:59 1

摘要:造假的AI视频越来越多,这些视频在互联网的浪潮中随着算法被推送到眼前,它们就像餐饮行业的“科技与狠活”,看上去色香味俱全,与餐厅老板的手作大餐无异。

钻AI漏洞的人,很可能已经把手伸向了你身边的人。

AI短视频,比想象中来得还要更猛烈。

造假的AI视频越来越多,这些视频在互联网的浪潮中随着算法被推送到眼前,它们就像餐饮行业的“科技与狠活”,看上去色香味俱全,与餐厅老板的手作大餐无异。

吃多了,才发现对健康有害。

曾经,年轻一代的父母们刚刚接受信息时代的洗礼,被各类假新闻骗得团团转,而这一次,轮到年轻人了。

一张照片、一段视频,你的“数字分身”就可能在AI的加持下,活在互联网的某个角落,你却浑然不知。

自带光环的明星,是第一批受害者。

以上“杨幂热舞”的视频,就是通过AI换脸制成。近些年,杨幂深陷无数谣言,被篡改的视频不计其数……

只因明星曝光度高,素材遍地都是,他们的形象被恶意利用,往往连澄清都来不及。

靳东这张脸,就被拿来欺骗了太多中老年人。

前几年,“假靳东”的视频在网上沸沸扬扬,那时的AI技术尚未成熟,多半是正脸视频和声音合成,隔着屏幕互动时,能让人隐约感到违和感。

图源:视频截图

但就是这样简单的互动,成了攻陷老年用户的糖衣炮弹,颗颗打在了老年人的心坎里。

视频里,“假靳东”一口一个“姐姐”“想你”,让老年人相信屏幕前的人就是闻名全国的明星靳东。熟悉后,骗子会要求老年人进行转账、线下见面等,从中获利。

某位68岁的老人,受到视频的蛊惑后,把自己每天清理街道、捡垃圾的钱,全部用于视频打榜,在家人发现后仍沉迷其中,不敢相信自己深陷骗局。

图源:视频截图

某位61岁的老人,在接到骗子的私信后,以自己要拍戏筹款为由,要求老人向自己转账200万,老人在办理贷款时及时被发现,才阻止了悲剧的发生。

图源:江南都市报

如今,随着AI技术的迭代,“假靳东”也跟着“进化”了。

他的动作更流畅,声音模拟更生动,视频看上去也更加真实。

受众也从老年人,扩大到更多人群。

发布一个“撞脸明星”的互动视频,就能收获上万点赞,殊不知,所谓的撞脸不过是拿着明星的视频一键换脸。

前几日,明星靳东再次发声:“一些喜欢我影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。”

噱头和流量事小,但有人利用明星的口碑,给某些三无药品、保健品打广告,就不再是小事了。

香港明星黄百鸣,前段时间紧急发布声明,称自己从未代言某药膏产品。

有人将他在电影中的某段对白,替换成了一款药膏的广告词,黄百鸣对着视频前大夸药膏的效果,从未看过原版电影的人,轻易就能信以为真。

图源:黄百鸣微博

因为信任明星的口碑,通过“假视频”购买到山寨、低质商品,类似事件层出不穷。

刘晓庆曾经参加了《一路繁华》的综艺节目,有人将她在饭桌上吃鱼的片段,植入了一款减肥产品,并模拟刘晓庆的声音加入几句话,如“提高代谢水平”“年轻人可以试试”,因为相信“庆姐”的推荐,不少人买回家尝试该减肥产品。

试用后,才发现不仅毫无效果,退货也难上加难。但没效果已经是最好的结果了,毕竟,谁也不能保证这些来路不明的药品,会不会对身体产生副作用。

还有人通过AI换脸,打着刘晓庆的名义,发布了大量视频。刘晓庆发现后当即发微博提示粉丝:“我在各个平台都叫刘晓庆!”

图源:刘晓庆微博

除了保健品,游戏等娱乐产品的广告,也被大量作假。

古天乐发现自己“被代言”了某款游戏,然而宣传视频用古天乐的面部合成,让人真假难辨。

不明真相的人下载游戏、充值氪金,部分游戏可能还涉及“病毒”“诈骗”等危险手段,到最后才发现偶像古天乐从未代言该游戏。

直播带货,更是“假明星主播”的重灾区。

有粉丝刷到自己的偶像飞轮海成员辰亦儒在直播间带货,他面前摆满卤味食品,他本人则戴着塑料手套大快朵颐,时不时竖起大拇指比出点赞的姿势。

仔细观察就能发现,“辰亦儒”头顶上方还有一行小字:仅效果展示,非真人。他的小臂也被桌子穿过,更重要的是,“辰亦儒”每天坐在桌子前,一吃就是15个小时。

这样的带货直播间,通过会利用AI制作一段视频并循环播放,一劳永逸,既不用花钱请明星带货,还能让明星老老实实坐在直播间超长待机。

许多服饰品牌,也是如此。

著名女星杨幂、迪丽热巴,都被使用换脸技术在直播间带货,更有甚至,利用杨幂的明星效应,去带货“减肥茶”等产品,极有可能危害身体健康。

这下,山寨明星遍地,明星律师函满天飞。

叫苦的只有网上的吃瓜群众,难辨真假,在“冒牌货”光环的加持下,买到一堆“冒牌货”。

这个时代,只要动动手指,就能让一个陷入谣言里。

哪怕,这些人是明星。

明星拥有大量资源,能轻易拿起法律武器保护自己,但不法分子的魔爪一旦伸向老年人,就是精准的降维打击。

盯上的,往往是老人攒了一生的“钱袋子”。

自媒体博主 @滤镜粉碎机,利用AI视频合成技术,测试了自己53岁的母亲会不会因为骗术“中招”。

他给母亲发微信,称女朋友怀孕,现在需要2万元进行检查和治疗。随后给母亲拨打视频电话,并播放提前制作好的视频——通过人像和声音后期制作而成。

图源:@滤镜粉碎机

母亲先是高兴,发消息说“婚事借钱也办”,随后陷入怀疑:对方会不会是骗子?

这时,博主向母亲发了第二段录制的视频,视频画面卡顿、信号差,他顺势打字告诉母亲:“网络很卡,现在很着急,女朋友全家都在,我很尴尬没面子”,“情况不太好,快点啊妈!”。

图源:@滤镜粉碎机

母亲纠结再三,联系不上儿子,开始脑补儿子是不是“出事了”,疑心儿子是不是欠钱或者被人控制了。

仅仅三小时,焦虑就战胜了母亲。

母亲面色苍白地给陌生账户打款2万元——这将近是她一年的收入。

测试到这里,就该“真相大白”了,算是给母亲上了一课,从此敲响警钟。

但如果对方真的是不法分子,一旦开始转账,仅仅是噩梦的开始。

对方会因为老人的防范意识差,从而不断上演各种意外,反复加码,甚至哄骗老人高额贷款。

他们精准拿捏老人的弱点,在模仿他们子女的过程中,要求他们“不能拨打其他电话”“没时间了,现在就需要钱”“一旦挂断电话我就会出事”,在如此步步紧逼之下,有些老人被惊吓得慌了神,也就失去了判断能力,任人摆布。

因为爱子心切,这样的骗术可能发生在任何防范意识差,且忧心子女的老人身上。

这样的新闻,还有很多。

老人遭遇换脸骗局

尤其对一些老人来说,他们接触互联网时间短,先进的AI技术,对他们简直是降维打击。

一些不法分子,还会通过利诱的形式,引诱老人投入全部家产买理财产品。

在美国,一个诈骗犯通过AI技术模拟马斯克,生成了一段视频,视频里的马斯克,孜孜不倦地讲述着投资的好处。

大名鼎鼎的马斯克对自己亲自推荐,如此金钱利诱之下,被哄骗的82岁老人拿出了全部的资产69万美元(约合490万人民币)投资。

事后发现对方是骗子,可一切为时已晚。

在中国,有人通过AI技术,用雷军的声音合成了各类音频,在去年国庆节期间大肆出圈。虽然是娱乐视频,但这类视频也让人真假难辨。

雷军在评论回复,对此行为表示愤怒。

在部分网站上,你只需要支付9.9元,就能定制任意一款换脸、或者模拟某人声音的视频。

低成本,高收益,尤其在AI相关法规尚不完善的当下,老年人成了最容易被钻空子的人群。

老年人请一定记得,骗术千变万化,捂紧钱包最大!

假新闻,被疯传

随着AI图片、视频生成技术越来越先进,假新闻的传播速度和影响力,也达到了前所未有的高度。

你可能会觉得,假新闻离自己很远,但事实上,它早已渗透到我们生活的方方面面。

还记得2011年的“抢盐风波”吗?

当时,一条“碘盐可以防辐射”的假新闻在全国疯传,导致超市里的盐被抢购一空。虽然事后证明这完全是无稽之谈,但这场闹剧不仅让许多人囤积了大量无用的盐,还让一些商家趁机涨价,赚得盆满钵满。

2011年,货架上的盐被疯抢

到了AI时代,假新闻的套路更加高级,它们通过图片和视频传播,让人“眼见为实”。

今年1月,西藏日喀则市定日县发生6.8级地震,灾情牵动人心,各界帮助救援,就在这时,许多“灾情现场视频”流出。

AI合成视频

这些视频利用煽情效果,声情并茂地呈现出灾情的悲惨画面,让人忧心忡忡,然而这些视频都是合成制作。

骗了一大波眼泪和流量后,不仅加大了救援难度,还加重了人们的恐慌。

AI合成视频

国外的假新闻,同样魔幻。

前段时间,一张“特朗普被捕”的AI生成图片,在海外社交媒体上疯传。

图片中,特朗普被一大群警察追捕,场面十分逼真。虽然这张图片很快被证实是假的,但已经引发了广泛讨论。

另一个经典的案例,是“教皇代言羽绒服”。

一张AI生成的图片里,教皇身穿一件时尚的羽绒服,笑容满面。

这张图片不仅让许多人信以为真,还让一些商家趁机推出了同款羽绒服,销量暴涨。虽然教皇本人从未代言过任何品牌,但这张假新闻图片已经成功带货。

假新闻的危害不仅仅是让人上当受骗那么简单,它像一张多米诺骨牌,一旦倒下,就会引发一系列连锁反应。

对个人来说,假新闻可能导致财产损失、心理恐慌,甚至影响健康。就像一些老年人因为相信了“某某保健品能治愈糖尿病”的假新闻,放弃了正规治疗,结果病情加重。

放任不管地传播下去,还可能引发群体性恐慌,被别有用心的人利用,制造社会对立、破坏社会的信任。

总之,对于遍地的假新闻,我们更需要时刻警醒。

假新闻再真,也真不过你的判断力。

AI视频,已经侵入了生活的方方面面。

很多时候,人们放松地浏览着一个个视频,全然没注意有些视频是假的,无形之中被植入了不少“印象锚点”。

去年冬天,有人打着哈尔滨冰雪大世界的标签,发布着超乎现实的美好场景,冰雕晶莹剔透,场景梦幻如《阿凡达》里的镜头。

这里不仅有孩子喜闻乐见的赛亚人、皮卡丘,还有各种热门卡通人物。

信以为真的游客买了车票前往景点才发现,自己被骗了,心情瞬间低落,从而忽略了眼前真实的风景。

内蒙古的草原风光,也常被合成视频,高饱和度的色彩让画面更加艳丽,牛羊成群让草原更有生机。

但只有真的身处草原,才能感受到真实的草地和风声,或许不如合成视频“出片”,却能感受真正的广袤和辽阔带来的震撼。

而不像现在的AI技术,即便坐在村头的石砖上,也能一键穿越进马尔代夫的高级酒店里。

AI效果制造出的“假景点”,骗惨了不少游客。

有人利用珍贵的假期去打卡“网红花海”,景点号称万亩花田,一年四季美如画,到了现场才发现“花海”只有小小一片,还有塑料花。

还有人为了打卡这些网红景点,不仅花费了大量的时间和金钱,还可能被诱导购买高价门票、住宿和旅游套餐,到了现场才发现,自己完全被“照骗”坑了。

数字AI下的风景

更可怕的是,假景点还可能对人身安全造成威胁。

比如,一些“未开发的秘境”实际上是人迹罕至的荒山野岭,缺乏基本的安全设施。游客一旦前往,可能会面临迷路、受伤甚至更严重的风险。

看了太多超现实美景,人们对于旅游景点的期待阈值,也在被一点点拉高,从而忘记一棵树、一朵云真实的模样,甚至开始因为AI场景开始“嫌弃”简陋的现实。

AI合成的梦幻场景

但忽略了,正是真实的大地,土壤里破土的蚯蚓、一朵并不娇艳的野花,才将我们文明的火种延续至今……

AI的技术,正在全面重塑人们的生活,它带来了先进和便利,让生活更美好。

可也有一些人,利用AI,将黑手伸向了老人,伸向了明星,伸向了不明真相的我们……

如果放任不管,可能将进入一种无底线的境地,去骗钱、骗流量。

作为普通人,是时候与时俱进,学会和AI共处了。

面对这些“真假难辨”的AI视频,我们除了加强防备心,也可以提高甄别技巧。

AI生成的视频虽然逼真,但在细节上往往会有漏洞。比如,人物的面部表情可能不自然,眼神呆滞,或者嘴唇动作与语音不完全同步。此外,AI在处理头发、手指等复杂部位时,常常会出现模糊或扭曲的情况。

如果你发现视频中的人或动物动作僵硬、背景虚化过度,或者毛发、光影效果不自然,那就要提高警惕了。

动作僵硬、毛发不自然的AI视频效果

AI生成的语音,也可以识别。虽然可以模仿人的声音,但在语调、情感和停顿上往往不够自然。

如果你听到的视频中,语音节奏过于机械,或者情感表达不连贯,那很可能是AI合成的。此外,AI生成的语音有时会出现奇怪的杂音或断句错误,这也是辨别的重要线索。

当然,还有明显不符合现实逻辑的视频。

萌宠区大量AI合成趣味视频

我们不能预判这项技术的未来会走向何方,在AI技术的加持下,网络信息变得更加丰富多彩,让人足不出户就能进入一个绚烂的美好世界。

但在法规尚不全面的今天,让更多人了解AI,可以加强一份警惕心,在面对别有用心的人时,就能快速甄别,无法阻止技术的狂奔,至少,可以选择不被它牵着走。

曾经,那个眼见为实的慢时代、那个纯粹的年代,一去不复返了。

真与假,只隔着一个点击的距离,照片可以是假的、视频可以是演的、连记忆都可能被篡改。

这个世界,还有什么是真的?

你的答案呢?

来源:创意民工

相关推荐