该管管了,刘亦菲等女明星换脸被“下海”,揭开换脸所带来的伤害

B站影视 2024-11-30 23:40 2

摘要:这个事件实在让人战战兢兢,直冒冷汗!一个视频电话就能骗走400多万?郭先生的经历简直前所未闻,却又真真切切地发生在我们身边。

这个事件实在让人战战兢兢,直冒冷汗!一个视频电话就能骗走400多万?郭先生的经历简直前所未闻,却又真真切切地发生在我们身边。

他究竟是怎么受骗的呢?其实都是因为这帮无良"技术大神"的原因。他们把AI换脸技术玩得非常精湛,能让声音也模仿的几乎毫无破绽。

这帮人的套路能一夜之间练出来吗?他们会提前搜集你身边人的所有信息,研究你的社交圈,等时机成熟了,突然跟你来个视频通话。

还没等你反应过来是怎么回事,他们就开始步步紧逼,直接奔着钱去了。最后倒霉的郭先生被骗走了400多万,这笔钱能追回来吗?谁也说不准。

说到这里,我们不能不提及今年三月份在广州地铁上发生的那件事情。一个衣着整齐的姑娘,被他人使用AI技术"扒光"了。

这件事情一出来,整个网络都炸锅了。有的人看热闹不嫌事大,甚至去找原视频。还有些人觉得挺好玩,特别新鲜似的。

普通姑娘通过诈骗手段成了身价百万,技术在一些人手里竟成了作恶的工具,这只是冰山一角。

千万别以为在短视频平台上看到的那些美丽妖娆的女主播都是实打实的人,搞不好她不过是被某人的脸庞所装扮起来的。

你也别以为那个声音甜美的女主播就是你心中的偶像,搞不好她不过是人工智能技术合成出来的声音而已。

关于广州地铁的真相,实在让人气愤。一个普通的姑娘,穿着得体,仅仅因为身材好,就被人盯上了。

然而,这帮人的胃口并未就此满足,他们的目标已经瞄准了更大的"猎物"。

你们猜怎么着,我们的"神仙姐姐"刘亦菲都没能躲过。不得不说,刘亦菲在娱乐圈可谓是一个传奇人物,这么多年过去了,依旧青春不老,岁月仿佛遗忘了她。

这事情对刘亦菲的名誉造成的伤害简直无法估量。但是那帮人却根本对此不关心。

更过分的是,尝到甜头后,他们的胃口就越来越大。不光是刘亦菲,只要是颜值在线的女明星,无论是顶流还是十八线,都难以逃脱他们的毒手。

这帮"猎人"将整个娱乐圈当成了自己的狩猎场。

你觉着这就结束了?天真到家了!这帮人尝到了甜头,竟然把这门技术搞成了一整条产业链。你给他们钱,他们就给你看各式各样的女明星换脸视频。

价格相当便宜,还打着"福利"的旗号。

气人的是,有一些人觉得这事儿新鲜,居然在那沾沾自喜。

从一个地铁里的普通姑娘,到娱乐圈的顶流明星,这种技术的发展速度真的是让人震惊不已,不寒而栗。

黑色产业链是如何形成的。

说到这里,很多人会很好奇,这些人到底通过什么渠道将换脸视频变成摇钱树的呢?下面就让我来为你揭开这个黑色产业链的荒唐之处。

一开始这些视频是免费传播的,也就是那种"想看就给你看"的类型。但是后来,这帮人发现这玩意儿很受欢迎,于是便开始了收费模式。

一旦有人愿意花钱,他们就会开始琢磨如何赚钱。

一旦客户上钩了,他们开始提供"私人定制"服务。看腻了上百个女明星的换脸视频?没关系!只要你出得起价,他们连你看上的素人美女都能给你换上。

更狠的是他们居然打起了直播带货的主意,用AI技术将女明星的脸安装在主播身上,搞起了所谓的"虚假代言"。

看到那些熟悉的明星在卖货,许多人一时冲动就下单了。等到收到货发现被骗了,想找人理论,但明星们已经消失得无影无踪了。

最倒霉的是那些真正的女明星,无缘无故就成为了"翻车"行为的背锅者。

这简直就是把明星完全地利用了,说他们是"吃干抹净"一点都不过分。他们的钱赚得如此轻松,不费吹灰之力就能用别人的脸来赚钱。

最可怕的是这种赚钱模式越来越多、越来越猖狂。供需关系使然,只要有人愿意花钱,就有人会不择手段地去获取。

近日,接连几天的热搜榜都在爆出各种换脸事件,引起了广泛关注。

赚钱容易,良心上过不去。

更让人觉得可怕的是,这并不是他们的终极阴谋。

"吃干抹净"的数字暴力现象

眼看着换脸技术越来越强大,他们又整出了新花样。现在的他们已经不再满足于只是换脸了,连声音也盯上了!

没错,就是你听到的这个"声音"。他们偷偷地用AI技术复制了你的声音,这个"声音"现在不仅能让你的"脸"在直播带货时出现,还能在网上随处出现。

受害群体的范围覆盖非常广泛,从顶流明星到十八线小明星,不管长相如何,都可能成为他们的攻击目标。然而,请不要以为自己不是明星就能幸免于难,因为普通人一旦成为他们的目标,同样难逃毒手。

最恐怖的是我们永远不知道下一个受害者会是谁,今天你可能在嘲笑别人的遭遇,但明天那个遭遇就可能转移到你自己身上。

技术发展太快了,我们的防范意识跟不上,可能会遭遇一些意想不到的危险。

就拿那些直播间来说吧,你确定你看到的真是你偶像在带货吗?搞不好是有人用换脸技术糊弄人呢!那声音听着特别像,表情也挺到位,结果全是假的。

表面看上去这事儿挺随意,实际上背后藏着很多复杂的套路和陷阱。

更令人害怕的是,这种技术入侵已经深入渗透到生活的各个方面,视频造假、声音合成、诈骗短信等"阴招"层出不穷。

你永远猜不到,下一个创新的害人方法会是什么。

这种数字暴力比现实中的伤害更讨人厌,因为它无处不在却又看不到摸不到,你永远不知道自己的照片、视频或者声音会在何时成为别人用来做坏事的工具。

有人认为这就是科技进步的代价。

看到这儿,是不是有好多疑问,我们应该怎么办呢?

这AI换脸技术的特性是好的。它可以让电影特效更真实,帮助医生做面部重建手术,还能便利我们的日常生活。

讽刺的是,越被视为禁忌的事物,人们却越会趋之若鹜。这些花钱购买色情视频的人,恐怕不曾意识到,他们今天是在看别人的秘密,但总有一天,这个秘密会以同样的方式落在他们自己的身上。

这如同一把双刃剑,既能伤人,也能伤己。

现在这种情况让人细思极恐,你发个自拍,可能第二天就被人P成不良视频。你随便接个视频电话,没准儿就让骗子有机可乘。

甚至连你平时说话的声音都可能被人偷偷采集,用来做坏事。

这项技术,就像是潘多拉的魔盒,一旦打开就收不回去了。但我们不能坐以待毙,该管的还得管起来。无论是立法规范,还是技术防范,都得跟上。

否则的话,任由这些技术野蛮生长,最后只会让我们每个人受害。

归根结底,科技发展是为了让生活更加美好,而不是为了让坏人有更多的作恶工具。因此,面对这些乱象,我们每个人都有责任和义务去做出改变。

看到有害视频必须举报,遇到可疑的换脸直播要提醒,让那些想借此赚黑心钱的人无路可走。

这事儿真的没有在危言耸听,今天你觉得这件事离你有点远,可谁知道明天会发生什么事情呢?与其后悔莫及,不如现在就提高自己的警惕。

来源:明星风采展

相关推荐