AI“深度伪造”的恐慌,是我们已经不相信这是一张真实照片

B站影视 2025-01-11 16:00 3

摘要:1月7日,西藏定日发生6.8级地震,牵动着全国人民的心。许多网友在社交平台上为灾区祈福,希望能尽一份力。

最近的一场地震,让「AI伪造」又上了热搜。不得不感慨,技术的发展有时候真是把双刃剑啊。

1月7日,西藏定日发生6.8级地震,牵动着全国人民的心。许多网友在社交平台上为灾区祈福,希望能尽一份力。

可就在这当口,冒出了一些AI伪造的图片,如下图:

在部分社交平台之上,至少有10个账号发布了与地震相关的内容,其中有些内容甚至收获了数万的转评赞。

不少网友信以为真,还追问孩子的情况。

结果呢?直到上了热搜才揭露,原来是一场彻头彻尾的骗局。

在对 AI 生成的图片或视频予以评价时,是否具备足够的写实性,经常是最为关键的标准之一。

起初,人们也因 AI 能够生成极为逼真的图像而兴奋不已。然而,后来诸如 “开局一张图,剩下全靠编” 之类的新闻不断涌现,并且愈发难以辨别。

上一回,在地球的彼端,同样是闹得沸沸扬扬。

2024年10月4日,飓风海伦妮席卷美国,酿成了巨大的灾祸,成为自 2005 年飓风卡特里娜以来,在美国本土大陆造成死亡人数最多的飓风。北卡罗来纳州的阿什维尔以及其他受灾地区皆被洪水淹没。

在此情形之下,有这样一张图片同样在社交网络上广泛流传。

画面中是一个身着救生衣的小女孩,她在救生艇上抱着小狗流泪。这张图片一经出现,便迅速在社交网络上掀起波澜。

倘若仔细端详,便会发觉这张图相较于之前的暴雨图而言,更具 “AI 味”,从手指的细微之处到身体的姿态,皆散发着一种难以言喻的怪异之感。

果不其然,最初发布这张图片的帖主也不知此图的来源,其发布这一图片仅仅是为了表达自己对受灾民众的同情。

如今,相关平台已经补充了背景信息,着重强调这是一张通过技术生成的图片,而非真正拍摄的 “照片”。

再来看下方这张图片,你觉得它是实拍的呢,还是由 AI 生成的?

看起来图片确实有些可疑之处,比如某些汽车的车门,堆叠的模样仿佛是拼接而成的。

那下面这两张又如何呢?倘若不仔细去查证,你或许都难以相信,这两张竟都是拍摄所得的 “真实照片”。

自十月底起,西班牙的瓦伦西亚地区遭受了特大暴雨的侵袭,一日的降雨量竟等同于一年的降雨量,而且降雨连绵不绝。而瓦伦西亚地区的街道有诸多斜坡,如此巨大的水量完全足以使汽车漂浮起来,并顺着斜坡一路向下滑行。最终,当洪水退去时,便出现了最初那张照片中的景象。

然而,在面对这些照片时,许多人的反应却是:

这是 AI 制作的吧,假新闻。

人天性中存有对苦难世界的悲悯之情。

在正常且十分冷静的状态下,面对这些图片,去辨别其是否为AI生成的,相信绝大多数人都能做到。

然而,当知晓处于灾难背景之中时,人们往往会试图相信自己所目睹的一切,试图以自身的善意去援助他人,可那些伪造的图像却在逐步摧毁人们的信任与情感,这实在是令人毛骨悚然。

倘若每次看到苦难的照片,都要去验证其是否为 AI 生成、是否真实、来源何在以及是否经过处理,那么信任终将彻底崩塌。

一律打成 AI

再给大家分享个有意思的现象。

2025年是蛇年,现在上某DU搜“蛇 卡通”,第一页蹦出来的结果,几乎全是AI生成的。

画风一个比一个油腻,一眼就能看出是AI的劣质产物。

再看看Meta旗下的Facebook和Instagram。AI 生成的内容也是正日益增多,为啥?因为平台的激励政策太诱人了,每个点赞数超过 1000的帖子,最高可获得 10 美元的曝光奖励。

平心而论,如果能够坚决地贯彻 “一律判定为 AI(生成内容)” 的策略,有效地遏制假消息的传播,促使平台不再为这类内容推送流量、提供补贴,这或许是一条可行的途径。

毕竟,没有买卖,就没有伤害。

互联网观察基金会(IWF)的报告指出,在过去的六个月里,人工智能制作的非法内容数量已经超越了前一年的总量,并且这些非法内容都是在社交平台、公共图库等公开平台被发现的。

这些非法内容包含 AI 生成的儿童色情图片、视频,融合明星名人照片的 Deepfake 视频,以及生成的儿童性虐待裸照等。

更为严峻的是,许多 AI 生成的内容已经达到了一个临界点。由于其逼真程度过高,工作人员难以轻易判定假图中是否涉及真人,是否真的存在儿童遭到虐待而需要介入的情况。

从“眼前为实”到“眼见不再为实”,在网上冲浪时的信任就这么一点点消失了。在这种情况下,出于自我保护、减少谣言散布,“一律打成AI”似乎是一种有效的策略。

可要是到了一切都不值得相信的地步,那这个世界还能好吗?

作为一个AI学习者,我真心赞成AI标识,赞同对AI内容的监管。

好在,规则已经在路上了。

咱们也得时刻保持警惕,别让AI伪造的假象蒙蔽了双眼。

来源:kkkkamila

相关推荐