“地震废墟下的小男孩”竟是AI生成!记者调查揭开真相

B站影视 2025-01-10 09:04 3

摘要:近日,一张“地震被压在废墟下的小男孩”的照片在社交媒体上迅速传播,画面中的小男孩满脸灰尘,眼神充满无助和恐惧,令人动容。网友纷纷转发,并为“地震中的受害者”祈福。然而,记者深入调查后发现,这张照片并非真实的灾难现场记录,而是由人工智能(AI)生成的虚假图像。这

近日,一张“地震被压在废墟下的小男孩”的照片在社交媒体上迅速传播,画面中的小男孩满脸灰尘,眼神充满无助和恐惧,令人动容。网友纷纷转发,并为“地震中的受害者”祈福。然而,记者深入调查后发现,这张照片并非真实的灾难现场记录,而是由人工智能(AI)生成的虚假图像。这一事件引发了公众对AI技术滥用的广泛关注。

最初,这张“废墟下的小男孩”照片被发布在某社交媒体平台上,配文称:“某地发生强震,灾区情况十分惨烈,救援刻不容缓。”照片中细腻的光影效果和逼真的画面细节,让许多网友信以为真,甚至有不少人发起募捐活动。然而,记者通过比对灾区信息及图像溯源发现,近期并未发生相关的强震灾害,更没有类似的灾区救援照片流出。

随后,记者联系了图片的发布者,对方起初含糊其辞,最终承认这张图是通过一款AI图像生成工具制作的,并试图通过“灾难场景”吸引流量。

近年来,生成式人工智能技术(如MidJourney、Stable Diffusion等)取得了显著进展,可以根据文本描述生成高度逼真的图像。这些图像通常具备极高的细节感,甚至连光影、情绪和场景氛围都能精准还原。

专家指出,AI生成图像的逼真程度已经足以欺骗普通人,尤其是在情绪化事件中,人们往往缺乏对信息真伪的判断能力。一些不法分子利用这一技术制造虚假新闻、伪造灾难场景,试图牟取流量或经济利益,严重扰乱社会秩序。

对于AI生成图像的泛滥,专家提出以下建议:

增强识别能力:注意AI图像常见的破绽,比如人物手指、背景细节可能存在畸形或不协调现象。核实信息来源:优先关注权威媒体发布的新闻,避免轻信社交媒体上的“爆料”。技术反制:AI技术公司应开发图像溯源工具,通过标记生成图像的“数字水印”帮助公众辨别。加强监管:相关部门应出台法律法规,规范AI技术的使用,严惩利用虚假信息牟利的行为。

面对虚假信息,我们需要更多理性与警惕,以真相为导向,守护信息时代的诚信与良知。

来源:小阁阁

相关推荐