摘要:1月7日9时5分,西藏定日县发生6.8级地震,灾情牵动人心,许多网友在社交平台上为灾民祈福。社交平台上一个戴帽子小孩被压在倒塌建筑物下的图片受到关注,这张图片被平台多个账号发布,并和本次地震关联,引发网友关注和转发。据媒体报道,经查证,该图片由AI工具创作,原
1月7日9时5分,西藏定日县发生6.8级地震,灾情牵动人心,许多网友在社交平台上为灾民祈福。社交平台上一个戴帽子小孩被压在倒塌建筑物下的图片受到关注,这张图片被平台多个账号发布,并和本次地震关联,引发网友关注和转发。据媒体报道,经查证,该图片由AI工具创作,原始作者在2024年11月18日发布了相同画面的短视频,并声明是AI生成。
许多网友看到图片后,为图中的孩子难受落泪,甚至都在追问,这个图片中的小孩怎么样了。谁能想,这只是互联网时代的又一次“流量冲动”。
从以前的为了流量摆拍故事,到如今结合热点直接生成照片,互联网的“真假难辨”正不断升级甚至成本更低——人工智能“生成”内容的操作正变得常见,市场上多款软件和应用都标榜可以自动生成图像和视频;叠加监管缺失的现状,很多平台上在同一标签下会出现了大量雷同的内容,这也是社会营造信息茧房的一部分。
以地震中这个戴帽子的小孩为例,真假难辨的照片看似没什么危害,只是激起了人们对灾难的某种情感共鸣,但由于发布者通过照片强调了灾难中孩子的无助,直接激发了人们强烈的情感;一旦公众将其视作真实场景,很容易误导人们产生灾难救援不力的片面看法,进而影响公众对救援工作和资源分配等情况的客观评价,损害政府部门的公信力,这种生成的虚构图片,也会伤害受灾群众和救援人员的感情。
对于灾难的关注和报道,之所以要强调严肃真实,是因为只有及时准确报道受灾情况、救援进展,才能最大限度地缓解公众恐慌,引导理性应对;反之,通过渲染悲惨博眼球的呈现,只会干扰救援,引发社会恐慌。
一张虚假的照片被许多账户不断发布只是一个注脚。已有专家预计,2025 年,人工智能生成内容将占据全球内容市场的30%左右,90%的在线内容将由人工智能生成。任由虚假信息在各大平台无节制传播和扩散,这无疑将改变互联网的面貌,使人们在海量内容中更加难辨真假。
以前我们都说“有图有真相”,如今随着 AI 的发展,有图也未必有真相。尤其是在出现重大灾情、重大事件的时候,难以避免有人利用人们的同情等情绪,利用 AI 的文本和图像生成功能,编造虚假信息、博取流量。所以,如果我们认可AI技术发展的终极目的是服务人类,那必定要将价值观嵌入人工智能,减少对于技术冲击任性的放任,真正引导AI向善,规范AI的发展。
从某种意义上说,任由AI技术炮制假新闻,和以前为了追求10万+而诞生的标题党、为了“博眼球”而制作的摆拍短视频并无差异,背后都是“流量”这根指挥棒在起作用。流量的背后,有算法的功劳,也有平台的加持。因此,在实操层面,作为信息发布平台,不该置身事外,而应通过事先介入的方式,为各自上线发布的信息当好把关人,并通过内容审核、流量控制等技术手段,引导内容制作者提升审美趣味和作品质量,引导用户观看真正有价值、有深度的作品,从而构建有利于行业整体健康有序发展的外部生态。
本文来源:解放日报 谢飞君
还原事实,洞悉真相。
欢迎关注,留言举报!
来源:上海辟谣