摘要:前段时间的日喀则地震牵动了全国人民的心,一组“小男孩被埋”的图片也引发广泛关注。然而经警方查证,这组图片实为人工智能(AI)工具创作,原图发布于2024年11月,在地震发生后被造谣者利用。
陆洪磊 陆庆悠
前段时间的日喀则地震牵动了全国人民的心,一组“小男孩被埋”的图片也引发广泛关注。然而经警方查证,这组图片实为人工智能(AI)工具创作,原图发布于2024年11月,在地震发生后被造谣者利用。
无独有偶,美国加州山火尚未平息,“好莱坞巨型标志牌被山火吞没”的影像在社交平台流传。然而事实上山火并未波及标志牌附近区域,视频中标志牌也存在拼写错误。
虽然地点不同,但接连两起利用恐慌情绪、借AI传播谣言的事件,造成了恶劣的影响。AI技术在解放生产力的同时,也在多个层面让谣言更“真实”、危害更大、治理更难。
首先,AI强化了谣言的欺骗性。根据传播学的认知一致理论,所谓“眼见为实”,是因为视觉信息往往是最直接、最生动的信息来源。如果是深度伪造技术生成的音频和视频,多种信源渠道相互印证下还会形成谣言的回音室效应,让欺骗性更上一层。
其次,AI扩大了辟谣与造谣间的成本“剪刀差”。在谣言、尤其是涉灾等重大事件谣言的早期传播中,权威信息披露的速度与公众强烈的信息需求间存在巨大缺口。过去,造谣者还需要通过剪辑等手段伪造图像,如今AI只需数分钟就能从无到有生成一张图像,让造假门槛大幅降低。另一边,识别AI图像的难度却在提高。AI图像的识别分析涉及图像细节真实性、色差等专业领域,十分复杂。同时,AI图像识别工具的效率相比海量的AI谣言也显得杯水车薪。此消彼长之下,附带AI图像的谣言数量大增,谣言传播力和破坏力也随之上升。
最后,现阶段使用AI模型生成谣言的过程具有“黑箱”特性,治理难度很大。AI的深度学习模型包含成千上万个节点和连接,模型的决策逻辑被隐藏在多层神经网络之中,且模型激活函数通常是高度非线性的,这使得输出内容与输入信息之间的关系十分复杂,难以追踪和理解。这一不透明的操作机制为相关法律法规的制定带来了挑战。
那么,要想有效应对AI造谣,既要前瞻性地在模型搭建过程中引入防火墙等警示机制,打破技术“黑箱”,提高AI审核完整度与透明度;又要做好动态治理,保持对技术滥用现象的持续跟进与严厉打击,提高造谣成本。
具体而言,在技术层面,一方面要在模型中集成异常检测机制,对异常行为或数据发出警告。另一方面则要完善AI识别工具与数字水印。目前一些AI生成的图像会在四角位置标注半透明水印,但这类水印很容易被截除。因此,探索混入图片元数据、难以移除的隐性水印或许可证,并提高识别工具的效率和准确性,是技术防伪的重要方向。
在平台层面,加强内容审核与快速响应机制仍是短期内提高的主要方向。通过高算力AI识别工具进行核查是平台而非用户的主要责任。作为信息传播的主要关口,平台有责任有义务持续改进审核技术与流程,消除谣言的传播土壤。
在用户层面,提高媒介素养与信息辨别能力,多问几个“真的吗”“为什么”是建设理性客观网络环境的重要方向。例如,“小男孩被埋”谣言传播过程中,也有不少细心网民发现了图中小男孩手指数量异常,提出了质疑。AI生成图像时常会出现如人物不自然、静物透视失真等细节“崩坏”问题,这都是AI谣言的突破口。另一方面,针对造谣者严厉追责并将案例定期公示,是强化用户使用AI工具最好的警示教育。
今天,各项技术正快速迭代,相关治理手段和路径也应具有前瞻性和动态性。不存在能够一劳永逸的解决方案,只有建立技术向善的制度保障、强化平台管理能力、提升网民的素质素养,形成社会共治格局,才是与时俱进、实现长治久安的根本之策。(作者分别是清华大学新闻与传播学院副教授、博士生导师,新闻与传播学院硕士研究生)
来源:环球时报