摘要:就在昨天(2025年10月20日),公安部公布了10起打击整治网络谣言的典型案例,其中至少5起细节已查清,涉及上海、云南、浙江、四川、山西等多个省市。这些谣言并非偶然误传,而是有人精心策划、刻意摆拍,甚至动用AI工具批量生成虚假内容,目的只有一个——吸粉引流。
一条短视频,真能毁掉一座城市的形象吗?答案是:能,而且已经发生了。
就在昨天(2025年10月20日),公安部公布了10起打击整治网络谣言的典型案例,其中至少5起细节已查清,涉及上海、云南、浙江、四川、山西等多个省市。这些谣言并非偶然误传,而是有人精心策划、刻意摆拍,甚至动用AI工具批量生成虚假内容,目的只有一个——吸粉引流。说白了,流量成了某些人践踏公共秩序的通行证。
从已披露的案例来看,造谣手法高度雷同:摆拍卖惨、虚构险情、伪造走失、捏造政策。比如上海那起“老伯勒索5万元”的视频,表面看是街头冲突,实则是奢侈品店老板刘某明一手策划。他找来62岁的方某庆扮演“碰瓷老人”,再由29岁的主播盛某琳出镜演绎,短短几天播放量就突破百万;又如云南玉溪流传的“进城收费200元”谣言,直接导致不少外地司机绕道而行,影响正常通行;浙江王某彪用AI生成“女儿王喵喵被抱走”的图文,引发大量网友自发寻人,甚至惊动警方;四川德阳的“液化气罐车爆炸”和山西大同的“地震废墟”视频,更是直接触发局部恐慌。虽然这些内容很快被辟谣,但造成的社会成本难以估量——仅上海一案,当地警方就投入30余人次警力进行舆情核查与现场走访。
为什么这类谣言屡禁不止?核心驱动力,还是流量变现的逻辑。坦白讲,现在不少中小主播的日子并不好过。有业内人士透露,平台对广告合作的门槛越来越高——单条视频播放量必须超过50万,才可能接到商单。而什么内容最容易引爆流量?负面冲突+情绪煽动。于是,有人干脆把造谣“剧本化”:先蹭热点(比如地震、走失、城管执法),再用AI生成图文或组织摆拍,最后配上“求转发”“太可怕了”这类话术,精准收割情绪流量。
数据显示,2025年前三季度,全国公安机关共处置网络谣言线索12.7万条,其中超过六成与短视频平台相关。更值得警惕的是,AI工具的普及正在大幅降低造假门槛。像案例中提到的AI文字生成模型,普通人花几十元就能批量产出“逼真”的谣言内容。而平台的审核机制却明显滞后——一条视频从发布到下架,平均需要4.2小时。这短短几个小时,足够谣言扩散到数十万甚至上百万用户。这已经不只是技术问题,更是平台责任的严重缺位。
谣言的代价,远不止“删帖道歉”这么简单。以德阳那起“液化气罐车爆炸”谣言为例,当地应急管理部门在2小时内接到200多个群众咨询电话,消防站被迫启动非必要响应,浪费了宝贵的应急资源;玉溪的“进城收费”谣言,则导致部分网约车司机拒载进城乘客,打乱了正常的出行秩序。对比2020年“净网行动”初期,那时的谣言多以文字帖为主,传播慢、影响有限;如今,短视频+算法推荐的组合,让虚假信息呈指数级扩散。国外的情况也不容乐观:欧盟2024年的一份报告显示,AI生成的虚假公共安全信息在社交平台上的平均传播速度,是真实信息的3.7倍。
但区别在于,欧美主流平台普遍实行“发布者实名+内容溯源”机制,而国内部分平台对个人创作者的身份审核仍显宽松。技术本身没有善恶,可一旦放任“流量至上”的生态野蛮生长,就是在纵容公共信任被一点点蚕食。
这些案例暴露出的,不只是造谣者的贪婪,更是整个内容生态的系统性漏洞。平台该不该对AI生成内容强制标注?普通人又该如何快速识别那些摆拍卖惨的视频?说实话,很多谣言其实“一眼假”,但偏偏传播得最凶。
比如,你有没有刷到过那种“老人街头被城管推倒”“孩子在商场被陌生人强行抱走”的视频?画面模糊、对话生硬、背景音嘈杂,却总能配上煽动性字幕和悲情BGM。重点来了:真正的突发事件,通常会有多个信源交叉印证,而这类视频往往只有单一账号发布,且评论区充斥着“求扩散”“快转发”之类的引导话术。
另一个关键点是时间逻辑。比如“地震废墟”视频,如果发生在大同,但画面里出现的却是南方植被或建筑风格,那基本可以判定是移花接木。又或者“走失儿童”配图,细看会发现AI生成的面部特征不自然——眼睛不对称、耳朵位置错位、光影逻辑混乱。这些细节,普通人稍加留意就能识破。
说实在的,我们每个人都是信息生态的参与者。转发前多问一句“这是真的吗?”,可能就能阻断一次谣言的扩散链。平台更该负起主体责任——对AI生成内容强制打标、对高风险账号加强实名核验、缩短谣言处置响应时间。否则,今天被误解的是玉溪、德阳,明天可能就是你所在的城市。
别忘了,一条视频或许只有15秒,但它掀起的风浪,可能需要成百上千人花几天时间去平息。在这个人人都有麦克风的时代,守住真相的底线,比追逐流量更重要。
来源:聚影阁客
