摘要:上周五晚上,我的微信群突然炸了锅。有人转发了一段视频,画面里陈奕迅的黑白照片配着哀乐,字幕显示他因新冠并发症去世。正当我震惊地准备转发给朋友时,歌手叶晓粤的辟谣微博突然跳了出来——这已经是今年第三起明星"被死亡"的AI造假事件。
#夏季图文激励计划#上周五晚上,我的微信群突然炸了锅。有人转发了一段视频,画面里陈奕迅的黑白照片配着哀乐,字幕显示他因新冠并发症去世。正当我震惊地准备转发给朋友时,歌手叶晓粤的辟谣微博突然跳了出来——这已经是今年第三起明星"被死亡"的AI造假事件。
这起事件的造假手法堪称模板级案例。造谣者先用AI换脸技术将陈奕迅的照片处理成遗像效果,再用语音合成模仿新闻主播的腔调,最后配上从其他事故报道里盗用的现场画面。整套素材在视频编辑软件里拼接,不到两小时就炮制出这条播放量破百万的"新闻"。
AI技术被滥用的案例正以惊人速度增长。去年四川警方通报的10起造谣案中,有6起使用AI生成虚假灾情图片;今年初某自媒体公司被查时,其电脑里发现7000多篇AI洗稿的假新闻。更可怕的是,现在连专业媒体人都可能被蒙骗——某电视台曾误播过AI生成的"市长视察洪灾"画面,直到有观众发现视频里的路灯会莫名其妙消失才揭穿骗局。
面对这种局面,网安专家教给我们三个识别步骤:首先查来源,正规新闻机构的官方账号会有蓝V认证;其次看细节,AI生成的图片常有手指畸形、文字模糊等问题;最重要的是等官方,任何重大消息都要以政府部门或当事人账号的回应为准。就像这次陈奕迅事件,其妻子在Instagram晒出的早餐照就是最有力的辟谣。
当遇到可疑信息时,正确的操作流程应该是:暂停转发→截图保存→通过"中国互联网联合辟谣平台"等官方渠道验证。去年云南山体滑坡谣言传播时,正是有网友及时向网信办举报,才阻止了恐慌情绪的蔓延。记住,你的一次谨慎可能就阻止了一场舆论风暴。
技术发展从来都是双刃剑。AI既能帮医生分析CT片,也能被用来伪造明星绯闻。在这个信息过载的时代,我们每个人都不得不成为"数字侦探"。下次看到惊人消息时,不妨先问问自己:这条信息经得起推敲吗?发布者能为此负责吗?如果没有确凿证据,不妨让新闻再飞一会儿——毕竟真相从不害怕等待。
陈奕迅后来在直播中调侃道:"听说我又死了?这次死因还挺时髦。"这句玩笑背后,藏着这个时代最严肃的命题:当技术跑在伦理前面,我们唯一能依靠的,就是保持清醒的判断力。
来源:耕行