摘要:AI技术通过合成名人肖像与语音,假借专家名义发布虚假政策解读或产品推广,严重误导公众决策。
啊!!!
是权威专家代言的产品
可信度很高
不久前,网络中出现了这样一个视频
视频中张伯礼院士
正在为某美白护肤品进行宣传
经查证,该视频系AI合成
张院士本人从未参与任何相关宣传
这一事件不仅暴露了AI技术滥用的严重性
更警示我们:当"权威声音"被机器模仿
谣言传播将更具欺骗性。
AI造假新形态:从"文字搬运"到"全息伪造"
01
伪造权威背书
去年被雷总骂了一个国庆
AI技术通过合成名人肖像与语音,假借专家名义发布虚假政策解读或产品推广,严重误导公众决策。
类似案例还包括假冒钟南山、张文宏等专家的"权威带货"视频,利用公众对名人的信任牟取暴利。这些伪造内容常伪装成"内部消息"或"专家解读",在社交媒体平台广泛传播。
02
嫁接虚假证据
通过AI换脸、换背景技术,将无关图片拼接成"维权证据""聊天记录",甚至伪造地震、事故等热点事件博取流量。
2024年西藏定日县地震后,一张"被埋废墟的6指男孩"图片被AI伪造并传播,引发社会恐慌。
此类造假手段还可用于伪造"高管视频会议""亲友求助"等场景,实施精准诈骗,如香港某公司财务被AI仿冒高管视频会议骗走2亿港元
03
伪科普与伪科学
AI生成"科学数据"兜售"抗癌神药",或编造"核电池供电"等荒诞谣言,严重损害公众健康与科学公信力。
2024年某AI生成的"80后死亡率5.2%"虚假报告,通过伪造权威数据引发网络焦虑。更有甚者利用量子力学、基因编辑等前沿概念,炮制"抗癌秘方""永生技术"等伪科学内容,收割中老年群体。
四步识破AI谣言:让"技术迷雾"无处遁形
01
查源头
警惕无明确作者、无正规信源的内容,AI生成信息常伪装成"网友投稿""内部消息"。
西安警方曾查获一起AI伪造旧闻案件,制作者通过输入指令将外地旧闻包装成本地热点事件
02
看细节
图像:观察手指数量异常(如西藏地震谣言中的"6指男孩")、光影不自然、纹理异常等
视频:注意口型与声音不同步、背景模糊扭曲、面部边缘模糊等特征
03
验逻辑
AI生成谣言常出现时间矛盾(如"2024年政策"引用2025年数据)、地名错误等低级错误。
例如某AI伪造的"顶流明星澳门豪赌"谣言,因时间线混乱被警方快速识破。
04
用工具
通过"中国互联网联合辟谣平台""腾讯较真"等渠道一键验证,或关注"公安部网安局"等官方账号获取辟谣信息
蚂蚁集团研发的AI鉴真平台可通过活体检测、实时交互验证等技术,有效识别深度伪造内容
让AI造假者付出代价
《中华人民共和国民法典》明确规定,自然人享有肖像权、声音权,任何伪造行为均属侵权。
2025年9月1日起施行的《人工智能生成合成内容标识办法》进一步要求,AI生成内容必须添加显式标识,否则将面临法律追责。
检察官提醒:"不轻信、不转发、不扩散,让谣言止于智者" 技术无罪,滥用有罪!
编辑: 融媒体工作室 温艳红
来源:鄂尔多斯检察