摘要:1月份,美国加利福尼亚州洛杉矶多地连续发生山火,“在加州山火中幸存的教堂”图片、“好莱坞巨型标志牌被加州山火吞没”视频等在社交媒体上广泛流传,均检测出是人工智能生成或深度伪造的内容。
潮新闻客户端 执笔 朱承
假新闻,最近你碰到过吗?
不久前,两封疑似AI生成的“重磅”信件引发网友大量转载——
一封署名英伟达CEO黄仁勋的内部信表达对DeepSeek的看法;另一封“来自”DeepSeek CEO 梁文锋对冯骥的公开回应。
乍一看信件文采斐然,自带人文情怀,还挺像那么回事。幸好辟谣及时来到,明确说明信件完全是虚假捏造。
社交媒体截图 来自网络
1月份,美国加利福尼亚州洛杉矶多地连续发生山火,“在加州山火中幸存的教堂”图片、“好莱坞巨型标志牌被加州山火吞没”视频等在社交媒体上广泛流传,均检测出是人工智能生成或深度伪造的内容。
社交媒体截图 来自网络
从灾难现场的虚假图片到名人仿冒事件,AI发展这把双刃剑,让“眼见为实”这一固有信念遭受前所未有的挑战。AI伪造如何产生?冲击有多大?我们该如何守护真实的边界?
低门槛造假 来势汹汹
“假新闻并非新生事物,但AI大模型的崛起无疑大幅降低了造假的门槛。”浙江大学百人计划研究员、博导王永威告诉记者,深度伪造技术(Deepfake)在全球范围内引发了广泛关注。借助人工智能深度学习的力量,该技术能轻松合成逼真的图片、视频与声音,实现换脸、视频无缝合成及语音精准模拟,创造出令人难辨真伪的内容。
王永威告诉记者,自2018年起,AI伪造现象便逐渐显现,而时至今日,AI模拟真实世界的能力已显著提升。“从文本到图像、视频,技术的每一次飞跃都伴随着生产力的提升与犯罪成本的降低。”
如今,只需与AI智能助手进行简短对话,几秒钟内便能生成一篇图文并茂的假新闻。
笔者1分钟制造的AI假新闻 AI生成
笔者1分钟制造的AI假新闻图片 AI生成
据澎湃新闻报道,浙江绍兴警方曾抓获一个利用ChatGPT制作虚假新闻的团伙,其中就有此前从未接触过电脑技术、仅有初中学历的成员。正是凭借易上手的AI大模型,这名成员无需学会“脚本”“拍摄”“配音”,就能像流水线一样批量生成一堆AI假新闻。
暴力冲突、灾难现场、阶层矛盾、性别对立等社会热点议题,往往成为AI假新闻的重灾区。
当算法裹挟着这些“情绪饱满”的肉眼难辨的假新闻定向推送到你我面前时,大多数人往往被情绪所左右,不假思索地点赞、转发,不经意间成为谣言传播的帮凶。
俗话说“造谣一张嘴,辟谣跑断腿”。若要验证一条新闻的真实性,公检法部门、媒体等需要调动大量资源,被造谣者则往往会陷入无尽的自证陷阱。等到一切水落石出,假新闻早已环游世界,“吃饱”流量,赚得盆满钵满。
AI伪造,不只骗取你的情感和流量,更把手伸向你的钱包。
蚂蚁集团AI核身安全负责人刘健告诉记者,AI的终极目标是模拟真实世界,其模拟物理和生物信息的能力变得越来越强大,一些定制化的诈骗更是让人防不胜防。
比如2024年香港一家公司财务被AI仿造的“高管”通过视频会议骗取2亿港元,这是一个定制化的AI诈骗局,除了本人,整个视频会议全是骗子。在他研究的案例中,还有AI换脸伪造成家人、同事电信诈骗,伪造电子身份凭证线上交易,利用AI技术伪造活体视频突破认证等等。
“AI伪造给社会带来最严峻的挑战,我认为是信任体系的崩塌。”刘健分析,就像那则“狼来了”的经典寓言,面对大量虚假的信息,我们或许会因为难以分辨真伪,而逐渐变得麻木,它有可能悄然侵蚀人类社会的温情与关怀。尤其对于互联网原住民来说,数字世界里,还能相信什么?
AI打败AI?
有攻必有防。面对来势汹汹的AI伪造,一些科技企业率先筑起防线。
宇视科技近些年在AIoT智能物联领域取得了不少研发突破。该公司云智能及业软产品部部长陶沁沁向我们揭示了AI伪造的新趋势:从数字领域悄然渗透至物理世界。有犯罪分子利用真人照片AI生成的3D结构模型,制作成人脸头套,用于非法解锁和诈骗。为应对这一挑战,宇视科技开发了3D结构光技术,通过大模型训练,确保只有本人活体才能通过识别。
宇视科技3D结构光技术应对真人照片 受访者供图
宇视科技3D结构光技术应对3D结构模型 受访者供图
“我们的摄像头配备AI大模型,经过多轮优化训练,在计算机视觉领域表现出色,能识别真人面部轮廓变化,结合多种验证手段,确保精准判断。”陶沁沁表示。
蚂蚁集团AI核身安全团队采取三大策略,来应对AI深度伪造挑战——不变应万变、交互逻辑以及持续监测。“不变应万变就是通过AI防伪大模型识别真实世界中的共性,异常即判别伪造;交互逻辑是指通过随机实时交互增加造假难度,例如高风险场景中的AI实时视频电话进行验证;持续监测则是实时监控异常行为,及时阻止造假。” 刘健解释,为此,蚂蚁集团也研发推出了以安全防伪大模型为基础的新一代AI核身平台,包含AI鉴真的光鉴等产品。
蚂蚁集团AI鉴真产品 受访者供图
此外,除了不断迭代技术应对攻击,蚂蚁集团还通过坚持“你敢付我敢赔”的承诺,兜底用户损失,以重塑用户对数字安全的信心。
守护AI向善,不仅仅需要企业在应用层面设好防火墙,还需要更多高校、科研院所以及更多社会力量的加入,以提升行业的整体水平。
刘健告诉记者,蚂蚁集团通过举办比赛推动技术进步,比如2024年外滩大会首次举办的“全球Deepfake(深度伪造)攻防挑战赛”,吸引了全球2200多名参赛者。令人鼓舞的是,比赛中,中科院一支队伍开源了其获奖作品“Deepfake检测模型”,获得了澳门大学、中国海洋大学等近百名选手及所在队伍响应,接力开源代码,共同援助受害者,守护真实世界。
全球Deepfake(深度伪造)攻防挑战赛 受访者供图
在浙江,浙江大学王永威团队的成果同样令人瞩目。
“我们提出了一种无需训练即可检测AI合成文本的方法。”王永威告诉记者,他们通过单词预测的概率分布判断文章是否由AI生成,其准确率超过美国商用文本检测模型GPTZero 近6个百分点,并支持跨语种检测,这一成果已被人工智能顶级学术会议ICLR 2025录用。而在AI合成图像检测方面,该团队研发的六个专家模型,能够综合多个维度的检测特征,能对当前流行的近20种生成模型进行鉴伪,准确率达到92%,处于世界领先水平。
王永威团队ICLR论文的首页截图 受访者供图
王永威团队方法截图 受访者供图
目前,王永威团队已经推动了部分技术应用落地,如高校论文鉴伪、内容审核等,未来还将向更多领域拓展。
每个人都是战士
守护AI安全,不仅仅是技术上的事儿。
“AI攻防就像‘矛和盾’,是一个持续博弈的循环过程。”刘健认为,由于技术发展存在局限性和周期性,难免会遇到“魔高一丈”防御失灵所产生的损失,就亟需构建一个超越单纯技术层面的,涵盖监管、法律、制度及教育等多维度的综合性社会防护网,携手共筑AI安全的坚固防线。
刘健建议,要从源头管理、信息传播链路的监控以及防控机制的建立三个维度出发,构建全面且细致的法制框架,做到有法可依、有据可查,并且不应仅限于事后处理,而应在事前建立机制,通过提高违法成本,形成强大的震慑力,从源头上遏制风险。
例如源头的AIGC服务商需强化内容把控,利用水印等技术手段实现内容的可追溯性;社交平台则需承担起内容核实与筛查的责任,阻断虚假信息的流通渠道;同时,权威机构与国际组织可携手建立信息可信联盟,确保鉴定与举证过程的透明与高效。
令人鼓舞的是,从政府到平台,一系列积极举措正逐步展开并持续优化。例如我国2023年实施的《互联网信息服务深度合成规定》,明确要求深度合成服务提供者履行安全评估及配合检查的责任。微信等平台也积极响应,通过打击AI仿冒名人营销等行动,展现了维护网络清朗空间的决心与成效。
微信近期发布的打击AI仿冒名人营销公告截图
“公众对于AI虚假内容的辨别能力同样不容忽视。”王永威强调教育在防范AI伪造中的重要性,认为公众需了解基本概念和鉴伪方法。他透露,团队正筹备实验室,通过科普AI伪造技术和案例,提升公众认知与防范意识,教会大众识别常见手法,培养警惕心理,减少虚假信息传播。
社交媒体截图 来自网络
刘健将肉眼识别AI伪造比作“找茬游戏”。他指出,“比如生物学上的不合理之处,地震小男孩有六个手指这种细节,或是光影效果不符合物理学原理。” 所有图像由像素组成,质感异常也是线索之一。普通人可以关注图像精细化细节、生物合理性及物理特性,利用这些线索辨别虚假信息,增强鉴别能力,应对复杂的AI伪造挑战。这样,公众可以更好地保护自己免受虚假信息的影响。
“AI大模型是一把双刃剑,如何用好它取决于使用者的意图与行为。”陶沁沁呼吁,AI安全的守护是一项系统工程,需要政府、企业、公众等多方面的共同努力与智慧碰撞。在这场没有硝烟的战争中,每一方都是不可或缺的战士,共同编织着一张守护数字时代安全的密网。
“转载请注明出处”
来源:潮新闻客户端