摘要:“以前识别假新闻看三要素:错别字、夸张标题、模糊图片。现在?连亲妈发来的生日祝福视频都可能是AI(人工智能)造的!”网络安全博主“代码侠”在直播间举起两瓶矿泉水,左边贴着“DeepSeek出品”标签,右边则是“DeepFake特供”,“现在全民都得上化学课,学
“以前识别假新闻看三要素:错别字、夸张标题、模糊图片。现在?连亲妈发来的生日祝福视频都可能是AI(人工智能)造的!”网络安全博主“代码侠”在直播间举起两瓶矿泉水,左边贴着“DeepSeek出品”标签,右边则是“DeepFake特供”,“现在全民都得上化学课,学会用‘技术试纸’测毒”。
先暂停一下!如果记者不主动坦白,大家能分辨这段有现场画面、直接引语、明确发言对象的叙述,其实是AI大模型完全虚构生成的吗?
近年来,随着大模型等生成式AI技术的快速发展,生成内容质量显著提升、生成速度明显加快、适用场景大幅扩展,AI产业逐步进入了规模化应用阶段,普通人都可以轻松地接触到各种生成合成工具。与此同时,各类安全问题也随之显现,譬如用AI生成虚假信息、AI换脸明星直播带货、AI实时换脸诈骗等违规甚至违法的事件频发。不可否认,我们已然进入了一个“眼见不一定为实,耳听也可能不真”的时代,因此,关于DeepFake(深度伪造)的讨论也愈发激烈。
DeepSeek与DeepFake,这两个名字看似相近,实则大相径庭。DeepSeek凭借其高效的数据处理能力,成为了我们探索知识海洋的明灯,引领我们前行;而DeepFake则以其惊人的伪造技术,为我们辨别真伪带来严峻考验。两者的“一字之差”,恰恰折射出了人工智能时代我们不得不面对的一个核心问题:如何在享受技术红利的同时,筑起一道坚固的AI内容风险防火墙?
在记者看来,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》,通过“显式”和“隐式”两种标识的“双保险”设计,可以有效提高AI内容的透明度和可追溯性,让普通用户减少上当受骗的风险,是从源头上治理AI造假的有效手段。这不仅为DeepFake画上了“此路不通”的红线,也为以DeepSeek为代表的人工智能技术标出了“向阳而生”的航向。
未来的竞争,不仅是算法与算力的比拼,更是责任与价值观的较量。当每一段AI生成内容都携带“身份密码”,当每一次技术滥用都能被精准溯源,我们终将让技术的“深度”服务于文明的“求索”,而非坠入“伪造”的深渊。
在这个数字化浪潮汹涌澎湃的时代,我们每个人都是信息的接收者与传播者。对于普通用户而言,保持警惕、注意事实核查是提升自我防护能力的关键。与此同时,我们也要提升网络素养和数字素养,做一个公序良俗和社会稳定的坚定的维护者。
一句话——技术无对错,关键看使用技术的人。
记者:谢阿愁
文字编辑:李晨阳
新媒体编辑:洪琳
审核:李木元
来源:人民政协网