摘要:从耸人听闻的“80后死亡率突破5.2%”“2024年中国男性平均寿命仅69.9岁”,到铺天盖地的“某公司入股DeepSeek”“某公司为DeepSeek提供技术服务”等,散布这些消息的博主往往坚称“数据由权威部门发布”“真实可靠”,相关内容获得上万点赞的不在少
□辛语
一段时间以来,大量借由AI生成的虚假消息以截图的形式在互联网传播,引起了不小的风波。
从耸人听闻的“80后死亡率突破5.2%”“2024年中国男性平均寿命仅69.9岁”,到铺天盖地的“某公司入股DeepSeek”“某公司为DeepSeek提供技术服务”等,散布这些消息的博主往往坚称“数据由权威部门发布”“真实可靠”,相关内容获得上万点赞的不在少数。
种种煞有介事、看似有理有据的内容,最终都被证实是谣言。而经人工溯源,这些假消息大概率出自一些AI大模型的回答,被部分别有用心的自媒体借题发挥、推波助澜,在制造了不少混乱与焦虑的同时,也让不少人注意到了“AI幻觉”现象。
所谓“AI幻觉”,指的是人工智能大模型在信息处理和生成内容时会出现的误差和错误信息,通常表现为在正确的答案中参杂误导信息,或者将错误结论嫁接在正确数据上,从而使人难辨真伪。
在生产场景中,常表现为虚构数据、事实甚至学术论文,输出的错误内容无法通过已有信息进行验证,或者验证成本极高,连专业领域的人都会被“忽悠”。此前,美国律师引用ChatGPT虚构案例被罚一案,就证明了“幻觉”的可怕之处。
虽然“幻觉”一词看上去有主观倾向,但实际上,输出错误内容并非出于AI的主观恶意,而是受训练数据、生成模型等限制,属于目前无法克服的技术缺陷。
此前,ChatGPT对于中文互联网的信息污染程度始终有限,在国产大模型崛起之后,“AI幻觉”问题逐渐变得不容忽视。
在行业内权威的Vectara HHEM人工智能幻觉测试中,DeepSeek-R1的幻觉率为14.3%,远高于其前身DeepSeek-V3的3.9%。据行业内专家解释,因为加强了思维链和创造力的缘故,DeepSeek-R1会把简单明确的任务复杂化思考,导致在生成内容时容易偏离事实,而鼓励创造性回答的系统偏向,也会增加幻觉这一“副作用”。
尽管各款AI大模型已经多次迭代升级,但依然解决不了幻觉问题,只是部分错误变得更加隐蔽。
设想一下,面对足够拟人又博识高效的人工智能,当它向你展示着清晰自洽的深度思索过程,用详细考究的逻辑推演得出结论时,最终的答案很难不让人信任。然而,这份深信正是令人降低警惕,陷入“幻觉”不自知的主要原因。
如今,越来越多的人把AI当作生产工具,但无论是用于写论文、开处方还是采新闻等等,任何“幻觉”都可能带来严重的差错。
眼下,不少地方、领域已为人工智能的应用设置了“红线”,例如许多高校明确列出禁止和允许使用AI工具的范围,湖南明确严禁医院使用人工智能自动生成处方等,对于从源头避免版权、伦理、法律等风险具有积极作用。
而对于初接触大模型的普通用户来说,想要识破“AI幻觉”,既要保持警惕性,提升对生成内容的分辨能力,也不能放弃思考、放弃自己的主体性。如果对AI生成的内容粗糙照搬、盲目信任,很可能会被带进沟里,更会反噬自己的创造力与思考力。
比起被动的受AI幻觉影响,还有一种主动利用的情况更值得警惕。
AI在提高生产效率的同时,也在不可避免地提高着造假的效率,成为一些人操纵舆论的嘴替、变现流量的工具。
以最近颇受关注的“股市黑嘴”为例,一些不法之徒用虚假语料误导大模型作出错误回答,再将这些“AI答案”传播扩散坑骗散户,以干扰甚至操纵个股的市场交易。令人忧虑的是,普通投资者几乎难以甄别信息的真伪。
一批账号“马甲”疯狂散布虚假“利好信息”
形成一个对生成式信息有足够免疫力的社会,在AI爆发的今天,已经迫在眉睫。
这既要求大模型进一步提升精确度,尽可能从源头减少“幻觉”的出现,也呼唤着各领域建立完善的内容审核把关机制,防止错误信息流入互联网,同时,也对运用AI的我们提出了要求。
被海量数据和信息包围时,要有保持理性、冷静核查的判断力;在新技术飞速迭代时,要有价值观向善而非作恶的自制力;在与人工智能“合作”时,要有主动思考、主导实践的把控力。
如果我们自己首先放弃守住真实与虚构的边界,将思考和求真的工作都交给人工智能,把分辨真伪的责任托付给技术与监管,媒介就不再是人的延伸,而成为削弱我们存在的牢狱。
“AI幻觉”的出现,某种角度上也算是一种提醒,反证了人类在独立思考、价值判断、复杂决策等领域的不可替代性。
只要不让渡思考的权力,不放弃质疑的精神,不向舒适躺平所屈服,作为人的核心就可以得到保全,在技术浪潮席卷下为自己赢得一席之地。
来源:大众日报