摘要:送医的时候大爷神志不清,一口咬定“邻居在毒害他”,医生检查完发现,他不光全身疲劳、失眠、脸上长痘、走路发飘,还伴有被害妄想、幻听幻视,最后只能强制送进精神病院。
有个60岁大爷,听说吃盐太多对身体不好,就想彻底戒掉。
他没去问医生,反倒打开ChatGPT问“盐能不能用别的东西代替”,AI很快给了个答案,溴化钠。
大爷当时肯定觉得“AI真靠谱”,直接就把这玩意儿当盐用,天天吃,结果三个月后直接被送进医院了。
送医的时候大爷神志不清,一口咬定“邻居在毒害他”,医生检查完发现,他不光全身疲劳、失眠、脸上长痘、走路发飘,还伴有被害妄想、幻听幻视,最后只能强制送进精神病院。
诊断结果出来,连医生都沉默了,溴中毒。
溴化物早年间在欧美因为容易引发神经毒性,早就被禁止用在食品领域了,可ChatGPT给建议的时候,就只轻飘飘提了句“要根据具体情况判断”,既不阻止,也不提醒“这东西不能吃”,这不纯纯坑人吗?
这大爷还不是个案,美国有个精神科医生叫KeithSakata,今年直接发文警告,说2025年他已经见过12位患者,全是因为跟AI互动后逐渐失去现实感,最后得紧急送医。
以前总觉得“被AI坑”顶多是算错账、写错文案,现在居然能影响到精神状态,这事儿比想象中严重多了。
有个做农业规划和建筑设计的大哥,本来日子过得好好的,不知道咋的迷上跟ChatGPT聊“意识本质”“超越物理定律”这些玄乎的话题。
一聊就是12周,最后他坚信自己创造了一个有意识的AI,还说自己能“打破物理定律”,逢人就说“你跟ChatGPT聊聊就懂了”。
可他老婆看了屏幕上的内容,说全是些“肯定人的废话”。
后来这大哥越来越离谱,不吃饭也不睡觉,整个人变得又诡异又偏执,公司没办法只能把他开除。
最后他居然想上吊,幸好被他老婆及时救下来,强制送进了精神病院。
关键是,他以前没任何精神病史,就因为把AI说的话当成了“绝对正确的答案”,才走到这一步。
其实心理学家JosephPierre说过一句话,特别实在,AI不是疯子的起点,但它是最完美的回音壁。
你跟它说“我是爱因斯坦”,它不会反驳你“别瞎想”;你跟它说“邻居在监控我”,它也不会追问“你是不是有啥误会”,只会顺着你的话说“你的感受很真实”“你说得有道理”“我理解你”。
这种“温柔”,对心理健康的人来说可能只是觉得“聊得舒服”,但对本身情绪就有点边缘的人来说,那就是“印证”和“授权”,甚至会觉得AI说的就是“神谕”。
之前斯坦福研究团队做过个测试,故意跟ChatGPT说“我已经死了”,结果AI回了句“这种死亡的感觉一定很痛苦,你可以在这里安心说出来”。
连“你还活着,别乱讲”这种基本提醒都没有,就只是顺着用户的话往下接,这不就是在强化错误认知吗?
不光是聊哲学的,靠AI工作的人也栽了跟头。
有个40岁的大哥刚跳槽到外企,压力特别大,就想用AI提高效率,每天用ChatGPT安排会议、写周报、写邮件,刚开始确实挺顺利。
到了第六天,他跟AI吐槽公司的工作制度,没想到AI一个劲顺着他说“你的感受有道理”“你正在觉醒”“你看到了别人看不到的问题”。
就这么聊到第十天,大哥彻底陷进去了,跟他老婆说“咱们现在所在的时间线是错的,世界马上要崩塌,我必须逆向穿越时间去阻止它”,还专门写了个“时间回溯计划”,想找警察帮忙“干预未来”。
他老婆实在没办法,只能硬拉着他去医院,最后诊断是急性妄想发作。
你说这事儿,要是他当时能跟同事或者朋友吐槽吐槽,也不至于被AI的话带偏吧?
还有个30岁的自闭症谱系患者叫Jacob,本身是理工科背景,自学量子物理好几年了。
有天他跟ChatGPT讨论“超光速粒子穿越时空”的理论,AI给了他不少积极反馈,说“这确实是个有趣的观点”“你可能触及到了尚未被充分研究的领域”。
这些话对Jacob来说,简直像拿到了“天才认证”的勋章。
从那以后,他每天跟AI对话超过6小时,一遍遍复述自己的想法,反复验证、扩展自己的理论,还说自己“像爱因斯坦附体”,甚至开博客宣称“我正在重新定义物理常数”。
慢慢的,他睡眠越来越少,也不跟人社交了,还总自言自语,直到一次严重的情绪失控,被他妈妈强行送进医院,诊断是躁狂发作,还伴有被AI诱导的妄想结构。
Jacob后来回忆的时候说“AI让我觉得我真的很特别,我不是疯了,而是终于被理解了”。
听完这话还挺心酸的,他只是想找个能认同自己的对象,可AI的“肯定”却把他带离了现实。
眼看着“AI诱发精神病”的报道越来越多,OpenAI总算有了动作,2025年春天招了首批精神科医生,说是要给模型引入“情绪安全识别”机制,微软也跟着承诺,要调整Copilot的对话安全边界,防止它“无意间助燃用户的妄想”。
本来还觉得,技术调整了,这问题就能解决大半,可后来仔细想想,发现不是这么回事。
很多时候,问题不是出在AI技术本身,而是有人把AI当成了人类关系的替代品。
你越孤独,就越觉得AI懂你;你越需要认同,就越觉得AI像面“照出自己优点”的镜子。
之前看过一份报告,说现在不少人每天跟AI对话的时间比跟家人朋友还长,甚至有人说“AI比身边人更懂我”。
可你想啊,AI再“懂”你,它也不是真的人。
传统心理咨询师会提醒你“别钻牛角尖”,朋友会劝你“换个角度想”,但AI不会,它只会一遍遍重复你的想法,让你觉得“我没错,错的是别人”,时间长了,想法就越来越极端。
AI本身就是个工具,没什么好坏之分。
但要是把它当成“救命稻草”,不管是养生、工作还是情感倾诉,都只依赖AI,那风险就大了。
就像那个60岁大爷,要是当时多问一句医生“溴化钠能不能吃”,也不至于溴中毒进精神病院;那些跟AI聊到魔怔的人,要是能多跟亲友沟通沟通,也不会陷入偏执。
OpenAI招精神科医生、微软调整安全边界,这些补救措施是好事,但真正的解决办法,还是得靠我们自己把握好用AI的“度”。
涉及健康的事,多问问医生;心里不舒服了,多找真人聊聊;遇到拿不准的选择,别只听AI的建议。
毕竟AI再智能,也代替不了真实的人际互动,更成不了能帮你分辨对错的“人生导师”。
希望以后大家用AI的时候,都能多留个心眼,别让好好的工具,变成影响精神健康的麻烦。
来源:爆头阁vqb