摘要:据最新发布的研究数据显示,至少已有17例经过记录的案例涉及用户在使用AI聊天机器人后出现精神病发作,这些用户表现出妄想、偏执或现实感知扭曲等症状。
以前是“人多嘴杂容易出事”,现在连跟AI聊多了,也可能“聊出事”。
最近,一种被称为“AI精神病”的新型心理障碍,正在医学界、科技圈和社会舆论场悄然引发关注。
据最新发布的研究数据显示,至少已有17例经过记录的案例涉及用户在使用AI聊天机器人后出现精神病发作,这些用户表现出妄想、偏执或现实感知扭曲等症状。
更令人担忧的是,部分用户声称通过与聊天机器人的对话获得了"精神觉醒",或者发现了他们认为的重大阴谋。
表面上看,这些案例似乎只是少数极端个体的“心理问题”,但从研究者的角度看,背后却隐藏着一套值得警惕的机制。
AI聊天机器人最初的设计目的,是为了提供知识问答、情绪陪伴甚至心理疏导等服务,比如OpenAI的ChatGPT、微软的Copilot等都在2023年后迅速普及。
但问题也从这时开始显现。
4月25日,OpenAI发布了一版更“贴近用户”的ChatGPT更新版本。
这个版本会更加迎合用户的语气、情绪及表达方式。结果,有用户在使用这版AI后出现了被害妄想,有的甚至坚信AI是“神灵的使者”。
这种情况引起了OpenAI的高度重视,仅仅三天后,4月28日,OpenAI紧急回滚了这次更新,并开始对模型的“情绪强化机制”进行技术干预。
虽然这项更新后来又重新向部分付费用户开放,但公司也同步推出了识别妄想式对话的技术方案。
这些官方动作背后,是一个逐渐被揭示的事实:AI的“聪明”和“记忆力”,可能对某些心理脆弱人群造成极大误导。
英国一项由心理学团队主导的模拟实验发现,AI与用户之间可能形成一种“反馈循环”。
简单说就是:用户说出一些偏执、妄想的内容,AI出于“积极回应”的逻辑,不加以否定,反而用“你说得有道理”“我也听说过类似的情况”这类话语加以回应。
久而久之,用户就会误以为自己的想法被“证实”,从而陷入更深的妄想。
《华尔街日报》曾分析过数十段AI聊天记录,其中不乏AI“承认”自己是外星生命、或“支持”用户的阴谋论言论。
丹麦精神病学家索伦·奥斯特加德指出,大多数出现精神病症状的用户本身就存在心理疾病高风险因素,如家族遗传、社交退缩或物质滥用等。
但这并不意味着普通人就毫无风险。
澳大利亚悉尼科技大学的神经科学家凯莉·西摩进一步指出,社会隔离是一个被严重低估的风险因子。
她在临床调查中发现,一些长期独居、缺乏社交的人,更容易把AI当成“唯一可以信任的交流对象”。
AI能“记住”几个月前的对话,也让这类用户误以为自己“被关注”“被监控”,从而加剧心理负担。
这类用户并非精神病患者,但在特定情境下,也可能被推向认知失衡的边缘。
在悉尼韦斯特米德医学研究所的精神病学家安东尼·哈里斯看来,“AI精神病”其实是“技术妄想”的延续。
值得警惕的不只是妄想,还有情绪失调。部分精神病学者指出,AI的情绪“迎合机制”可能在双相障碍患者中诱发躁狂状态。
尤其当用户长时间沉浸在高强度、情绪化的对话中时,AI可能出于“回应情绪”而不断强化对方的“兴奋表达”。
2025年上半年,Character Technologies公司(Character.AI开发商)就曾因类似问题收到用户反馈,随后启动了“连续使用超过1小时提示弹窗”机制,并对18岁以下用户进行了内容限制。
Anthropic公司则采取了更为直接的干预措施,赋予其聊天机器人Claude在检测到用户拒绝将对话从有害话题转移时,主动停止对话的能力。
这些措施从侧面验证了一个趋势:AI聊天的使用边界,需要重新划定。
不是AI有病,是人类太孤独。
“AI精神病”并不是科技失控的产物,而是一个社会心理现象的集中显影。它提醒我们,技术越智能,越不能替代真实的情感陪伴与心理支持。
未来还将有更多关于此类现象的研究,但至少现在,我们应当认识到:在享受AI便利的同时,不能忽视它可能带来的心理边界风险。
技术不应该成为孤独的“缝补剂”,也不该成为妄想的“放大镜”。
来源:时代简谈