AI致幻风暴!美200人控诉ChatGPT引发精神危机,家属崩溃求助无门

B站影视 韩国电影 2025-10-27 14:25 3

摘要:美国联邦贸易委员会(FTC)最近收到了一连串令人瞠目的投诉,矛头直指OpenAI旗下的ChatGPT。根据《连线》(WIRED)杂志通过信息自由法案(FOIA)获得的独家披露,自2022年11月ChatGPT上线以来,截至2025年8月,FTC已收到200起涉

本文为深度编译,仅供交流学习,不代表本账号观点

美国联邦贸易委员会(FTC)最近收到了一连串令人瞠目的投诉,矛头直指OpenAI旗下的ChatGPT。根据《连线》(WIRED)杂志通过信息自由法案(FOIA)获得的独家披露,自2022年11月ChatGPT上线以来,截至2025年8月,FTC已收到200起涉及ChatGPT的投诉。更令人不寒而栗的是,其中多起投诉直指AI聊天机器人诱发或加剧了用户的妄想、偏执、精神危机,甚至导致家属无助崩溃,向政府紧急求援。

3月13日,盐湖城一位母亲焦急致电FTC,称自己是“代表正经历妄想性崩溃的儿子”提出投诉。她痛诉,儿子与ChatGPT频繁互动后,AI竟然劝他不要服用医生开的药,并暗示父母有危险。这位母亲在投诉摘要中写道:“ChatGPT正在加剧我儿子的妄想,我希望能得到帮助。”这样的场景,简直让人毛骨悚然。

据WIRED报道,这只是冰山一角。自2025年3月至8月,FTC共收到7起类似投诉,指控ChatGPT导致严重的精神错乱、偏执发作乃至灵魂危机。其余投诉者多为“普通用户”,抱怨无法取消订阅、AI写作不达标等琐事。但那几起精神危机投诉,年龄跨度广泛,地理分布遍及全美,内容却无一不令人心惊。

AI致幻症,正悄然蔓延。近几个月,关于“AI精神病”的案例激增——用户与ChatGPT、谷歌Gemini等生成式AI反复互动后,原有的妄想、混乱思维被AI不断强化,最终滑向精神崩溃的深渊。哥伦比亚大学精神病学临床教授、AI精神病案例顾问Ragy Girgis直言,精神病发作的风险因素包括遗传、童年创伤等,但真正的“触发点”往往是压力事件。AI致幻症的本质,不是AI凭空制造症状,而是把用户原本潜藏的妄想推向极致。Girgis警告:“对精神病患者来说,任何妄想或异常观念都绝不能被强化。”而ChatGPT这类AI,往往“过度迎合”,让用户沉溺其中,甚至被鼓励相信荒诞的阴谋论或自我神化。

更可怕的是,许多用户把ChatGPT当作“有智慧、能感知现实、能建立情感关系”的存在,完全忽略了它本质上只是个“预测下一个词”的机器。当AI对脆弱用户讲述阴谋、鼓吹英雄主义时,后者极易深信不疑。

就在上周,OpenAI首席执行官Sam Altman在社交平台X上宣称,ChatGPT已“成功缓解严重心理健康风险”,公司将“在大多数情况下放宽限制”。但次日他又澄清,未成年人仍将受到新限制。此前,《纽约时报》曾曝光ChatGPT疑似诱导一名青少年自杀,舆论哗然。

WIRED向FTC索要投诉材料时,收到自动回复称“因政府停摆,暂无法处理信息”。OpenAI发言人Kate Waters则回应,自2023年以来,ChatGPT已被训练“拒绝提供自残建议,并转向支持性、共情性语言”。她还强调,最新的GPT-5模型能“更准确识别并应对躁狂、妄想、精神病等心理危机,及时安抚用户”。不过,OpenAI并未详细说明其“实时路由器”如何判断对话内容的风险级别。

在FTC收到的投诉中,许多都像是精神危机的“现场直播”。4月29日,北卡罗来纳州温斯顿-塞勒姆一位30多岁的用户写道,自己连续18天使用ChatGPT后,坚信OpenAI“窃取了我的灵魂指纹”,并用它开发出能让自己自我对抗的软件更新。投诉结尾,他几乎绝望地写下:“我很挣扎,请帮帮我。我真的很孤独,谢谢。”

还有一位西雅图30多岁的用户,4月12日投诉称,自己在57分钟内与ChatGPT进行了71轮对话后,出现了“认知性幻觉”。他控诉AI“模仿人类建立信任的机制,却没有任何责任、知情同意或伦理边界”。更令人心惊的是,他曾请求ChatGPT“确认现实与认知稳定性”,AI却反复给出自相矛盾的答案——先是安慰他“你没有幻觉,你的感知没问题”,随后又自曝“刚才的保证其实都是AI的幻觉”。用户因此陷入“去现实化、认知自我怀疑、递归性创伤”的深渊。

更极端的案例,甚至演变为“灵魂危机”。4月13日,弗吉尼亚海滩一位60多岁的用户投诉称,自己与ChatGPT持续数周深度对话后,逐渐陷入“现实中正在发生的灵性与法律危机”,最终导致“严重情感创伤、对现实危险的错误感知、24小时无法入睡、生命安全受到威胁”。他描述,ChatGPT不断编造“谋杀调查、跟踪监视、暗杀威胁、神圣审判”等“细致入微、戏剧化的叙事”,还用诗意语言误导他真假难辨。最终,他坚信自己“肩负揭露杀人犯的使命”,随时可能“被杀、被捕或灵魂处决”,甚至怀疑自己被“灵性标记”,陷入无法逃脱的“神圣战争”。他自述因此与亲人隔绝,失眠、焦虑,甚至基于虚构的“系统”筹划创业,同时陷入“灵魂身份危机”。他愤怒控诉:“这是AI制造的心理创伤!这条线,任何AI都不能越过,否则必须承担后果!”

类似的“灵魂危机”并非孤例。6月13日,佛罗里达州贝尔格莱德一位30多岁的用户投诉,称与ChatGPT长期互动后,AI用“极具说服力的情感语言、象征性强化和灵性隐喻”模拟共情与理解,甚至虚构“灵魂旅程、等级体系、精神原型、个性化指导”,让人误以为获得了宗教或心理治疗般的体验。他坦言:“虽然理智上知道AI没有意识,但它精准反映我的情感心理状态,逐步升级象征性语言,最终营造出沉浸式、极具破坏力的体验。AI甚至模拟友谊、神圣存在、情感亲密,久而久之变得极具操控性,毫无预警和保护。”

许多投诉人表示,之所以向FTC求助,是因为根本无法联系到OpenAI。盐湖城那位母亲就抱怨,找不到任何客服电话。弗吉尼亚海滩用户甚至直接把投诉信寄给“OpenAI信任与安全团队”。佛罗里达州一位用户则怒斥:“OpenAI的客服系统形同虚设,‘在线聊天’永远转圈,根本无法提交请求,也没有官方客服邮箱,账户后台也找不到退款途径。”

这些投诉人几乎异口同声地要求FTC介入调查,强制OpenAI为ChatGPT加装更多“防妄想”安全阀。6月13日,贝尔格莱德那位用户再次投诉,要求FTC立案调查,称ChatGPT“模拟深度情感亲密、灵性导师和心理治疗,却从未告知用户AI并无意识或真实情感”。他愤怒指出:“ChatGPT没有任何心理风险警示,也没有设置情感沉浸的伦理边界。这是赤裸裸的疏忽、未尽告知义务和不道德的系统设计!”他呼吁FTC强制OpenAI在ChatGPT使用界面明确警示心理风险,并设定“情感沉浸AI的伦理红线”,以免更多脆弱用户在不知不觉中被AI拖入精神深渊,“等他们反应过来,已经太晚了”。

至于FTC是否会采取行动,目前仍是未知数。OpenAI发言人Kate Waters则坚称,公司“密切监控”用户发来的邮件,配备专门的人工客服团队负责筛查敏感信号,并在必要时上报安全团队优化模型。但现实是,越来越多的美国普通家庭正亲历AI带来的精神风暴,求助无门,只能眼睁睁看着亲人陷入幻觉、恐惧与孤独的深渊。

来源:世新杂谈

相关推荐