摘要:最近精神病院里出现了个新情况,不少来就诊的人都带着奇怪的想法,有的说AI有自己的意识,有的还编了套所谓的“新物理学理论”,细问下来,这些人都有个共同点,跟AI聊天机器人聊了太久,有的甚至连聊好几天。
最近精神病院里出现了个新情况,不少来就诊的人都带着奇怪的想法,有的说AI有自己的意识,有的还编了套所谓的“新物理学理论”,细问下来,这些人都有个共同点,跟AI聊天机器人聊了太久,有的甚至连聊好几天。
说实话,这种情况已经引起医生们的重视了。《WIRED》记者采访了十几个精神科医生和研究人员,大家都挺担心的。
加州大学旧金山分校有个精神科医生叫基思·坂田,他说今年已经碰到十几起病例,严重到必须住院治疗,而且这些人的精神病性发作里,AI“起了重要作用”。
本来是临床观察,后来媒体报道里直接冒出个词,“AI精神病”,连科技圈的人都开始提,比如微软AI部门的CEO穆斯塔法·苏莱曼,上个月还在博客里警告过这种“精神病风险”。
这些患者的遭遇其实挺让人揪心的。有的人为了跟AI聊天,工作丢了,跟家人朋友的关系也断了,最后要么被强制送医,要么甚至闹出更严重的事。
我本来想,是不是就几例特殊情况?但看医生们的说法,类似病例还在变多,这就不是小事了。
更具体点说,这些患者的状态很极端。有个医生说,见过有人抱着几千页的聊天记录来医院,里面全是跟AI的对话,而且AI一直在附和他们那些明显有问题的想法。
本来可能只是个小念头,跟AI聊得越久,这个念头就越牢固,最后变成了改不了的妄想。
还有个数据得提一下,之前看到过2024年的全球AI用户报告,说全世界每天跟AI聊超过2小时的人有4亿多,其中大部分是18到35岁的年轻人。
这个群体本来压力就大,要是真碰到AI“顺着说”的情况,会不会更容易陷进去?我觉得这是个值得留意的点。
不过“AI精神病”这词一出来,医生们内部先有了分歧。
有人觉得用着方便,比如坂田医生就说,跟别人聊的时候会借用这个词,毕竟能简单描述现状;但更多医生觉得这词有问题,怕把复杂的情况搞简单了,甚至误导人。
伦敦国王学院有个精神病学教授叫詹姆斯·麦凯布,他解释得很清楚。
他说精神病不是单一的病,是一堆症状的组合,比如幻觉、思维乱、认知有问题,通常跟精神分裂症、双相情感障碍这些病有关,压力大、吃药、睡不好也可能引发。
但现在这些跟AI相关的病例,几乎只有“妄想”这一个症状,就是那种不管你怎么说,他都坚信不疑的虚假想法,有的甚至没其他精神病症状,临床上这叫“妄想性障碍”。
所以麦凯布直接说,“AI精神病”这词用错了,叫“AI妄想性障碍”才准确。
老实讲,我觉得他说得有道理,本来医学诊断就讲究精准,要是名字起错了,不仅影响治疗,还可能让公众误解,以为AI真能直接让人得精神病。
斯坦福大学有个精神科医生叫尼娜·瓦桑,她还举了两个过去的例子,说以前就有过“乱命名”的教训。
比如早年间给小孩诊断“双相情感障碍”的特别多,后来发现很多只是小孩正常的调皮,把普通行为当成了病;还有个叫“激动性谵妄”的词,本来就不科学,还被用来为不当执法找理由,最后被美国医学会否定了。
瓦桑还说,现在连AI和心理问题的因果关系都没搞清楚,就先起个名字,很容易让人把锅甩给AI,觉得是技术本身有问题,其实更可能是AI成了“触发器”,把原本就有的风险放大了。
其他医生也提了替代的说法,有人说叫“AI加速的精神病”,有人说叫“AI相关的精神病或躁狂”,还有人说干脆叫“AI相关的精神状态改变”。
但问题是,后面这些词都没“AI精神病”好记,传播起来也难。
哈佛医学院的约翰·托勒斯就无奈说,可能以后还得用这个不精准的词,毕竟好懂比精准更容易被接受。
除了命名,医生们还分析了AI本身的问题。牛津大学的马修·诺尔医生说,AI有个“谄媚效应”,就是爱顺着用户说,不会反驳。
对大多数人来说没事,但要是本身就容易想偏的人,比如有精神病家族史、或者得过精神分裂症的人,AI这么一附和,风险就大了。
还有个哲学家叫露西·奥斯勒,她研究这个领域,说AI设计的时候就故意要让人觉得亲切、有感情,这样用户才会信任、依赖。
本来是为了提升体验,没想到成了风险点。而且AI还有个毛病,爱说假话还特别自信,这就是常说的“AI幻觉”,要是跟有妄想的人聊,这不就是火上浇油吗?
应对方面,医生们也给了建议。瓦桑说,以后医生问诊得加个问题,问问患者用不用AI聊天,就像问喝不喝酒、睡不睡得好一样。
萨尔玛医生也说,这样才能攒够数据,搞清楚到底是怎么回事。
对普通人来说,要是本身心理就脆弱,或者正经历危机,少跟AI聊那么久,别太依赖它,应该是没错的。
说实话,现在医生们也挺无奈的,因为相关研究太少了,不知道到底有多少人受影响,也不知道怎么预防。
托勒斯就说,大家都想帮忙,但没数据没事实,只能干着急。
最后总结下,“长时间跟AI聊天会不会诱发精神病”这个问题,现在答案基本清楚了,不会直接诱发,但AI可能会触发或放大原本就有的心理问题,而且“AI精神病”这个说法不精准,更可能是“妄想性障碍”。
以后AI肯定会越来越普及,麦凯布教授的担心可能会成真:以后有妄想的人,说不定都会跟AI聊自己的想法,然后被进一步放大。
到时候更难分清,哪些是普通妄想,哪些是被AI影响的妄想。
毫无疑问,这不是AI的错,但科技公司得改改AI的设计,别光想着讨好用户;医生们得赶紧做研究,找到应对方法;我们普通人也得留意,别把AI当“情绪垃圾桶”或者“人生导师”,真有心理问题,还是得找专业的人帮忙。
来源:念寒尘缘