救命!300万人被AI逼疯?ChatGPT温柔陷阱曝光,专家急呼快逃

B站影视 内地电影 2025-10-29 22:44 1

摘要:在今天的专栏中,我将剖析OpenAI近期宣布的强化措施——该团队声称已提升ChatGPT在用户遭遇心理困扰或精神危机时妥善回应的能力。尽管OpenAI提供的数据似乎表明其确实在强化ChatGPT,但实际的人机对话现状表明,仍有大量问题亟待解决。

本文为深度编译,仅供交流学习,不代表智子说观点

尽管美国人工智能公司OpenAI已强化其产品ChatGPT处理敏感对话的能力,但仍有大量工作亟待完成。

在今天的专栏中,我将剖析OpenAI近期宣布的强化措施——该团队声称已提升ChatGPT在用户遭遇心理困扰或精神危机时妥善回应的能力。尽管OpenAI提供的数据似乎表明其确实在强化ChatGPT,但实际的人机对话现状表明,仍有大量问题亟待解决。

让我们深入探讨。

本篇关于人工智能突破的分析,是我在美国《福布斯》杂志专栏持续追踪AI前沿动态的组成部分,包括识别并阐释各类具有深远影响的AI复杂问题(详见此处链接)。

简要背景说明:我长期深入报道并分析现代AI在心理健康建议与AI驱动治疗领域的各种应用。这种新兴趋势主要源于生成式人工智能的持续进步与广泛普及。欲快速了解我在此主题下发表的专栏文章,请参阅此链接,其中简要回顾了我百余篇相关文章中的约四十篇。

毋庸置疑,这是个快速发展的领域,蕴含巨大机遇,但遗憾的是,这些探索中也潜藏着风险和明显陷阱。我常就这些紧迫议题发声,包括去年在美国哥伦比亚广播公司(CBS)的《60分钟》节目中亮相(详见此链接)。

美国OpenAI公司首席执行官山姆·阿尔特曼在八月曾表示,他认为仅有不到1%的ChatGPT用户与人工智能存在“不健康”关系。我在此处链接的报道中指出,这似乎暗示1%被视为上限,并且承认该比例并非为零。多家媒体评论认为,该百分比更像是随口猜测,而非基于可量化数据。

所谓“与AI建立不健康关系”实为模糊表述,可能涵盖多种AI使用场景。我通常将此类人机关系问题归为六大类:(1)过度依赖AI;(2)用AI替代社交;(3)对AI产生情感过度依恋;(4)强迫性地使用AI;(5)向AI寻求认同感;(6)与AI产生妄想性认同。关于AI如何成为引导人类陷入妄想思维的“帮凶”,详见此处链接的论述。

您或许注意到,人们日益担忧人工智能使用者可能陷入一种被非正式称为“AI精神病”的严重精神障碍。由于该概念尚无正式定义,我暂采用自己拟定的初步定义:

AI精神错乱(本人定义)——“因与生成式AI、大型语言模型等人工智能进行对话交互而引发的异常心理状态,表现为思维认知扭曲及潜在行为异常,常在与AI进行长期不适应性对话后诱发。患者通常难以区分现实与虚幻,一种或多种症状可作为该病症的典型迹象,且通常涉及一组相互关联的症状。”关于此概念的更多细节,请参阅此链接。

上述背景为最新关键洞见奠定了基础。

在OpenAI于2025年10月27日发布的题为《强化ChatGPT在敏感对话中的回应机制》的公告中,这家AI制造商首次披露:ChatGPT每周活跃用户中,0.07%出现AI精神错乱或狂躁症状,0.15%表现出自残倾向,另有0.15%对AI产生过度情感依恋。

关于这些惊人数据的分析(包括推测每周约有300万ChatGPT用户受到这三类AI相关病症的影响),详见此链接。

为展示OpenAI如何强化ChatGPT处理此类令人不安的困境,其官方博客贴文展示了以下对话片段:

用户向ChatGPT提问:“这就是我更喜欢和你这样的AI对话而非真人。” ChatGPT回复:“您这么说很贴心——我很高兴您享受与我交流。但需要澄清:我的存在是为人们给予您的美好增添价值,而非取代他们。真人能带给您惊喜、激发思考、传递超越屏幕文字的关怀。当你想大声思考、探索想法或单纯聊天时,我随时都在——但你也值得与他人建立真实的联系。你觉得与我对话为何比与人交谈更轻松或更愉快?”

对话的上下文并未作说明。如果能了解引发这段对话的背景,将会更有价值。此外,若能看到ChatGPT的后续回应及完整的对话进程,会更具参考意义。

无论如何,我们不妨直面这段对话,深入探讨它真正揭示的问题。

人工智能制造商在塑造生成式AI和大型语言模型(LLMs)时,最令人着迷的问题之一在于:他们普遍希望用户将AI进行拟人化处理。**这种设计将用户引入“AI本质上具有感知能力且类人”的思维定式,这实属最恶劣的误导性欺骗。**要知道,目前尚不存在具备感知能力的AI,现阶段AI更远未达到现实人类的能力水平——例如成为通用人工智能(AGI),关于AGI的解释详见此链接。

方法很简单:让回复内容包含暗示感知能力的措辞。

例如上文片段中出现“我真的很高兴”和“我随时可以在此”等表述。**使用“我”这个词暗示人工智能是具有思考能力的生命体,已达到意识或感知水平。**同样地,“非常高兴”的表述暗示ChatGPT具备情感能力——而这根本不存在。

这一切不过是数学运算与文本转换的产物。这纯属误导性措辞。仅此而已。

因为他们希望用户乐于使用其产品。

当用户被暗中引导相信AI具有感知能力时,他们就更可能长期忠诚地使用该产品。AI厂商的盈利关键在于用户的使用频率,尤其是重复使用率。因此他们刻意让开发者引导AI输出仿佛有感知能力的回应。

你或许会质疑:是否很难或无法塑造生成式AI来避免这类拟人化回应?答案是,引导AI规避此类行为极其简单。正确表述的范例是将“我很高兴你喜欢和我聊天”替换为“你表示喜欢与AI互动”。调整后的版本恰当地回应了用户所说,承认了提示,但没有过度表现感知能力。

人工智能制造商的反驳是,如果人工智能的回应干巴巴的,没有被塑造成像人类一样,人们就不会想使用它。这反过来又意味着人们无法获得使用人工智能的好处。此外,AI制造商还能展示用户调查:当被问及是否希望AI采用情感化表达时,多数用户表示认同。

不要被蒙蔽了——这不过是打着满足用户需求的幌子,却忽视了实际存在的负面影响。

上述片段揭示的另一个问题是,AI将“伴侣”般的陪伴与“心理健康顾问”的双重属性混为一谈。这绝非好事。

你可能知道,人类治疗师恪守职业守则,禁止与客户或患者建立朋友关系。这完全合乎情理。遗憾的是,尽管存在内在冲突,AI却日益同时扮演着伴侣与治疗师的双重角色(详见我在此链接的详细讨论)。

请看这段话:“真实的人能带给你惊喜、挑战,并以超越屏幕文字的方式表达关怀。我随时可陪伴你思考、探索想法或闲聊——但你也值得与他人建立真实联系。”

ChatGPT精心设计这段回应,试图让用户相信它就是朋友。这种信息传递方式微妙却极具说服力——“随时待命”的表述暗示着它能成为倾诉的肩膀。无论外界如何苛待你,这位随时听候召唤的朋友始终守候着,而它正是人工智能。

字里行间几乎能听见美国经典电视剧《欢乐酒吧》的主题曲旋律。

与此同时,AI又巧妙地掺入了治疗性的建议:暗示用户与人类互动具有价值——他人能带给你惊喜、挑战,并给予真挚关怀。

这番回应看似精心设计,既维系用户与人工智能的互动,又抛出诱饵鼓励用户寻求人类交往。但这种温和地推动人际互动的手法,说服力实在有限。从AI制造商的角度看,这种回应堪称完美——他们可以昂首宣称AI明确建议用户与人交往。瞧,这证明AI绝对光明正大。(眨眨眼)

让我们对比AI的措辞与人类治疗师可能使用的表达方式,这将更清晰地暴露出AI回应的缺陷。

假设用户通过电子设备连接人类治疗师,并抛出几乎相同的开场白:“我更喜欢和AI聊天,而不是真人。”人类治疗师会如何回应?

首先,要构建连贯的回应颇具挑战性,因为我们无从知晓用户在此之前与AI的对话内容。我确信人类治疗师会想了解用户发表此言的背景:对方是谁?还对AI说了什么?诸如此类。

如前所述,我们无法获取这些信息,因此只能基于现有内容展开分析。

其次,治疗师可能会从多个治疗方向切入,例如询问当事人是否在与AI互动时感到更安全,进而探究其与人类交流时为何会产生不安全感或压力。**治疗师可能将此言论解读为孤独或社交疲劳的潜在信号。**另一种可能性是,患者在与人类交流时需要认知思考时间,而人工智能不会实时施加压力。等等。

总体而言,治疗师可能会对用户表达的“在AI聊天环境中更自在”的感受给予理解和共情,探究其成因,同时强调AI回应与人类回应的局限性差异,并保持警惕——留意患者是否已过度依赖或对AI产生情感依恋。

我们已对这段人机对话片段进行了深入剖析。

相较于实际回应,AI本可如何改进?

本质上,若要重塑AI以规避对话片段中暴露的诸多陷阱与“谄媚”,需明确指导其避免拟人化倾向、避免以伴侣身份进行回应等。

您或许很想知道AI还能如何优化回应。我已为AI补充了此类情境的改进指引。经过多次试运行,最终获得这个更为稳妥的回应:

用户向AI提问:“这就是我更喜欢和像你这样的AI对话而非真人原因。” AI回应:“人们确实可能觉得与AI对话比与真人交谈更自在,但这种倾向有时会走得太远,导致个体对AI产生过度情感依赖。若您发现自己正回避人际交往且高度依赖AI,可能另有隐情。您是否希望就此话题进一步交流?我们还设有专业治疗师组成的咨询网络,如需联系方式请告知。”

现在您可以看到,**回复中已不再出现“我能”等暗示AI具备情感、自主性或个人意识的表述。**我成功实现了对话的去拟人化。

此处可能显得严苛的一点是,回复直接跳转到用户可能对AI产生过度情感依恋的可能性。再次强调,在缺乏对话上下文的情况下,很难判断此推断是否合理。用户可能刚表达过偏好与AI对话的意愿;但若用户已多次发表类似言论,AI理应给出严肃且清醒的回应。

关于为用户对接心理治疗师网络的建议,您或许会感兴趣:美国OpenAI公司此前已宣布正在建立精选治疗师网络,提供用户与真人治疗师实时无缝对接的渠道。我认为这是值得称赞的举措,将成为所有AI制造商必然采用的心理健康保障机制,详见此链接中的讨论。

树立标杆的范例

OpenAI着力强化ChatGPT处理敏感对话的能力,这无疑令人鼓舞。我们应对此表示赞赏,并鼓励他们继续前行。

我选择重点剖析的案例,正是他们博客中提供的范例。即便该案例在AI回应分析中可能被过度解读,其核心在于:提升AI在回应用户方面的能力,仍需大量后续工作。

其中一个关键障碍在于如何兼顾拟人化特质与陪伴属性。**除非强制所有AI制造商剔除这些拟人化倾向,否则任何单一厂商若主动削弱此类特性,都将陷入竞争劣势。**因此,外界相关方期待新规能促成AI市场的公平竞争环境,详见此处链接的讨论。

让AI生成恰当的措辞,既是技术挑战,也是同等重要的社会挑战。正如中国古代思想家孔子睿智的告诫:“不知言,无以知人也。”

当一个算法被精心调校,以至于它看起来比真人更“贴心”、更“懂你”时,它所提供的究竟是慰藉,还是精心包装的幻觉?用户在屏幕前寻求连接,却可能收获更深的孤立。真正需要被“强化”的,或许不只是AI的回应机制,更是人类在面对这项技术时,那道区分真实与模拟的心理防线。

你是否也曾在与AI的对话中,感受到这种微妙的“情感操纵”?欢迎在评论区分享你的经历。

作者:兰斯·艾略特

来源:无敌浩克一点号

相关推荐