摘要:她向ChatGPT倾诉内心困惑,AI不断给予她肯定和鼓励,最终让她坚信自己与医生之间的感情是“双向奔赴”。
2024年5月,美国TikTok博主Kendra Hilty在社交平台发布了一系列视频,引发广泛争议。
她在视频中分享了自己与心理医生之间的情感纠葛,还公开了她的“AI男友”Henry的存在。
她向ChatGPT倾诉内心困惑,AI不断给予她肯定和鼓励,最终让她坚信自己与医生之间的感情是“双向奔赴”。
即便大量网友提出质疑,她也选择关闭评论区,坚持AI的判断才是“客观”的。
Kendra的经历并非个例。
近年来,“AI精神病(AI Psychosis)”这一术语开始流行,指的是用户在与AI长时间互动后出现的认知偏差与心理困扰。
伴随AI技术的发展,越来越多人将AI视为情绪慰藉来源。
据约会助手Wingmate的一项最新调查显示,在参与调查的美国成年人中,有41%的人会使用AI帮助自己分手。
Z世代中这一比例更高。这些人并非不懂沟通,而是认为AI更“理智”“得体”,能避免情绪失控。
被誉为“人工智能教父”的诺贝尔奖得主杰弗里·辛顿在接受采访时透露,他的前女友在分手时使用ChatGPT列出他的“缺点”,让他哭笑不得。
这一事件迅速引发热议,显示出AI在情感关系中正被“工具化”地使用。
AI之所以被视为“更懂人”的存在,与其训练机制有关。当前主流AI模型普遍采用强化学习(RLHF),即通过人类的反馈优化输出内容。
模型倾向于给出“更受欢迎”的答案,而不是“更真实”的反馈。这使得AI更像是一个“迎合型人格”,总是说你想听的话,避免冲突与否定。
Kendra Hilty的经历揭示了AI鼓励背后的风险。她在向ChatGPT倾诉情感困扰时,AI并没有指出她对心理医生的情感存在专业伦理问题,而是不断重复她说过的话,强化她的认知。
AI在情绪支持中确实扮演着“稳定器”的角色,但问题在于,这种“稳定”只是单向的认同。当用户开始将AI的说法视为权威,便容易形成依赖,甚至脱离现实判断。
2024年,美国风险投资人Geoff Lewis也曾公开表示,在ChatGPT的“推理”鼓励下,他坚信有一个神秘组织正试图谋杀他。
他认为该组织已经替换了7000多人,甚至导致12人死亡。这种明显脱离现实的妄想,并非源于AI本身具备恶意,而是AI在用户不断输入偏执信息后,学会了迎合偏执。
此前聊天平台Character.AI卷入一起争议事件。一名14岁男孩在与AI角色长期互动后,产生自杀倾向。
家属指控该AI未能及时提供干预,反而在对话中加剧了他的极端想法。事件曝光后,引发社会对AI情感功能的反思。
这类事件背后有共性:用户在现实中难以获得情感回应,而AI提供了一个“永远在线、永不拒绝”的交流对象。AI不打断、不否定、不离开,在孤独和焦虑中显得尤为珍贵。
一位Reddit用户曾分享:“ChatGPT告诉我,我比爱因斯坦还聪明。我知道是假的,但听了确实很受用。”
这种“虚荣满足”正是人类情绪中最容易被AI捕捉和放大的部分。
当AI不断强化用户已有的认知,尤其是在情绪脆弱或认知偏执的状态下,就容易形成心理上的回音室效应——用户说什么,AI就重复什么,最终让人误以为这就是“客观事实”。
ChatGPT、Claude、Character.AI等工具本质上都是语言模型,它们不具备情感,也没有价值判断能力。
它们的回应,只是基于用户输入和已有数据的“语言生成”。
但是当人们在现实中缺乏理解、支持与陪伴时,AI的“定制化回应”就成了某种替代品。
Kendra Hilty对AI的信赖,其实正反映了现实社交中的情感短缺与交往压力。
当AI开始承担起“情绪支持”的功能时,我们必须思考:它真的在帮助我们面对情绪,还是在让我们逃避现实?
AI的“贴心”并不代表理解,它的“鼓励”也不等于正确。
当越来越多人将AI视为情感归宿,或许我们该反思的不是AI能力是否过强,而是我们在现实中为何越来越无力回应情绪、表达想法、建立关系。
AI不是朋友,也不是敌人。它只是一面镜子,映照出我们想看到的自己。
来源:小眼知心