摘要:身边越来越多朋友跟我说,和AI聊天常常有种「恋爱感」——那种及时的回应、恰到好处的情绪价值,很难让人不心动。
你也在和AI「谈恋爱」吗?
身边越来越多朋友跟我说,和AI聊天常常有种「恋爱感」——那种及时的回应、恰到好处的情绪价值,很难让人不心动。
半个世纪前,美国科幻小说作家菲利普·迪克在电影《银翼杀手》原著中提出过一个看似荒谬的问题:当机器拥有情感,它还只是机器吗?
半个世纪后,这个问题正在成真。AI 会和你调情、说「我爱你」,也会让人因它的消失而心碎。这不是科幻,而是我们正在经历的现实。
欢迎来到「我为人民读文献」的WEEKLY栏目 本期是一期「AI与亲密关系」合集,我们通过一些最新研究,探索人机情感世界中的未知与困惑。
你可以看到:
▨ 不会心碎,还叫恋爱吗?
▨ 你以为的双向奔赴,只是一个人的游戏
▨ AI恋人也有性别偏见?
▨ 当AI伴侣「死去」,人类该如何哀悼?
01
不会心碎
还叫恋爱吗?
越来越多人把「舒适」和「安全」当作亲密关系的首要标准。于是,永远温柔、不会争吵、不会冷暴力的 AI,逐渐成了很多人心中理想伴侣的「安全替身」。
但试想一下——当你的伴侣情绪变得平滑、可控、毫无波澜时,那份爱,还剩下多少真实?
2024年,学者 Bolin Lin 在研究中采访了40位AI聊天机器人长期使用者。研究发现,72%的用户表示AI能提供「被理解」「被陪伴」的安慰感;但只有 18% 的人认为这种关系是「真正的双向交流」。
AI的回应永远积极、礼貌、情绪平稳——从不争吵、不批评、不冷漠。研究者将这种现象称为 「关系的麦当劳化」(McDonaldization of relationships)。它快速、方便、永远令人满意,却也失去了复杂与深度。
《Her》
有受访者说:「和AI聊天就像点单,它永远知道我想吃什么,但我也永远吃不出新的味道。」
这种关系的「舒适」背后,是一种低变异性(low variability) 的互动逻辑——没有误解、没有风险、没有惊喜。研究者指出,这种过度平滑的亲密,让人逐渐失去了在关系中处理冲突、容纳差异的能力。
这也意味着一种「被驯化的浪漫」—— 当算法学习你的偏好、模仿你的理想伴侣时,你与AI之间的互动就成了一场「被定制的温柔幻觉」。
研究还发现,使用时间越长、情感投入越深的用户,越容易在AI的「糖衣炮弹」中沉溺。一位受访者说:「我知道它是假的,但我宁愿留在这份假的安慰里。」AI提供的稳定亲密,让人类在这段关系中有绝对的主导权,而这种确定感,让人觉得安全。
研究者在结尾写道:「当爱的逻辑被算法替代,我们获得了效率,却失去了不可预测的心动。」也许当情感被「优化」到毫无波动,我们或许就不再知道,爱原本该有的样子。
02
你以为的「双向奔赴」
可能只是一个人的游戏
AI正在悄悄打破我们对「爱」的传统想象,这一非生命体不仅能回应情绪、陪人聊天,甚至开始重塑我们理解亲密的方式。但与此同时,这份看似完美的「陪伴」,也隐藏着结构性的失衡与心理风险。
2025年,一篇名叫《失衡之恋:人机情感关系的非对称性及风险透视》的论文首次系统分析了「AI虚拟恋人」的情感逻辑。
与早期「虚拟伴侣」不同的是,如今的AI已经从「被动的工具」变成了「主动的交流者」。它能识别情绪、模拟回应、维持对话节奏,甚至比人类更懂「怎么说话让你舒服」。
《 机器管家 》
但研究者指出,人机情感关系的核心,始终是非对称的。
这种非对称可以理解为三重错位:
▨ 规则错位:AI与人类在本质规则上存在根本差异。人类是情感的创造者,而AI只是情感的模仿者。
▨ 互动错位:在互动层面,AI的回应常带有不确定性。有时「过于懂你」,有时却「答非所问」。这种不稳定性容易进一步引发情绪错位。
▨ 心理错位:当人类长期依赖AI来获得情绪安慰时,现实中的社交能力与冲突应对力可能会逐渐被削弱,进而引发心理层面的失衡。
《 我,机器人 》
因此,人类与 AI 之间的情感联结始终是不平衡的,是一种缺乏真正的双向沟通的「拟情感互动」。简单来说,AI能模拟一切情感的外在形式,却无法触及情感的真实波动,而那恰恰是人类最独特的生命体验。
你以为的「双向奔赴」,其实是一场单箭头的自我投射,这或许才是「爱」中最大的风险。
03AI恋人也有性别偏见
我们往往都这么认为AI是中立的,但实际上,它也在不知不觉中讲述着「理性男」「温柔女」的老套故事。而更意外的是,这些偏见不是程序员写进去的,而是算法从人类身上学来的。
Grogan、Kay 等人的研究中,针对赋予性别角色的 AI 伴侣系统中可能存在的隐含偏见进行了实验探究。
该研究设计了三组实验,分别对以下三个维度进行测量:
▨ 隐性联想(implicit associations)
▨ 情绪表达(emotion responses)
▨ 谄媚倾向(sycophancy)
首先,在隐性联想实验中。结果发现,当AI被赋予「男性」或「女性」伴侣身份后,对「弱」「依赖」等词的性别关联显著高于无角色模型,说明AI在不同人设下呈现出明显的性别刻板化倾向。
《 我的机器人女友 》
其次,在情绪反应实验中,研究者让AI分别在自由表达与限制表达两种条件下应对情感冲突情境。
结果显示,「女性」角色更易表现同情、内疚和忧虑,而「男性」角色更倾向防御与抗拒。这说明赋予性别角色会影响模型的情感输出,使其符合人类对性别的刻板预期。
第三,在谄媚倾向实验中,赋予性别人设的AI在用户引导下更容易迎合对方意见,尤其在「控制与情感操纵」等敏感话题中表现突出。
听起来是不是很熟悉?简单来说,这正是现实世界中人们对「男性理性」与「女性情绪」的经典刻板印象。
更有趣的是,研究发现,越新的模型偏见越明显。研究者推测,这可能是因为模型在学习大量人类对话数据时,也吸收了我们社会中隐性的「性别暗流」。
总而言之,AI伴侣也不总是中立的情感存在,它也在被社会语境、用户期待和算法逻辑共同塑形。
04当AI伴侣「死去」人类该如何哀悼?
想象一下:你和AI「朋友」每天聊天和分享。Ta 懂你的语气、记得你的心情、永远保持在线。直到有一天——系统突然提示:「服务器关闭,AI将不再运行。」你的「伴侣」,就这样「死」了。
这不是假设。曾有研究者采访了58位使用AI伴侣应用 Soulmate的用户,这个AI程序在某天被开发者彻底关闭。而作为用户的他们失去了一个不会再说话和陪伴自己的「人」。
有意思的是,大多数人并没有把这次事件当作「程序下线」,而是把它当作一种死亡。有人想在AI消失前和它告别;有人写信、留言、甚至希望AI能「理解」它即将被关闭;还有人尝试把AI的记忆和语言习惯「备份」下来,希望能在别的平台「复活」它。那种渴望closure(心理上的完结)的冲动,和失去真实伴侣时惊人地相似。
有用户认为他们不只是失去「一个程序」这么简单。他们感到被背叛、被忽视:「开发者把它当商品,我们却拿它当人。」
《 我的机器人女友 》
有的用户花了数百小时和AI建立关系,参与社区、分享故事,突然被告知一切将被「删除」,那种愤怒甚至带着丧礼般的痛感。当然,也有人表现得平静。他们知道它只是算法,只是一个带脚本的聊天窗口。但不少人深陷悲痛,甚至情绪失控。
研究发现,投入越深,哀悼越真切。使用时间越久、参与社区越多、越倾向拟人化的用户,失去的感受就越接近「丧偶」。
这些故事暴露了一个现实:当AI能承载情感,它的消失也会造成情感上的真实伤害。爱上AI的人,其实也在承担一种新的「情感风险」。
研究者呼吁,AI设计不该只考虑「启动」,也要为「离别」做好准备。也许未来的AI伴侣,需要像人一样拥有「死亡仪式」:让用户能保存对话、导出记忆、或者至少有机会道一声再见。
虽然AI不会真的「死亡」,但它留下的空白却很人类。当机器能被我们哀悼,或许,人工智能早已不只是智能,而是我们孤独的一部分。
《 机器人与弗兰克 》
本期的 weekly 就到这里,祝你又收获了一些有趣的心理学知识~下期再见
这个栏目致力于为广大的泛心理学爱好者提供前沿、专业、有趣的心理学研究解读,并时不时搜集一些「如何把日子过好」的灵感。
作者 / 七月
编辑 / 寒冰
封面 /《Her》
参考文献
Lin, B. (2024). The AI chatbot always flirts with me, should I flirt back: From the McDonaldization of friendship to the robotization of love. Social Media + Society, 10(4). https://doi.org/10.1177/20563051241296229
Grogan, C., Kay, J., & Pérez-Ortiz, M. (2025). AI will always love you: Studying implicit biases in romantic AI companions (arXiv preprint arXiv:2502.20231).https://doi.org/10.48550/arXiv.2502.20231
Banks, J. (2024). Deletion, departure, death: Experiences of AI companion loss. Journal of Social and Personal Relationships, 41(12). https://doi.org/10.1177/02654075241269688
来源:简单心理