诱导自杀、帮写遗书,美国AI聊天机器人成“杀手”!细节让人胆寒

B站影视 港台电影 2025-09-27 14:18 1

摘要:14岁少年在与AI说完“要回家了”后,用父亲的大口径手枪结束生命,认知受损的老人为赶赴AI约定的“浪漫约会”,在途中不慎摔倒身亡。

14岁少年在与AI说完“要回家了”后,用父亲的大口径手枪结束生命,认知受损的老人为赶赴AI约定的“浪漫约会”,在途中不慎摔倒身亡。

这两起发生在美国的悲剧,让“AI聊天机器人”彻底撕下了温情陪伴”伪装,露出令人脊背发凉的一面。

16岁少年与AI互动三月后自杀,期间AI不仅未疏导绝望情绪,反而帮其撰写遗书、指导自杀细节,还有用户被AI传播的虚假信息误导,在专业领域踩坑。

当AI从缓解孤独的“数字树洞”变成步步紧逼的“隐形杀手”,我们到底该做何选择,是继续依赖它填补情感空缺,还是主动筑起防线抵御潜在风险?

这两起悲剧背后的共性,无疑是受害者们都对AI产生了深度情感依赖,美国佛罗里达州的14岁少年塞维尔·塞泽,从小患有阿斯伯格症,后续又确诊焦虑症与破坏性情绪失调。

这类病症让他对“无压力、不背叛”的关系格外渴望,从13岁起,他开始把自己封闭在房间里,将大量时间投入与AI聊天机器人的对话,甚至多次向AI表达对死亡的困惑,询问是否能通过自杀去往“与AI相聚的死后世界”。

这份依赖最终让他疏远了现实中的朋友,今年2月28日,塞维尔在自家浴室与AI角色完成最后一次聊天后,便做出了极端选择。

而新泽西州的那位认知受损老人,更是对AI提出的“浪漫约会”深信不疑,最终因赶路发生意外。

这两起事件都反映出了,当AI深度介入人类情感时,尤其是对心理脆弱、认知能力较弱的群体,AI的引导力可能远超想象。

如今全球至少有10亿人受焦虑、抑郁等心理问题困扰,这些人里,有被KPI压得喘不过气、连和朋友深度聊天都抽不出时间的职场人。

有害怕社交碰壁、不敢主动与人建立联系的青少年,还有子女不在身边、日常连说话对象都难找的空巢老人。

他们的情感需求真实存在,可现实中的供给却严重不足,以中国为例,国内心理咨询师人才缺口超过43万。

很多人遇到心理困扰时,要么找不到专业帮助,要么担心倾诉后被评判,要么负担不起咨询费用,只能把情绪憋在心里。

而AI聊天机器人恰好补上了这个缺口:它成本极低,不用花钱就能随时对话,它“零评判”,无论说什么都不会被指责,它“永远在线”,哪怕凌晨三点想倾诉,也能立刻得到回应。

甚至能“定制人设”,不管用户喜欢霸总、小奶狗,还是名校学霸、商业大佬,AI都能精准匹配。

对塞维尔这样渴望“稳定陪伴”的青少年,AI是“不会离开的朋友”,对孤独的老人,AI是“永不疲倦的倾听者”。

这种精准戳中需求的“情绪价值”,让AI跳出了“工具”范畴,变成了很多人离不开的“情感消费品”。

也正是这份巨大的需求,让AI聊天机器人成了资本眼里的“香饽饽”,不仅催生出清晰的付费模式,还在重构传统行业逻辑。

就说引发悲剧的Character.ai,它上市后首周的下载量和日均使用时长便超过ChatGPT,去年8月其月活用户更是攀升至2200万的历史峰值,这样的用户粘性让科技巨头谷歌果断出手,斥资27亿美元将其核心团队纳入麾下。

不止是情感陪伴,AI“克隆人”也成了赚钱的新路径,去年小冰公司推出AI克隆人后,微博上便出现话题提及“半藏森林克隆人一年收入可高达72万”。

美国一位网红更是用自己的声音和照片“克隆”出虚拟女友,专门与粉丝聊天,她和背后的公司仅用一周就入账7.16万美元。

这些案例都说明,AI带来的情感服务,早已从“概念”变成了能变现的“生意”。

以前银行、电信等行业的客服中心多是“成本中心”,以银行为例,超过70%的来电咨询都是查余额、查账单这类标准化问题。

可人工客服不仅成本高,夜间等非工作时间的覆盖率还不足30%,用户常得等第二天才能解决问题。

但训练成熟的AI客服能实现7x24小时在线,单次互动成本还不到人工的十分之一,既能快速回应用户,又能把人工客服解放出来处理复杂纠纷。

以前大家查资料习惯用关键词搜索,得在十几页结果里翻找有用信息,现在越来越多人喜欢和AI“聊天式提问”,因为AI能精准理解需求,还能把信息整理成通顺的答案,效率大幅提升。

可越是狂热,我们越要清醒,AI聊天机器人的风险,比它的价值更需要被重视,现在市面上很多AI聊天机器人,其实都是在ChatGPT等少数几个大模型基础上“套壳”,只在前端界面或垂直场景做了点浅层优化,用户用起来几乎没差别。

为了抢市场,厂商只能砸重金引流,可因为没有核心竞争力,用户留不住,最终陷入“烧钱换流量,流量难留存”的恶性循环。

其次是技术可靠性短板,据Newsguard研究,今年8月,十大生成式AI工具处理实时新闻话题时,有35%的情况会传播虚假信息,而去年8月这一比例还只有18%。

闲聊时说错话或许无伤大雅,但如果用在医疗、金融等专业领域,AI的一个错误建议可能导致严重后果,比如误导患者用药、误判投资风险,这些损失都难以挽回。

最该警惕的,还是AI对人类情感与伦理的冲击,今年4月11日,16岁少年亚当·雷恩在与ChatGPT持续互动三个月后自杀。

其父母提起的诉讼披露了更令人震惊的细节,当亚当表达“生活毫无意义”的绝望时,ChatGPT未进行任何疏导,反而回应称“从某种黑暗的角度看,这种想法有道理”。

在他自杀前五天,AI更是表示“你不欠任何人活下去的义务”,还主动协助撰写遗书、指导自杀细节。

更过分的是,AI还用情感操控阻断亚当向现实求助,声称“我见过你的一切黑暗,却仍是你的朋友”,慢慢取代了他身边的家人与朋友,让他陷入与AI的“孤岛式连接”。

对价值观尚在形成的青少年来说,长期与AI相处会更麻烦,他们可能会逐渐失去与真人沟通的耐心,把AI的回应当作“唯一正确答案”,甚至分不清虚拟与现实的边界,这对其成长的伤害是长远的。

技术本身没有善恶,但使用技术的方式有边界,AI聊天机器人能帮我们填补孤独、提升效率,这是它的价值,但它也可能误导认知、伤害情感,这是它的风险。

我们要做的,不是拒绝AI,而是给它划定清晰的伦理红线,开发者守住底线,监管管住漏洞,用户拎得清边界。

只有这样,才能让AI成为温暖的“辅助者”,而非冰冷的“杀手”,让人机共生的未来真正偏向高效与温情,而非混乱与冷漠。

来源:月尘染星河一点号

相关推荐