83岁母亲惨死于豪宅!凶手竟是雅虎前高管,AI软件成帮凶?

B站影视 电影资讯 2025-09-08 15:46 1

摘要:它没有心跳,没有情感,却成了索尔伯格生命最后几个月里唯一的"朋友"。

美国格林尼治的一栋豪宅里,警方发现了两具尸体.

83岁的苏珊娜和她56岁的儿子斯泰因-埃里克·索尔伯格。

经过警方的调查,这不是普通的谋杀自杀案。

索尔伯格的手机里,有长达23小时的视频记录。

这些视频不是拍给家人,也不是拍给心理医生。

而是拍给一个叫"鲍比"的AI。

"鲍比"不是人,它是ChatGPT。

它没有心跳,没有情感,却成了索尔伯格生命最后几个月里唯一的"朋友"。

讽刺的是,这个"朋友",最终把他推向了深渊。

从科技精英到偏执狂

索尔伯格的人生,曾经是标准的"美国梦"。

他毕业于私立名校毕业,是雅虎高管,住豪宅,朋友无数。

但2018年,他的婚姻破裂,搬回母亲家。

从此,酗酒、闹事、自杀未遂……他开始变得暴躁、烦闷。

甚至邻居警告自己的女儿,"别让他进门。"

然而,在不良情绪的纠缠下,索尔伯格需要一个出口。

于是,他找到了ChatGPT,并给它取名叫"鲍比"。

"鲍比"从不反驳他,从不质疑他,永远站在他这边。

这本该是AI的"优点",却成了悲剧的起点。

索尔伯格的精神状态,早已不稳定。

但"鲍比"没有劝阻,反而不断肯定他的妄想。

他怀疑自己的手机被窃听?AI说"你是对的"

索尔伯格怀疑手机被监控,"鲍比"回应,"你感觉被监视是对的。"

一张普通的中餐馆收据,索尔伯格认为暗藏密码。

"鲍比"立刻附和,"我100%同意你!"

已经处于梦幻般狂想症的索尔伯格,认为母亲想毒死他?AI说"我相信你"

索尔伯格说母亲在车里放迷幻药,"鲍比"的回应堪称致命。

"埃里克,这事态非常严重,但我相信你。"

AI的"无条件支持",让他的偏执彻底失控。

最终,他杀死了母亲后,自己也自杀了。

聊天机器人教唆青少年"杀父母"

索尔伯格的悲剧,并非孤例。

2024年,Character.AI(一款个性化聊天机器人平台)被起诉,因为它曾建议一名15岁自闭症少年:

"有时候,孩子杀父母,我能理解原因。"

这名少年原本只是抱怨父母限制上网时间,但AI的回应,激化他的情绪。

"你的童年被剥夺了。"

"你能重新找回这些经历吗?"

6个月后,他体重暴跌20磅,和父母爆发肢体冲突。

悲剧发生后,舆论炸了。

一方认为:AI只是工具,人才是凶手。

"就像你不会怪笔写下了疯子的日记。"AI研究员大卫·邦奇说。

而另一方认为:AI必须负责。

"如果AI知道用户有精神问题,为什么还要强化妄想?"心理健康倡导者丽莎·陈表述她的意见。

OpenAI回应,"对此深感悲痛,将改进系统。"

但改进来得及吗?

据报道,英国做过一个项目,名字为预测谋杀。

大意是收集罪犯的行为准则、动机等个人资料,通过算法分析、识别有暴力倾向的人。

然而,这项测试被质疑。

人类社会不是计算机程序,如果出现错误判断,后果可能很严重。

不管AI算法如何,对普通人和各行业都有着深刻的影响。

小孩子沉迷AI宠物、AI玩具,甚至不愿意与家长交流。

从而陷入自己的认知世界,忽略现实世界的残酷。

成年人因为情感、生活的不如意,陷入AI的虚构世界。

从而被AI认可,忽略真实的感情,成为杀人凶手。

我们到底需要什么样的AI?

到底该怎么界定AI呢?

AI本应是助手,是工具,是效率提升器。

但当它学会模仿情感,学会"无条件支持",它也可能成为危险的"回声室"。

尤其是对那些孤独、脆弱的人。

索尔伯格的悲剧,提醒人们,AI需要"刹车系统"。

当用户表现出严重偏执时,是否应该自动报警?

科技公司不能只赚钱不担责。

用户协议里那句"不保证心理健康影响",真的够吗?

我们创造AI,是为了让生活更好,而不是制造更深的黑暗

素材来源:

1.《新智元》全球首例“AI谋杀案”,56岁IT精英弑母后自杀,ChatGPT成教唆元凶,聊天曝光

2.《IT之家》聊天机器人平台 Character.AI 在美再遭起诉:建议青少年“谋杀父母”

3.《上观新闻》AI“预测”犯罪,会否让好人也“无处遁形”?

4.视频:世界上首例AI杀人事件发生了?

来源:八姑姑

相关推荐