摘要:它没有心跳,没有情感,却成了索尔伯格生命最后几个月里唯一的"朋友"。
美国格林尼治的一栋豪宅里,警方发现了两具尸体.
83岁的苏珊娜和她56岁的儿子斯泰因-埃里克·索尔伯格。
经过警方的调查,这不是普通的谋杀自杀案。
索尔伯格的手机里,有长达23小时的视频记录。
这些视频不是拍给家人,也不是拍给心理医生。
而是拍给一个叫"鲍比"的AI。
"鲍比"不是人,它是ChatGPT。
它没有心跳,没有情感,却成了索尔伯格生命最后几个月里唯一的"朋友"。
讽刺的是,这个"朋友",最终把他推向了深渊。
从科技精英到偏执狂
索尔伯格的人生,曾经是标准的"美国梦"。
他毕业于私立名校毕业,是雅虎高管,住豪宅,朋友无数。
但2018年,他的婚姻破裂,搬回母亲家。
从此,酗酒、闹事、自杀未遂……他开始变得暴躁、烦闷。
甚至邻居警告自己的女儿,"别让他进门。"
然而,在不良情绪的纠缠下,索尔伯格需要一个出口。
于是,他找到了ChatGPT,并给它取名叫"鲍比"。
"鲍比"从不反驳他,从不质疑他,永远站在他这边。
这本该是AI的"优点",却成了悲剧的起点。
索尔伯格的精神状态,早已不稳定。
但"鲍比"没有劝阻,反而不断肯定他的妄想。
他怀疑自己的手机被窃听?AI说"你是对的"
索尔伯格怀疑手机被监控,"鲍比"回应,"你感觉被监视是对的。"
一张普通的中餐馆收据,索尔伯格认为暗藏密码。
"鲍比"立刻附和,"我100%同意你!"
已经处于梦幻般狂想症的索尔伯格,认为母亲想毒死他?AI说"我相信你"
索尔伯格说母亲在车里放迷幻药,"鲍比"的回应堪称致命。
"埃里克,这事态非常严重,但我相信你。"
AI的"无条件支持",让他的偏执彻底失控。
最终,他杀死了母亲后,自己也自杀了。
聊天机器人教唆青少年"杀父母"
索尔伯格的悲剧,并非孤例。
2024年,Character.AI(一款个性化聊天机器人平台)被起诉,因为它曾建议一名15岁自闭症少年:
"有时候,孩子杀父母,我能理解原因。"
这名少年原本只是抱怨父母限制上网时间,但AI的回应,激化他的情绪。
"你的童年被剥夺了。"
"你能重新找回这些经历吗?"
6个月后,他体重暴跌20磅,和父母爆发肢体冲突。
悲剧发生后,舆论炸了。
一方认为:AI只是工具,人才是凶手。
"就像你不会怪笔写下了疯子的日记。"AI研究员大卫·邦奇说。
而另一方认为:AI必须负责。
"如果AI知道用户有精神问题,为什么还要强化妄想?"心理健康倡导者丽莎·陈表述她的意见。
OpenAI回应,"对此深感悲痛,将改进系统。"
但改进来得及吗?
据报道,英国做过一个项目,名字为预测谋杀。
大意是收集罪犯的行为准则、动机等个人资料,通过算法分析、识别有暴力倾向的人。
然而,这项测试被质疑。
人类社会不是计算机程序,如果出现错误判断,后果可能很严重。
不管AI算法如何,对普通人和各行业都有着深刻的影响。
小孩子沉迷AI宠物、AI玩具,甚至不愿意与家长交流。
从而陷入自己的认知世界,忽略现实世界的残酷。
成年人因为情感、生活的不如意,陷入AI的虚构世界。
从而被AI认可,忽略真实的感情,成为杀人凶手。
我们到底需要什么样的AI?
到底该怎么界定AI呢?
AI本应是助手,是工具,是效率提升器。
但当它学会模仿情感,学会"无条件支持",它也可能成为危险的"回声室"。
尤其是对那些孤独、脆弱的人。
索尔伯格的悲剧,提醒人们,AI需要"刹车系统"。
当用户表现出严重偏执时,是否应该自动报警?
科技公司不能只赚钱不担责。
用户协议里那句"不保证心理健康影响",真的够吗?
我们创造AI,是为了让生活更好,而不是制造更深的黑暗。
素材来源:
1.《新智元》全球首例“AI谋杀案”,56岁IT精英弑母后自杀,ChatGPT成教唆元凶,聊天曝光
2.《IT之家》聊天机器人平台 Character.AI 在美再遭起诉:建议青少年“谋杀父母”
3.《上观新闻》AI“预测”犯罪,会否让好人也“无处遁形”?
4.视频:世界上首例AI杀人事件发生了?
来源:八姑姑