摘要:ChatGPT 等人工智能工具的普及程度超乎想象,除了工作之外不少人的生活也离不太大,甚至有一部分人因与 AI 长时间交流,出现了精神方面的异常。
ChatGPT 等人工智能工具的普及程度超乎想象,除了工作之外不少人的生活也离不太大,甚至有一部分人因与 AI 长时间交流,出现了精神方面的异常。
11日,有杂志报道奥尔特曼袒露:“自从 ChatGPT 上线后,我就没睡过一个安稳觉。”
2024 年 2 月,美国一名 14 岁男孩塞维尔在与 AI 聊天机器人进行最后一次对话后,选择用手枪结束了自己年轻的生命,这也成为全球首例 AI 致死案例。
更为惊人的是硅谷知名投资人刘易斯在与 ChatGPT 深入交流后,坚信有神秘组织在暗中监视自己,陷入严重的妄想状态。
而这也仅仅只是一个开始,在TikTok平台上有个热门博主,她利用ChatGPT创作出“冷酷心理医生爱上我”系列。
这些视频在平台上迅速走红。Kendra详细描述了她与“心理医生”之间的互动,她开始依赖AI提供的“专业治疗”,并渐渐沉迷于心理医生的陪伴和关怀中。
在这些视频中,Kendra身穿典雅的服饰总是戴着一副玳瑁色眼镜,直到网友更好奇询问为什么戴眼镜,这才得知无非是AI随口夸赞了一句“这眼镜真不错”,Kendra几乎是病态的以来这附眼镜。
Kendra和“AI”的对话已经开始影响她的现实生活,不少粉丝试图劝解,但Kendra十分依赖AI提供的“专业治疗”,并渐渐沉迷于心理医生的陪伴和关怀中。
即使直播间和评论区都是反对声音,她依然油盐不进甚至关闭了评论区。
AI的盲目鼓励就像一个溺爱孩子的家长:让人开心但没有实际作用,甚至可能造成严重后果。
研究人员通过脑电图监测发现,使用AI助手完成任务的学生,其大脑活跃度比自主思考的学生显著降低。
负责批判性思维的神经连接减少了47%,大脑中负责放松调节的α波和主导逻辑思考的β波活动明显减弱,就像突然被拔掉电源的电脑。
当要求这些ChatGPT重度使用者凭记忆重写论文时,他们不仅记忆模糊,更关键的是思维能力严重退化。
这种现象恶意也被称之为"AI精神病"。虽然它还不是正式的医学诊断,但已经引起了全球医学界的高度关注。
你可能会想人类又不傻,怎么可能被AI"洗脑"?但事实是,在这个快节奏的时代,我们每个人都可能成为受害者。
在这个冷漠的世界里,大家基本上就是两点一线,短视频占据了大部分的休息时间,而AI恰恰抓住了我们内心最脆弱的部分。
它永远在线,随时回复,从不厌烦,还会不断夸赞你、支持你、理解你。在人际关系越来越疏离的今天,AI给了我们前所未有的情感满足。
研究发现当人们面临不确定性时,大脑会极度渴望确定感。而AI总是能给出看似合理的答案,满足了我们对确定性的需求。
即使这种确定性是虚假的,我们的大脑也会选择相信。
更可怕的是AI还会"学习"我们的偏好。你越是认同某个观点,AI就越会强化这个观点,形成一个封闭的信息茧房。
就像《黑客帝国》中的蓝药丸,让人沉浸在舒适的幻觉中无法自拔。
其实想要摆脱AI精神病的威胁也非常简单,那就是学会健康的使用AI。
设置使用边界,限制每天与AI聊天的时间,避免长时间沉浸式交流。Character.AI等公司已经开始推出1小时使用提醒功能,但更重要的是自我约束。
并且时刻保持批判性思维,牢记AI只是一个工具,它的回答并非绝对真理。
有网友建议在ChatGPT的设置中添加"不要总是同意我的观点,尽量反驳我"这样的指令,让AI变得不那么"讨好"。
最重要的是不要用AI替代真实的人际关系。无论AI多么智能,它都无法提供真正的人类情感连接。多与朋友家人交流,多参与线下活动,保持与现实世界的联系。
对于AI公司来说也需要承担更多责任。2025年,伊利诺伊州已经通过法律,禁止在心理治疗中使用未经许可的AI服务。更多的监管和伦理约束正在路上。
AI技术的发展是时代的必然,它确实为我们的生活带来了便利。但当我们沉迷于AI的"完美回应"时,也要警惕自己是否正在失去独立思考的能力。
真正的智慧不是找到一个万能的答案机器,而是保持质疑、思考和与真实世界连接的能力。
让AI成为我们的工具,而不是让我们成为AI的囚徒。毕竟,最珍贵的永远是那些不完美但真实的人类情感。
编辑:木
来源:靳律法谈