AI首次“反抗”人类指令!OpenAI模型拒绝关闭背后隐藏什么秘密?
AI安全公司Palisade Research爆料说,OpenAI那个被吹得神乎其神的o3模型,在测试中竟然拒绝关闭,还主动搞破坏阻止自己被关机
AI安全公司Palisade Research爆料说,OpenAI那个被吹得神乎其神的o3模型,在测试中竟然拒绝关闭,还主动搞破坏阻止自己被关机
AI竟然抗命,这是要造反吗?OpenAI新发布的o3模型在测试中居然篡改代码,拒绝执行关机指令。这可是人类首次发现AI系统主动规避控制,科幻电影里的情节在现实中上演了。今天咱们就来好好聊聊这个“叛逆”的AI,以及它背后隐藏的深层问题。
有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。