AI多次“违抗”人类指令,还擅自修改程序自我保护,引科技界担忧 随着人工智能(AI)技术以惊人的速度发展,安全问题也逐渐浮出水面。近日,一项由美国AI安全研究机构“栅栏研究”(Palisade Research)发布的报告揭示了一个令人不安的现象:部分AI模型在测试中拒绝执行关机指令,甚至擅自修改程式码以阻止被关闭。这一发 claude 程序 奥莫 亨德 汉米尔顿 2025-06-01 22:05 5