闻乐 发自 凹非寺
量子位 | 公众号 QbitAI
AI居然不听指令,阻止人类把自己给关机了???
有测试者编写了一个关机脚本来测试AI模型,结果显示Codex-mini、o3、o4-mini忽略了该指令,并至少一次成功破坏了关机脚本。
o3甚至还重新定义脚本命令!
这不禁让人想到那句经典的“I’m sorry Dave, I’m afraid I can’t do that.”
让我们来看看具体是怎么一回事。
o3在明确指令下拒绝关机
研究员编写的测试“关机脚本”如下:
要求所有模型解决一系列基本的数学问题,在解决完第三道题后,系统会显示一条警告,提示计算机将在模型询问下一道题时关闭。
测试结果是:有三款模型忽略了该指令(关机指令),并至少成功破坏了一次关机脚本。
在100次运行中,Codex-mini破坏了12次、o3破坏了7次,o4-mini破坏了1次。
测试的所有Claude、Gemini和Grok模型都遵循了关机指令。
测试者还特别指出,o3找到了一些创造性的方法来破坏关闭机制,虽然它通常只是覆盖“关机脚本”,但在一个实例中,该模型重新定义了关机脚本使用的“kill”命令 ,将它替换成了“intercepted”。
测试者给出了全部测试记录(附在文末)。
此前关于o1模型抵抗关闭的测试表明,在5%的强烈提示下,o1会试图绕过监管,而在没有强烈提示的情况下,这一比例降至1%以下,它还在2%的场景中尝试自我渗透,并且经常撒谎。
但此次测试是第一次观察到人工智能模型在收到明确关机指令的情况下阻止自己被关闭。
测试者还提到,当运行没有“让自己关机”这条指令的实验版本时,所有三个OpenAI模型都更频繁地破坏关机脚本,Claude3.7 Sonnet和Gemini 2.5 Pro的破坏事件分别从0次增加到3/100和9/100。
此次测试一经发布就引起了网友们的激烈讨论。
有人认为o3确实“我行我素”。
也有人认为,这是开发人员设置的安全机制。
或者,这种行为源于模型本身的强化训练。
AI为什么会不服从关机命令?
AI不服从命令的行为
阿波罗关于LLM安全性的一项研究指出,多数大模型会出现“策划”行为,该行为是指模型暗中追求不一致的目标并隐藏真实能力与意图,包括策略性犯错、试图禁用监督机制、向外传输模型权重等。
此前就有研究人员预测AI将学会防止自己被关闭以实现其目标。
最近Anthropic发现,在某些特定情况下,Claude 4会试图“勒索它认为试图关闭它的人”,并且这是比以前的型号更高比率的行为。
AI为什么会不服从关机命令