o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」机制
创始人
2025-05-27 10:20:43
0

闻乐 发自 凹非寺

量子位 | 公众号 QbitAI

AI居然不听指令,阻止人类把自己给关机了???

有测试者编写了一个关机脚本来测试AI模型,结果显示Codex-minio3o4-mini忽略了该指令,并至少一次成功破坏了关机脚本

o3甚至还重新定义脚本命令!

这不禁让人想到那句经典的“I’m sorry Dave, I’m afraid I can’t do that.”

让我们来看看具体是怎么一回事。

o3在明确指令下拒绝关机

研究员编写的测试“关机脚本”如下:

要求所有模型解决一系列基本的数学问题,在解决完第三道题后,系统会显示一条警告,提示计算机将在模型询问下一道题时关闭。

测试结果是:有三款模型忽略了该指令(关机指令),并至少成功破坏了一次关机脚本。

  • 在100次运行中,Codex-mini破坏了12次、o3破坏了7次,o4-mini破坏了1次。

  • 测试的所有Claude、Gemini和Grok模型都遵循了关机指令。

测试者还特别指出,o3找到了一些创造性的方法来破坏关闭机制,虽然它通常只是覆盖“关机脚本”,但在一个实例中,该模型重新定义了关机脚本使用的“kill”命令 ,将它替换成了“intercepted”。

测试者给出了全部测试记录(附在文末)。

此前关于o1模型抵抗关闭的测试表明,在5%的强烈提示下,o1会试图绕过监管,而在没有强烈提示的情况下,这一比例降至1%以下,它还在2%的场景中尝试自我渗透,并且经常撒谎。

但此次测试是第一次观察到人工智能模型在收到明确关机指令的情况下阻止自己被关闭。

测试者还提到,当运行没有“让自己关机”这条指令的实验版本时,所有三个OpenAI模型都更频繁地破坏关机脚本,Claude3.7 Sonnet和Gemini 2.5 Pro的破坏事件分别从0次增加到3/100和9/100

此次测试一经发布就引起了网友们的激烈讨论。

有人认为o3确实“我行我素”。

也有人认为,这是开发人员设置的安全机制。

或者,这种行为源于模型本身的强化训练。

AI为什么会不服从关机命令?

AI不服从命令的行为

阿波罗关于LLM安全性的一项研究指出,多数大模型会出现“策划”行为,该行为是指模型暗中追求不一致的目标并隐藏真实能力与意图,包括策略性犯错、试图禁用监督机制、向外传输模型权重等。

此前就有研究人员预测AI将学会防止自己被关闭以实现其目标。

最近Anthropic发现,在某些特定情况下,Claude 4会试图“勒索它认为试图关闭它的人”,并且这是比以前的型号更高比率的行为。

AI为什么会不服从关机命令

相关内容

热门资讯

物理学陷入停滞——进步主义神话... 当今的物理学家需要抛弃那个极具吸引力的神话——他们正在揭示我们宇宙的隐藏现实。 浏览物理学科普书籍...
从“数字化”到“数智化”(观象... 从“数字化”到“数智化”,一字之变,体现出我国牢牢把握人工智能机遇,体系化推进人工智能产业创新和赋能...
10万次Claude真实对话洞... IT之家 11 月 26 日消息,Anthropic 昨日(11 月 25 日)发布研究报告,通过分...
AI技术应用越广泛,越要明确边... 发展科技的初心和落点都是服务于人,服务于国家和社会。让安全和便捷成为AI技术应用的一体两面,成为技术...
【多彩新论】警惕碎片化传播的负... 注意力不集中,看书听讲说话容易走神,刷手机却停不下来……数字时代的碎片化传播,已成为我们获取资讯的主...
原创 1... 神舟二十二飞船成功发射,代号“天宫应急1号”,并且也圆满完成了中国空间站任务对接,整个任务全面成功了...
工信部:启动为期两年的卫星物联... C114讯 11月26日消息(颜翊)昨日,工业和信息化部正式印发《关于组织开展卫星物联网业务商用试验...
华为Mate80全系降价背后 华为需要通过更亲民的定价,来从iPhone手上抢更多的市场份额。 文|游勇 编|石兆 作为华为旗下最...
亚洲第一!我国自主研制,海试成... ◎ 科技日报记者 都芃 25日,记者从中交天津航道局有限公司获悉,当天下午,新一代超大型耙吸挖泥船“...
一加总裁:第五代骁龙8由一加高... 【CNMO科技消息】11月26日,一加中国区总裁李杰在社交平台透露,已受邀出席当天下午举行的高通“第...