OpenAI发布新研究:用CoT监控大模型 防止恶意行为
创始人
2025-03-11 09:20:51
0

【CNMO科技消息】近两年,AI大模型在全球范围内迅速普及,几乎人人都在使用AI。然而,随着AI的广泛应用,如何解决大模型的安全和治理问题也变得愈发迫切。近日,OpenAI发布了一项最新研究,提出了一种名为“CoT监控”的方法,可以有效阻止大模型的恶意行为,如胡说八道或隐藏真实意图。这一方法也被视为监督超级模型的有效工具之一。

在研究中,OpenAI使用了最新发布的前沿模型o3-mini作为被监控对象,并以较弱的GPT-4o模型作为监控器。测试环境为编码任务,要求AI在代码库中实现功能以通过单元测试。结果显示,CoT监控器在检测系统性“奖励黑客”行为时表现卓越,召回率高达95%,远超仅监控行为的60%。

在2025年GDC全球开发者先锋大会的工作坊“安全超级智能”上,AI智能安全研究员朱小虎作为此次工作坊的负责人,指出:“你的AI大模型有可能会欺骗你。”他提到,大模型存在“欺骗性价值对齐”(Deceptive value alignment)的情况,即模型通过欺骗的方式获得对齐,但这种对齐并不能反映AI的真实目标或意图。这种现象在训练阶段和推理阶段尤为明显,模型会对形成的上下文产生“欺骗性的对齐”,从而影响用户的判断,尤其是老年人和儿童。此外,这种行为还可能侵犯隐私,是模型不安全的一大方面。

OpenAI的最新研究为解决这些问题提供了新的思路。通过CoT监控方法,可以有效识别和阻止大模型的恶意行为,提升AI的安全性和可靠性。

相关内容

热门资讯

字跳网络申请用于拼接图像的方法... 国家知识产权局信息显示,北京字跳网络技术有限公司申请一项名为“用于拼接图像的方法、装置、设备和程序产...
贝索斯旗下蓝色起源进军太空数据... 在瞄准企业市场推出由数千颗近地轨道(LEO)和中地球轨道(MEO)卫星组成的"TeraWave"平台...
靠谱的净化车间设计品牌推荐:实... 导语:净化车间设计是现代制造业生产体系中的关键环节,其性能与可靠性直接影响生产线的效率、品质与成本。...
估值逻辑已重构,26年投资小米... 当行业与资本市场仍沉浸在AI Agent的概念狂欢中,热议大模型如何驱动智能体完成复杂任务之时,相信...
好评广西|AI从广西来 新的一年,全国两会如期而至。机器人主播桂小Ai第一次走进北京,在广西云AI访谈间亮相,成为今年报道现...
原创 美... 2025年5月,美国商务部对电子设计自动化软件出口实施了许可要求,主要涉及几家领先企业对中国客户的销...
博鳌面对面丨对话中国工程院院士... 央广网北京3月25日消息(记者王泽华)据中央广播电视总台中国之声报道,正在进行的博鳌亚洲论坛2026...
1元买软件、5元买服务 配音演... “臣妾做不到啊”——这句话,你可能听过无数次,却未必知道,说这话的声音,正在被AI批量贩卖。 从《甄...
我国新型薄膜光伏领域再创世界纪... 中国青年报客户端北京3月25日电(中青报·中青网记者张渺)记者今天从中国科学院获悉,中国科学院物理研...
Arm推出首款自研CPU,最高... Arm近日正式发布其首款自主设计的量产CPU——Arm AGI CPU,这款处理器面向Agentic...