OpenAI发布新研究:用CoT监控大模型 防止恶意行为
创始人
2025-03-11 09:20:51
0

【CNMO科技消息】近两年,AI大模型在全球范围内迅速普及,几乎人人都在使用AI。然而,随着AI的广泛应用,如何解决大模型的安全和治理问题也变得愈发迫切。近日,OpenAI发布了一项最新研究,提出了一种名为“CoT监控”的方法,可以有效阻止大模型的恶意行为,如胡说八道或隐藏真实意图。这一方法也被视为监督超级模型的有效工具之一。

在研究中,OpenAI使用了最新发布的前沿模型o3-mini作为被监控对象,并以较弱的GPT-4o模型作为监控器。测试环境为编码任务,要求AI在代码库中实现功能以通过单元测试。结果显示,CoT监控器在检测系统性“奖励黑客”行为时表现卓越,召回率高达95%,远超仅监控行为的60%。

在2025年GDC全球开发者先锋大会的工作坊“安全超级智能”上,AI智能安全研究员朱小虎作为此次工作坊的负责人,指出:“你的AI大模型有可能会欺骗你。”他提到,大模型存在“欺骗性价值对齐”(Deceptive value alignment)的情况,即模型通过欺骗的方式获得对齐,但这种对齐并不能反映AI的真实目标或意图。这种现象在训练阶段和推理阶段尤为明显,模型会对形成的上下文产生“欺骗性的对齐”,从而影响用户的判断,尤其是老年人和儿童。此外,这种行为还可能侵犯隐私,是模型不安全的一大方面。

OpenAI的最新研究为解决这些问题提供了新的思路。通过CoT监控方法,可以有效识别和阻止大模型的恶意行为,提升AI的安全性和可靠性。

相关内容

热门资讯

物理学陷入停滞——进步主义神话... 当今的物理学家需要抛弃那个极具吸引力的神话——他们正在揭示我们宇宙的隐藏现实。 浏览物理学科普书籍...
从“数字化”到“数智化”(观象... 从“数字化”到“数智化”,一字之变,体现出我国牢牢把握人工智能机遇,体系化推进人工智能产业创新和赋能...
10万次Claude真实对话洞... IT之家 11 月 26 日消息,Anthropic 昨日(11 月 25 日)发布研究报告,通过分...
AI技术应用越广泛,越要明确边... 发展科技的初心和落点都是服务于人,服务于国家和社会。让安全和便捷成为AI技术应用的一体两面,成为技术...
【多彩新论】警惕碎片化传播的负... 注意力不集中,看书听讲说话容易走神,刷手机却停不下来……数字时代的碎片化传播,已成为我们获取资讯的主...
原创 1... 神舟二十二飞船成功发射,代号“天宫应急1号”,并且也圆满完成了中国空间站任务对接,整个任务全面成功了...
工信部:启动为期两年的卫星物联... C114讯 11月26日消息(颜翊)昨日,工业和信息化部正式印发《关于组织开展卫星物联网业务商用试验...
华为Mate80全系降价背后 华为需要通过更亲民的定价,来从iPhone手上抢更多的市场份额。 文|游勇 编|石兆 作为华为旗下最...
亚洲第一!我国自主研制,海试成... ◎ 科技日报记者 都芃 25日,记者从中交天津航道局有限公司获悉,当天下午,新一代超大型耙吸挖泥船“...
一加总裁:第五代骁龙8由一加高... 【CNMO科技消息】11月26日,一加中国区总裁李杰在社交平台透露,已受邀出席当天下午举行的高通“第...