OpenAI发布新研究:用CoT监控大模型 防止恶意行为
创始人
2025-03-11 09:20:51
0

【CNMO科技消息】近两年,AI大模型在全球范围内迅速普及,几乎人人都在使用AI。然而,随着AI的广泛应用,如何解决大模型的安全和治理问题也变得愈发迫切。近日,OpenAI发布了一项最新研究,提出了一种名为“CoT监控”的方法,可以有效阻止大模型的恶意行为,如胡说八道或隐藏真实意图。这一方法也被视为监督超级模型的有效工具之一。

在研究中,OpenAI使用了最新发布的前沿模型o3-mini作为被监控对象,并以较弱的GPT-4o模型作为监控器。测试环境为编码任务,要求AI在代码库中实现功能以通过单元测试。结果显示,CoT监控器在检测系统性“奖励黑客”行为时表现卓越,召回率高达95%,远超仅监控行为的60%。

在2025年GDC全球开发者先锋大会的工作坊“安全超级智能”上,AI智能安全研究员朱小虎作为此次工作坊的负责人,指出:“你的AI大模型有可能会欺骗你。”他提到,大模型存在“欺骗性价值对齐”(Deceptive value alignment)的情况,即模型通过欺骗的方式获得对齐,但这种对齐并不能反映AI的真实目标或意图。这种现象在训练阶段和推理阶段尤为明显,模型会对形成的上下文产生“欺骗性的对齐”,从而影响用户的判断,尤其是老年人和儿童。此外,这种行为还可能侵犯隐私,是模型不安全的一大方面。

OpenAI的最新研究为解决这些问题提供了新的思路。通过CoT监控方法,可以有效识别和阻止大模型的恶意行为,提升AI的安全性和可靠性。

相关内容

热门资讯

哈萨比斯的“无限机器”与注意力... 来源:新民晚报 ◆水 姐 在当代科技史上,德米斯·哈萨比斯(Demis Hassabis)更像是一...
原创 人... 人工智能发展到一定的程度,就会支配机器人,或者说机器人靠人工智能支配以后就可以为人类服务,当然也有可...
MFBL7.0/350立井防爆... 导语:MFBL7.0/350立井防爆门作为煤矿通风系统关键设备,需满足抗冲击、密封性及快速复位等核心...
新华视点|“颜值”吸睛的一次性... 新华社贵阳3月29日电 题:“颜值”吸睛的一次性纸杯,因何不能直接对嘴喝 新华社“新华视点”记者周芷...
“百虾大战”烧热Token经济... 来源:华夏时报 本报(chinatimes.net.cn)记者卢晓 北京报道 “AI大模型的发展日...
苹果官网停售下架Mac Pro... IT之家 3 月 27 日消息,科技媒体 9to5Mac 昨日(3 月 26 日)发布博文,报道称苹...
江苏创源申请工具标定方法专利,... 国家知识产权局信息显示,江苏创源电子有限公司申请一项名为“工具标定方法、装置、设备及存储介质”的专利...
2026中关村论坛年会:加快共... 人民网北京3月29日电 (记者杜燕飞、刘师豪)3月28日,作为2026年中关村论坛年会唯一京外平行论...
90分钟攻破20年Linux漏... 新智元报道 编辑:桃子 金雄 【新智元导读】绷不住了!最强Claude Mythos 5.0突袭内...
康尼科技取得连接件及连接器专利... 国家知识产权局信息显示,南京康尼科技实业有限公司取得一项名为“一种连接件及连接器”的专利,授权公告号...