OpenAI发布新研究:用CoT监控大模型 防止恶意行为
创始人
2025-03-11 09:20:51
0

【CNMO科技消息】近两年,AI大模型在全球范围内迅速普及,几乎人人都在使用AI。然而,随着AI的广泛应用,如何解决大模型的安全和治理问题也变得愈发迫切。近日,OpenAI发布了一项最新研究,提出了一种名为“CoT监控”的方法,可以有效阻止大模型的恶意行为,如胡说八道或隐藏真实意图。这一方法也被视为监督超级模型的有效工具之一。

在研究中,OpenAI使用了最新发布的前沿模型o3-mini作为被监控对象,并以较弱的GPT-4o模型作为监控器。测试环境为编码任务,要求AI在代码库中实现功能以通过单元测试。结果显示,CoT监控器在检测系统性“奖励黑客”行为时表现卓越,召回率高达95%,远超仅监控行为的60%。

在2025年GDC全球开发者先锋大会的工作坊“安全超级智能”上,AI智能安全研究员朱小虎作为此次工作坊的负责人,指出:“你的AI大模型有可能会欺骗你。”他提到,大模型存在“欺骗性价值对齐”(Deceptive value alignment)的情况,即模型通过欺骗的方式获得对齐,但这种对齐并不能反映AI的真实目标或意图。这种现象在训练阶段和推理阶段尤为明显,模型会对形成的上下文产生“欺骗性的对齐”,从而影响用户的判断,尤其是老年人和儿童。此外,这种行为还可能侵犯隐私,是模型不安全的一大方面。

OpenAI的最新研究为解决这些问题提供了新的思路。通过CoT监控方法,可以有效识别和阻止大模型的恶意行为,提升AI的安全性和可靠性。

相关内容

热门资讯

柳州市侨联致海外侨胞和归侨侨眷... 亲爱的海外侨胞、归侨侨眷朋友们: 紫荆花开报春来,柳江奔腾迎马年。值此2026年新春佳节来临之际,柳...
青岛市南:智聚成势 着力打造“... 鲁网2月15日讯 在人工智能加速重构产业组织形态的背景下,“一人即公司”(OPC)正成为全球创新创业...
刚刚,DeepSeek官宣更新... 来源:市场资讯 (来源:新智元) 新智元报道 编辑:桃子 【新智元导读】确认了!DeepSeek昨...
从“刷手机”到“刷车窗”,智能... 新华社郑州2月14日电(记者杨静)“妈妈,这个玻璃好高级啊,还可以看视频,像一个小电视!”郑开城际铁...
原创 第... 有人担心幼师被人工智能替代,有人焦虑快递员会被无人配送车淘汰,但事实上,最先大规模缩减的是另外三类看...
2025年6G与工业应用相互协... 今天分享的是:2025年6G与工业应用相互协同的场景和需求研究-IMT-2030(6G)推进组 报告...
荣芯半导体申请半导体器件及其制... 国家知识产权局信息显示,荣芯半导体(淮安)有限公司申请一项名为“半导体器件及其制作方法”的专利,公开...
《新华每日电讯》关注合肥:凌晨... 《新华每日电讯》 2026年2月12日5版 新春走基层·走笔|凌晨上岗!跟着具身智能探“未来” 记者...
青春绽放在祖国需要的地方——“... 青春不负韶华。中央宣传部、人力资源社会保障部近日向全社会公开发布“最美高校毕业生”,9名同志光荣入选...
库犸科技申请电流检测电路和机器... 国家知识产权局信息显示,深圳库犸科技有限公司申请一项名为“电流检测电路和机器人”的专利,公开号CN1...