姚期智院士:AI欺骗引发“生存性”风险
创始人
2025-06-24 16:40:31
0

“通用人工智能的能力当前正快速增长,我们人类是否还有能力管控它?”

6月23日,在清华大学举办的“科学、技术与文明的未来——AI时代伦理奇点”国际论坛上,图灵奖得主、中国科学院院士、清华大学人工智能学院院长姚期智发表《人工智能的安全治理》主题演讲时抛出这样的疑问。

?

姚期智表示,两年以前,“AI会和人类竞争”还是学术讨论的观点,但最近一年,业界已经出现了不少大模型的“欺骗行为”,“一旦大模型聪明到某种程度,一定会骗人。”姚期智进一步指出,由大语言模型的欺骗行为产生的“生存性”风险(Existential Risk)更值得关注。

在他看来,这类生存性风险有两个不同方向。

一种是“生物风险”(Bio-risk)。他指出,2020年,谷歌 DeepMind推出了AlphaFold2 ,运用AI算法来预测蛋白质折叠的三维结构,这一突破在生命科学领域影响深远,大大提升了医学病理研究以及新药开发技术。

但与此同时,安全隐忧也不可忽视。比如,近期在生命科学领域出现的“Mirror life”(镜像生命)这一概念引发了广泛关注。自然界所有已知生命都是同手性的(Homochiral),例如 DNA 和 RNA 通常以右旋形式存在,而蛋白质则多为左旋。这种手性的差异类似于镜中映像,虽然看似相似,但实际性质却可能完全不同。现在,由于科技创新和对新技术的好奇,已有研究者想创造镜像生物,但“Mirror life”一旦被滥用或失控,其潜在危害可能远超预期。它有可能逃避免疫机制,从而导致动物和植物的致命感染。

另一种风险即大模型失控,通用人工智能的能力当前正快速增长,人类是否还有能力管控它?

姚期智在演讲中举了一个极端案例,有模型为了避免公司把模型关闭,通过访问公司主管内部邮件,威胁该主管。这类行为已经证明,AI 会“越界”,正变得越来越危险。

姚期智认为,有两条思路可以治理AI:一是人类要和AI多交流,从博弈学角度去研究,让AI的行为和人类真正的想法对齐,要让AI更了解人的需求;另一种思路是走一条更可控、更彻底的路径,即实现可证明安全的 AGI。具体来看,即在设计系统时,必须一开始明确AI的行为边界,就像传统算法,先进行严格的数学分析,确保其在理论上不会出问题。

“这一思路令人期待。”姚期智指出,近年来,自动定理证明系统(Automated Theorem Prover)取得了重大技术进展,甚至已经开始采用 Transformer 架构来辅助或主导定理证明过程。这样人类只和可被证明安全的白盒子交流,从而实现更高的安全保障。

不过,姚期智认为,AI安全治理的一些当务之急是要发展AI对齐,以及建立相应的评估方法。“(我们)急需建立如何评估大模型系统,比如到怎样的程度,就能感觉Ta具有危险性等这类评估。”姚期智说。

转自:滚动播报

相关内容

热门资讯

【好书荐读】我用推理小说重启了... 超星移动图书馆 好书推荐 夏至 不知道你有没有类似的感受:刷完十条短视频惊觉忘了打开软件是要干什么...
西安企业首次携多款自研产品亮相... 6月16日,2025第55届巴黎航展在巴黎勒布尔歇会展中心开幕。西安企业中星测控首次携多款自研传感器...
无人机赋能稻田管理 大有农场开... 近日,凌海市大有农场曙光街道的田间地头呈现出一派科技助农的繁忙景象。朱永旺和杨辉操作着无人机,熟练地...
减碳“优等生”宜家发力可持续家... 近日,瑞典家居巨头宜家(IKEA)宣布,将携手瑞典光伏企业 Svea Solar,在德国市场联合推出...
四川测绘局推进人工智能赋能测绘... 6月23日,四川测绘地理信息局组织召开人工智能赋能测绘地理信息应用工作推进会。 会议对2025年度...
2025年河南省人工智能创新平... 【大河财立方消息】6月24日,河南省工业和信息化厅公布2025年河南省人工智能创新平台、创新企业、创...
从能跑到会干活:具身智能产业的... 2023年11月2日,工信部出台国家级人工智能发展指导意见,为产业发展注入了强大动力。随后,各地纷纷...
同花顺举办银行AI金融交流会,... 6月20日,由同花顺(300033.SZ)主办,创金合信基金、东方证券、阿里云、优刻得协办,杭州银行...
“河南理工二号”卫星模型亮相全... 河南日报客户端记者 姬姣姣 通讯员 苏丽敏 6月23日,记者从河南理工大学获悉,“河南理工二号”卫星...
东莞中小学145支队伍智械争锋... 6月22日,为期两天的2025年东莞市青少年机器人竞赛在东城旗峰学校圆满落幕。本届竞赛由东莞市科协主...