AIPress.com.cn报道
3月20日消息,在最新一次对外访谈中,OpenAI首席科学家Jakub Pachocki表示,OpenAI正将研究重心集中于构建“AI研究员”,并表示这将是未来几年OpenAI的重点研究方向。
根据披露,该系统被设想为一种基于多智能体的自动化研究平台,能够在较少人工干预的情况下,自主拆解并解决复杂问题。OpenAI计划在2026年9月前推出“自动化AI研究实习生”,作为早期形态,并在2028年前后推进至完整的多智能体科研系统。
这一系统的应用范围覆盖数学、物理、生物、化学以及商业与政策问题等多个领域,理论上可处理任何能够以文本、代码或结构化表达形式描述的问题。
Pachocki指出,当前技术路径已具备基础条件。以最新推出的Codex为例,该工具已能够自动生成代码、分析文档并执行多步骤任务,被视为“AI研究员”的早期雏形。目前OpenAI内部技术人员已在日常工作中广泛使用该类系统。
技术演进上,OpenAI将“推理模型”与智能体系统结合,提升模型在长时间任务中的稳定性与连续性。相关模型通过逐步推理、回溯修正等机制,增强对复杂问题的处理能力,同时通过高难度数学与编程任务训练其多步骤任务管理能力。
Pachocki认为,模型能力的整体提升将自然带来“更长时间独立工作”的能力,并指出从GPT-3到GPT-4的跃迁已体现这一趋势。
不过,外部研究者对该路径仍持谨慎态度。Allen Institute for AI研究员Doug Downey指出,多步骤任务链条中的误差累积仍是主要挑战,即使是当前领先模型,在复杂科研任务中仍存在较高错误率。
在安全层面,OpenAI正在探索“思维链监控”(chain-of-thought monitoring)机制,通过记录模型推理过程并由其他模型进行监督,以降低系统偏离目标或产生风险行为的可能性。同时,公司强调未来高能力系统将运行于隔离环境中,以限制潜在影响。
Pachocki亦承认,具备高度自动化能力的AI系统可能带来集中化风险,包括被滥用、误解指令或遭攻击等问题。他表示,这类技术的治理需要政策制定者参与,难以由单一企业独立解决。
在竞争层面,OpenAI正面临来自Anthropic与Google DeepMind等机构的持续压力。随着AI从模型能力竞争转向系统级能力与应用落地,“自动化科研系统”或成为下一阶段关键方向。(AI普瑞斯编译)