AIPress.com.cn报道
OpenAI 宣布已与美国战争部签署协议,允许其先进 AI 系统在涉密环境中使用。同时,公司公开呼吁五角大楼向其他 AI 企业提供同等合作条件。
根据 OpenAI 发布的声明,协议设定了三条“红线”:不得将其技术用于大规模国内监控,不得用于自主武器系统的独立指挥,也不得用于高风险的自动化决策,例如类似“社会信用”系统的应用。
OpenAI 表示,协议采用多层安全机制进行约束,包括保留对安全技术栈的完全控制,通过云端部署、由获得安全许可的人员参与操作,以及合同层面的保障措施。同时强调,相关使用还需遵守现有美国法律框架。
在涉及自主武器的条款中,协议明确指出,只要法律或国防部政策要求人类控制,AI 系统不得独立指挥武器系统。任何在自主或半自主系统中使用 AI 的行为,都必须经过严格的验证与测试。
值得注意的是,OpenAI 称签署协议的动机之一是希望缓和五角大楼与美国 AI 实验室之间的紧张关系。这一表态被普遍解读为针对 Anthropic 与美国政府之间的争议。
此前,Anthropic 因拒绝接受五角大楼的某些条款,被特朗普政府列为“国家安全供应链风险”。美国国防部长宣布,所有与军方有业务往来的承包商不得与 Anthropic 开展商业合作。这一标签过去从未用于美国本土企业。
政府方面表示,军队的命运应由民选领导人决定,而非科技公司高管。但 OpenAI 在问答环节中明确表示,不认为 Anthropic 应被列为供应链风险,并已向政府表达立场。
OpenAI CEO Sam Altman 在社交平台上称,这一做法是“极其可怕的先例”,并表示希望事情能有更好的解决方式。他指出,虽然 Anthropic 的处理方式存在问题,但政府作为更强势一方,应承担更大责任。
Altman 还表示,公司签约的目的在于“降温”,因为若供应链风险认定被全面执行,将对整个 AI 行业和美国本身造成不利影响。
截至目前,Anthropic 除表示将通过法律途径申诉外,尚未作进一步公开回应。
这场围绕军方合作与行业监管的争议,正在让 AI 行业与政府之间的关系变得更加复杂。技术、政策与国家安全之间的界限,正在被重新划定。
(AI普瑞斯编译)