OpenAI与美国战争部达成协议,将AI模型部署至机密网络2月28日,OpenAI首席执行官Sam Altman宣布,公司已与美国战争部正式签署协议,将OpenAI的先进AI模型部署到战争部的机密云网络中。此消息发布仅数小时前,美国政府刚刚下令联邦机构在6个月内逐步弃用竞争对手Anthropic的AI工具,引发AI行业、国家安全及伦理领域新一轮激烈争论。Altman在声明中强调,协议已明确写入OpenAI的核心安全“红线”:禁止将AI用于美国境内的大规模监控,以及在使用武力(包括自主武器系统)时必须保留人类的最终责任与控制。他表示,在全部谈判过程中,战争部展现了对AI安全议题的“深度尊重”,并表达了共同追求最佳结果的意愿。OpenAI计划额外部署技术防护措施(包括所谓“强制防御执行层 FDEs”机制),确保模型行为严格符合约定。同时,所有部署均限定于云端环境,不涉及边缘设备(如无人机、自主战机等)。Altman公开呼吁战争部向所有AI公司提供完全相同的合作条款,并希望以此推动行业从法律对抗转向基于原则的理性协议。他写道:“我们希望事情能够去升级。世界是复杂、混乱且有时危险的,但我们仍致力于尽可能最好地服务全人类。”事件背景极具戏剧性。Anthropic此前是唯一获准将模型接入战争部机密系统的商业AI公司。但因其坚持相同“红线”(拒绝无限制用于国内监控或完全脱离人类控制的致命自主武器),遭到战争部持续施压。特朗普政府随后颁布行政命令,将Anthropic产品列入“供应链风险”名单——这一标签通常针对外国对手使用。Anthropic已表示可能通过法律途径应对。OpenAI迅速填补这一空缺。OpenAI最终成功让战争部接受其安全底线,成为协议达成的关键转折点。部分观察者认为这体现了OpenAI在理想与现实之间的务实平衡;但也有大量批评声音指责其“趁火打劫”——在Anthropic因坚持原则而失去数亿美元级国防合同后,OpenAI立即“接盘”。AI军事化议题正深刻撕裂科技社区。支持方认为,与美国战争部合作并嵌入清晰限制,是负责任且务实的做法,有助于在全球AI军备竞赛中确保美国不落后于中国;反对方则警告,即便有“人类在回路”条款,如此强大的AI进入武器系统仍存在不可控风险,并质疑OpenAI是否还坚守早期“造福全人类”的公开承诺。截至发稿,Anthropic尚未就OpenAI协议发表正式回应,但其支持者在旧金山办公室外拉起“God Loves Anthropic”等标语,以示对其立场的声援。战争部目前也未公开表态是否会如Altman所愿,向其他AI厂商开放同等合作条件。
