2 月 27 日,美国 AI 公司 Anthropic 公开拒绝五角大楼无限制使用其 AI 技术的要求,坚守伦理红线,随即遭联邦政府停用与供应链风险定性,成为美国科技与军方博弈的标志性事件。 分歧核心在于军方要求 “所有合法用途” 无约束,而 Anthropic 坚持禁止两项应用:面向美国公民的大规模监控、无人类干预的全自动致命武器。公司认为当前 AI 可靠性不足,放开将危及平民与民主价值,即便面临合同终止、行政打压也不退让。 此举折射出前沿 AI 军事化的深层矛盾:商业科技公司的伦理底线与国家军事需求冲突、AI 安全护栏与行政权力对抗。事件推动 AI 军备竞赛走向公开化,也为全球 AI 治理提供了伦理与制度边界的现实样本,影响后续技术监管与军民协作规则。