DC娱乐网

简直太恐怖了!AI 首次参与了人类战争!美国空袭伊朗时使用了 AI! 这次美国

简直太恐怖了!AI 首次参与了人类战争!美国空袭伊朗时使用了 AI! 这次美国利用科技公司 Anthropic 开发的人工智能,知情人士证实,包括美国中东中央司令部在内的全球美军指挥机构,均在使用 Anthropic 旗下的 Claude 人工智能工具。 这不是科幻电影里的情节,而是真实发生在 2026 年 2 月底的国际大事。 当地时间 2 月 28 日美军对伊朗的军事打击行动中,Claude 这款原本用于商业领域的 AI 模型,实实在在参与了情报评估、目标识别甚至作战场景模拟的全流程。 这也是人类战争史上首次有商业 AI 模型正式介入实战打击,背后的信号远比空袭本身更让人脊背发凉。 要知道,在此之前,AI 顶多是在军事训练、数据整理中发挥辅助作用,而这次直接走到了实战前线,战争的形态,可能从这一刻起就彻底变了。 很多人会好奇,美军为什么偏偏选了 Claude?其实早在 2025 年 7 月,美国国防部就和 Anthropic、谷歌等四家 AI 企业签了 2 亿美元的合同,核心就是让这些商业 AI 模型为军方服务。 而 Claude 更是唯一被允许接入美军机密系统的商业 AI,能直接处理最高级别的敏感情报。 在这次空袭伊朗的行动中,它的作用体现在方方面面:海量的卫星影像、情报监听数据,靠人工分析可能需要几天,而 Claude 几小时就能完成筛选,精准锁定打击目标。 甚至还能模拟不同打击方案的效果,给美军指挥官提供决策参考,这也是美军敢果断发动空袭的重要原因。 但更耐人寻味的是,这场 AI 参战的背后,藏着美军和 Anthropic 公司的激烈矛盾。 事实上,在美军空袭伊朗前 11 小时,美国总统特朗普还曾下令停用这款 AI 工具,而这一切的根源,要从今年 1 月美军对委内瑞拉的军事行动说起。 当时美军就悄悄用了 Claude 协助作战,Anthropic 公司得知后直接向五角大楼表达了 “深度关切”,因为这家公司的使用政策里,明确禁止将 AI 用于促成暴力、研发武器这类行为。 面对 Anthropic 的质疑,五角大楼的态度却异常强硬,不仅要求公司取消 Claude 的所有安全防护措施,允许军方无限制使用,还在谈判破裂后发出最后通牒:要么配合,要么就把 Anthropic 列为 “供应链风险” 企业,甚至威胁援引《国防生产法》强制征用技术。 要知道,“供应链风险” 这个标签以往只用于美国的对手,从没对本国企业用过,五角大楼的步步紧逼,本质上就是想把商业 AI 彻底变成军方的 “战争工具”。 而 Anthropic 的拒绝,并非单纯的 “良心发现”,更戳中了 AI 用于实战的核心问题:现在的 AI 技术,真的能承担战争的后果吗? 这家公司的 CEO 阿莫迪直言,就算是最先进的 AI,可靠性也远不足以操控武器,没有人工干预的自主 AI 作战,很可能引发无法挽回的误伤。 而目前全球范围内,也没有任何法律能规范 AI 在战争中的使用。 就像这次美军空袭伊朗,即便有 Claude 辅助,谁也无法保证筛选的目标绝对精准,一旦出现平民伤亡,责任该归军方,还是归开发 AI 的企业?这是一个至今没有答案的难题。 从手工作战到热武器,从信息化到智能化,战争的进化从未停止,但这次 AI 首次参战,让我们看到了前所未有的危机。 技术本身没有对错,可当 AI 被用于战争,当算法开始决定生死,人类就必须思考:我们到底要让技术服务于和平,还是让技术成为毁灭的工具?