DC娱乐网

中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 致命机

中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 致命机器人的正式名称为致命性自主武器系统,这类装备依托人工智能算法,可独立完成目标探测、判断与攻击操作,全程无需人类实时操控。国际社会很早就察觉这类武器潜藏的伦理与安全危机,中方始终站在全球安全治理的前沿,连续在2021年、2023年、2024年联合国《特定常规武器公约》系列审议会议上,提交三份针对性约束方案。方案内容覆盖无人类干预自主攻击武器的全面禁止、全球技术研发信息共享、跨国技术扩散防控等核心内容,每一条都基于人道主义与国际战略稳定的现实需求。 参与谈判的中方代表团成员深耕军控领域数十年,他们见过常规武器泛滥带来的人道主义灾难,更清楚自主武器失控会引发的连锁反应。会议现场有125个国家明确附和中方主张,这些国家多为发展中国家,他们担心军事强国凭借致命机器人形成不对称优势,自身主权与安全会被直接架空。 美英印俄四国在投票环节直接否决全部提议。美国当时正集中资源研发无人机蜂群、地面智能作战单元,国防部高层公开将人工智能军事竞赛定义为不能落败的核心竞争,他们认定约束协议会阻碍技术迭代,无法维持全球军事霸权。英国作为美国盟友,完全追随美方立场,将自主武器视为维系海外军事部署的关键支撑。俄罗斯正推进无人作战装备列装计划,不愿因国际规则中断研发节奏。印度则希望借助自主武器提升边境军事能力,执意拒绝外部规则约束。 四国的否决行为,直接让致命机器人研发进入无规则野蛮生长阶段。短短数年,各类自主武器快速投入实战测试,算法黑箱带来的失控问题持续爆发。美军在中东部署的自主无人机,多次出现目标误判,造成无辜平民伤亡,技术团队事后无法还原算法决策逻辑,责任认定完全陷入空白。俄罗斯列装的无人战车在复杂地形中频繁出现指令紊乱,甚至出现误击己方人员的情况,装备安全性远未达到实战标准。 印度自主武器研发长期依赖外部技术输入,核心算法、传感器部件无法自主生产,投入大量资金却没能形成稳定战力,还面临技术供应国的层层限制。英国国内民间人道主义组织持续发起抗议,民众反对将生命裁决权交给无道德判断能力的机器,政府陷入舆论与安全的双重困境。 无规则的研发直接引发全球军备竞赛,越来越多国家被迫启动相关项目,技术扩散速度突破可控范围,非国家行为体也有机会获取相关技术,全球安全风险被无限放大。现有国际法体系没有针对自主武器的适用条款,冲突中的责任界定、平民保护、战后追责等关键问题全部处于真空状态。 当初强硬拒绝约束的四个国家,如今都在主动调整立场。美国军方内部开始制定自主武器使用的内部规范,却因缺乏国际共识无法落地。英国主动重启与中方的军控对话,希望参与搭建全球监管框架。俄罗斯放缓无人武器列装进度,全面开展技术安全评估。印度放弃此前的强硬态度,积极参与联合国相关议题磋商。 他们的后悔,来自对风险的后知后觉。致命机器人的核心竞争力是算法与数据,这类技术没有国界,一旦失控,任何国家都无法单独防控。中方当初的提议,从未限制各国正当防卫权利,只是要守住人类安全的底线,避免科技进步异化为威胁人类生存的隐患。 全球安全治理从来不是零和博弈,少数国家为短期战略私利无视全人类共同利益,最终必然要承担失控的代价。如今再想搭建完善的国际约束机制,需要克服技术、利益、信任等多重障碍,付出的成本远高于当初达成共识的阶段。这也为所有国家敲响警钟,涉及人类共同命运的议题,必须摒弃短视思维,坚守合作共赢的底线。 各位读者你们怎么看?欢迎在评论区讨论。