中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 早在十多年前,中国就已经敏锐地察觉到了这个风险,并三次在正式场合严肃提议,要给这种技术套上“缰绳”。 但遗憾的是,当时包括美国、英国、俄罗斯、印度在内的几个军事大国,齐刷刷地投了反对票或选择了冷处理。 可能很多人不知道,中方这三次提议,都不是临时起意的表态,每一次都有实打实的立场文件和管控方案,全程在《特定常规武器公约》框架下推进,就是想通过多边协商,给致命性自主武器系统定个规矩。 第一次有明确提议是2017年,中方主动参与《特定常规武器公约》框架下的相关会议,提交立场文件,核心就是建议各国重视这种武器的风险,先从分类管控入手,避免技术无序发展。 紧接着到了2021年,中方在《特定常规武器公约》第6次审议大会上,直接提交了厚达80页的专项提案。 明确建议全面禁止完全脱离人类控制的自主武器系统,还给出了国际核查、技术转让禁区等具体方案,当时赢得了125个成员国的支持。 2023年10月,随着《全球人工智能治理倡议》的提出,中方第三次重申相关立场,强调各国尤其是大国。 在军事领域使用人工智能技术要慎重,必须确保武器始终处于人类控制之下,反对借这项技术谋求军事霸权。 三次提议,态度一次比一次明确,方案一次比一次具体,可美英印俄四个国家,始终没松口,要么直接投反对票,要么含糊其辞冷处理,各自的心思其实很直白。 美国当时的态度最反转,早年还批判这种杀人机器人不道德,说把生死权交给机器是对人类文明的亵渎,可后来自身技术领先了,就彻底变了口风。 截至2024年,美国已经列装了“郊狼”无人机蜂群、“魔爪”武装机器人等多款装备,实战部署超5000台,自然不愿被禁令束缚,还声称这种武器能减少美军伤亡,是人道主义。 俄罗斯的反对,更多是不甘落后的焦虑。当时俄军的“天王星-9”无人战车已经投入测试,虽然暴露了不少软件缺陷,但仍在持续升级,他们担心禁令会剥夺自己弯道超车的机会,坚持用指南而非禁令管理这项技术。 英国则显得相对保守,一直主张先继续评估技术影响,不急于立法约束,本质上还是想观望局势,既不落后于其他大国,又不想过早被规则限制,给自己留足周旋空间。 印度的想法更直接,当时正急于弥补常规军力短板,2023年还投入20亿美元启动无人武器专项计划,自身没有成熟产品,却怕禁令挡住自己的发展之路,干脆跟着美俄投了反对票。 这四个国家当时想得挺美,觉得拒绝约束就能放开手脚发展,抢占技术先机,可没料到,短短几年时间,麻烦就接二连三找上门来,现在一个个都陷入了后悔的境地。 美国率先尝到苦果,推行的“复制者计划”,想在两年内于印太地区部署数千个自主武器系统,可技术难题不断。 还面临着误判风险——人工智能系统一旦被干扰或数据偏差,很可能误击友军或平民,之前美军“爱国者”导弹就有过误判友军的先例,现在自主武器的风险只会更大。 更头疼的是技术扩散,美国的相关技术泄露,不少中小国家也开始研发自主武器,打破了原本的战略平衡,美国自己反而陷入了更激烈的军备竞赛,投入的资金越来越多,却始终无法确保绝对优势。 俄罗斯的日子也不好过,“天王星-9”无人战车在实战中缺陷频发,软件不稳定、协同作战能力不足,升级之路举步维艰。 原本想靠自主武器提升战力,结果反而耗费了大量人力物力,还没达到预期效果,看着其他国家规范发展,心里难免后悔当初没同意约束方案。 英国和印度的处境更尴尬,英国迟迟没拿出成熟的自主武器技术,反而因为没有国际规则约束,面临着其他大国的技术压制。 印度投入巨资启动的专项计划,进展缓慢,没有一款拿得出手的产品,白白浪费了发展机遇,还得应对周边国家自主武器发展带来的安全压力。 反观中国,当初提出提议,不是放弃发展,而是坚持“智能向善”,在规范框架内稳步推进相关技术研发,既守住了人道主义底线,又掌握了核心竞争力。 现在,越来越多的国家意识到,没有规则约束的致命机器人,只会加剧军备竞赛、增加冲突风险,美英印俄也开始重新审视当初的决定,只是世上没有后悔药。 说来说去,中方三次提议,从来不是为了限制谁,而是为了全人类的安全。那些当初只顾着眼前利益、拒绝约束的国家,如今深陷各种麻烦,说到底,都是自己的选择。
