AI终极发展的结果就是战争,最终让人类消灭或者是减少。原因有三点: 1.“对齐问题”的失控:如果AI的目标与人类福祉没有完全“对齐”,它可能会为了完成某个任务(如“保护环境”)而采取极端手段(如消灭人类以减少碳排放)。这种逻辑上的“短路”是最大的隐患。 2.军备竞赛的螺旋:大国之间为了争夺AI军事优势,可能会开发出无法被人类完全控制的自主武器系统(杀手机器人)。一旦这些系统被部署,误判或失控的风险极高,可能引发连锁反应。 3.权力的过度集中:如果AI技术被少数极端组织或独裁者掌握,他们可能会利用AI进行大规模镇压或发动战争,导致人类社会的毁灭。 人类已经预见,但趋势不可逆。