DC娱乐网

AI 算力扩容卡壳?液冷成 “救命稻草”,怎么破解规模化难题? AI 算力需求正

AI 算力扩容卡壳?液冷成 “救命稻草”,怎么破解规模化难题? AI 算力需求正以肉眼可见的速度膨胀,万亿参数大模型、多模态应用扎堆出现,2025 年中国智算规模更是要冲 1000EFLOPS。可算力想提上去,散热却成了 “拦路虎”——AI 机柜功率普遍超 80kW,GPU 功耗直奔 3000 瓦,传统风冷在 40kW 以上就 “歇菜”,不仅导致硬件闲置,还让电费账单越积越厚。 液冷本应是 “救火队长”,却长期受困于小规模定制。好在近期行业风向变了:液冷不再是 “可选项”,而是 AI 基建的 “刚需品”。中科曙光牵头 20 多家企业发布国内首个 AI 计算开放架构,直接把液冷纳入 “算 - 存 - 网 - 电 - 冷” 一体化关键能力,这信号再明确不过:液冷要走生态化、标准化路线了。 曙光数创在这其中的表现可圈可点。它的冷板液冷方案实现服务器与机柜解耦,运维效率提三成;相变间接液冷方案用自研环保冷媒打消安全顾虑,还牵头编制国家标准,帮行业 “从乱到治”。更直观的是能耗差距:液冷 PUE 能低至 1.04,而风冷普遍在 1.3 以上。现在的液冷,早已是影响 AI 算力利用率和投资回报的核心变量,谁能先搭好开放协同的液冷生态,谁就能在下一代 AI 基建中占得先机。