文/海峰看科技
当前,人工智能正深度迈向Agentic AI 时代,超节点作为新一代算力基础设施,已成为全球产业界的核心共识。除了互联网巨头,全球领先运营商都积极部署超节点,支撑网络和业务升级,并推出多个创新服务,赋能行业。
在巴塞罗那MWC2026上,华为有个展台持续火爆,成为全场最受关注的技术焦点之一。该展台所展示的,是华为面向海外首次发布的Atlas 950 SuperPoD、TaiShan 950 SuperPoD等新一代超节点产品与解决方案。

其中,全液冷AI超节点Atlas 950 SuperPoD是当之无愧的镇馆之宝,基于灵衢互联创新,支持上千个计算节点像一台计算机一样工作,以单柜64卡为基本单元,最大可支持8192张NPU卡高速互联,为超大规模AI训练与海量推理并发场景提供最优选择。相比传统集群,该超节点在大模型训练效率、可靠性与推理性能均大幅提升。
其实,市场上宣称推出超节点方案的厂商并不少见,但华为与另一家企业,单独组成全球第一梯队。华为的超节点,为何能够脱颖而出,在MWC这个行业风向标盛会收获如此高的关注度?其技术创新,又将为全球算力产业打开哪些新可能?
笔者在现场深入了解,试着给大家从行业趋势、技术突破与生态布局三个维度,给出分析。

Agentic AI时代:算力产业呈现新趋势与挑战
纵观人工智能技术发展,我们能看到清晰的发展脉络:从十年前聚焦特定领域视频分析的Perceptive AI时代,到五年前赋能办公生产的Generative AI时代,如今已全面迈入Agentic AI时代。
这一阶段的AI不再是简单的辅助工具,而是能够7×24小时深入各行业核心生产流程、自主完成复杂任务的智能体,其发展本质是AI解决真实复杂场景问题的能力持续提升,而这也对算力基础设施提出了前所未有的严苛要求。
其一,算力需求指数级爆发。万亿参数、十万亿级数据训练成为常态,整体算力需求提升10~100倍。
其二,内存压力急剧放大。模型上下文从K级跃升至M级,内存容量与带宽需求提升5~10 倍。
其三,时延要求逼近极限。金融风控、反欺诈、电信核心业务等场景,时延需控制在10~20 毫秒内。
其四,多任务、多轮推理协同,让传统计算架构难以适配。
与此同时,半导体工艺演进放缓、摩尔定律边际效应递减,单一芯片的性能提升,已远远追不上大模型训推的需求增速。传统服务器堆叠模式,更是陷入“集群越大、利用率越低、训练中断越频繁”的恶性循环。
在此背景下,通过高速互联协议整合节点、构建统一内存空间的超节点,成为破解规模与效率矛盾的核心方向,也成为全球算力竞争的全新主战场。
而在众多超节点方案中,华为之所以能脱颖而出,有两大原因:底层技术的系统性突破,与开源开放的生态格局。
原因一:技术创新成硬核突破
在方案算力基础设施研发中,华为没有只是停留在单点硬件升级,而是从底层互联协议出发,完成从根技术到整机、从集群到超节点、从计算到通信/能源的系统创新,为中国算力实现关键突破,也为全球算力提供了新范式。
华为的超节点创新,始于核心互联协议的突破。基于多年在通信领域的积累,华为打造的互联协议灵衢1.0(UnifiedBus),从底层重构了计算节点的互联逻辑,相比传统PCIe、以太网方案,实现了带宽提升15倍、时延压低至200纳秒级的跨越式提升,为超节点提供了高速、稳定的数据通道。
2025年3月,基于灵衢1.0(那时还未对外公布名称),华为推出了Atlas 900超节点。截至目前,该超节点已商用部署数百套,覆盖互联网、电信、制造等多个行业,充分验证了该通信技术的先进性和成熟度。
2025年9月在上海,华为正式发布面向超节点的灵衢互联协议。而在此基础上优化升级的灵衢2.0,成为Atlas 950 SuperPoD的核心支撑,华为还主动开放灵衢技术规范,目前技术规范下载量接近2.4万次,以开放的姿态推动全球超节点技术的协同发展。
在我看来,华为对超节点的定义与打造,抓住了行业核心需求。真正的超节点,必须同时具备“超大带宽、超低时延、内存统一编址”三大核心要素,三者协同才能让集群像一台计算机一样工作,这一定义也成为行业的重要参考。
明确了这一核心定位,华为推出了全系列超节点产品,形成了“智算+通算”的全场景算力矩阵,实现了不同场景的算力需求全覆盖。
其中,首次亮相巴展的Atlas 950 SuperPoD,是面向超大规模AI计算的系统级创新产品,通过多项关键技术实现架构突破:采用零线缆电互联与零漏液全液冷设计,大幅提升系统可靠性;独创UB‑Mesh递归直连拓扑,支持8192卡无收敛全互联,跨柜卡间往返时延从7μs降至3μs。
该超节点采用万卡级集群架构,算力、带宽、内存规模均达到业界领先水平:FP8算力达8EFLOPS,FP4算力16EFLOPS,灵衢全光互联带宽16.3PB/s,共享内存池1152TB,单跳时延低于200ns;算力、带宽与内存规模分别达到业界水平的6.7倍、62倍与15倍,大模型训练效率、可靠性与推理性能显著优于传统集群。华为轮值董事长徐直军曾评价:“未来多年都将是全球最强算力超节点”。
再看业界首个企业级风冷AI超节点服务器Atlas 850E,适配现有风冷机房,支持8到1024卡灵活扩展,成为企业模型后训练、多场景推理的优质选择。
看完智算我又在展台了解了一下通用计算方案。业界首款通用计算超节点TaiShan 950 SuperPoD,实现百纳秒级超低时延、TB级超大带宽,最大48TB内存池化能力,从根本上解决了通算场景时延高、数据搬移开销大的难题,为大型机、小型机替代提供了可行技术路径。
华为超节点从技术落地到规模商用,实现了国产算力从跟跑到并跑、部分领跑的跨越,重塑了全球算力基础设施的发展范式,说明大家对华为超节点以及灵衢协议充满信心。同时我们认为,华为本次MWC2026的海外首秀,标志着华为超节点技术正式进入全球规模化发展阶段,具有里程碑式意义,透露出国产算力底座正大步走向世界。
原因二:开源开放筑生态,为智能世界带来新选择
如果说技术创新是华为超节点的硬核底气,那么开源开放的生态布局,就是华为超节点能够吸引全球关注、实现持续发展的核心密码。
在全球算力产业走向协同创新的当下,单一厂商的单打独斗已无法满足行业的多元化需求。如果产业不开放开源,计算技术就会封闭孤立、生态做不大、创新走不远。华为始终坚定践行“开源开放”战略,以全栈开源的软硬件能力,打造开放共赢的计算产业生态,让算力技术不再被壁垒束缚。
华为的开源开放,体现在AI算力核心软件的全量开源,让开发者能够深度挖潜、自主创新。2025年底,华为已实现CANN异构计算架构全面开源开放,算子库、通信库、RUNTIME、驱动等27个软件包全部开源,形成37个代码仓,大模型所需的基础软件库,可基于开源社区灵活构建,还能实现分层解耦、分包升级,适配不同场景的创新需求。
目前,各行业客户已基于CANN社区自主开发了400多个高性能算子,华为在AI领域更是支持超65个全球主流开源大模型、超50个开源项目,代码贡献行数超过37万行。
同时,华为全面拥抱业界主流开源社区。CANN的新特性、组件和开发计划在PyTorch、vLLM、SGLang、xLLM、VeRL、Triton、TileLang等开源社区首发,北向兼容主流开源框架,大幅提升了开发者的易用性,降低了AI开发的门槛。
在通用计算领域,华为聚焦基础软件开源,持续完善计算产业生态底座。华为积极贡献openEuler开源操作系统,如今该社区已汇聚超2100家企业与机构,装机量突破1600万套,成为全球领先的开源操作系统社区。
此外,openGauss数据库、BoostKit应用使能套件也实现全面开源,与TaiShan 200、TaiShan 500等通算产品协同,充分释放鲲鹏硬件算力,覆盖高中低算力场景,满足运营商、企业等不同主体的多样化需求。
从灵衢技术规范开放,到CANN、openEuler、openGauss等核心软件开源,再到全面兼容全球主流框架,华为正在推动形成一个技术共享、能力共建、价值共赢的全球算力生态。

正如华为计算产品线总裁张熙伟在MWC2026上所总结的:“华为通过创新引领,打造开源开放的坚实算力底座,为世界提供新的选择。”
为世界提供算力新选择,给运营商带来三大价值
全球算力选择很多,但华为提供的是一条“不靠先进制程、靠系统协同、开源开放、低成本、自主创新”的全新技术路径,让世界在英伟达等之外,有了另一个能落地、能规模化、能支撑AGI的算力底座选择。
可能你好奇,如此强大算力的AI基础设施,能给全球运营商带来各种独到价值?在笔者看来,当下AI智能体互联时代到来,电信运营商不希望被管道化,希望用AI来升级网络,再通过构建算力网络和基础设施,加速自身以及产业各方AI业务发展。
华为把开源开放的AI全要素基础设施摆上台面,明着是给全球提供新算力选择,暗里其实是精准戳中了运营商当下最头疼的转型难题。作为长期盯通信行业的科技博主,我直接给大家拆解。
首先第一点,最直观的,该系列基础方案帮运营商把AI用透,从“内部打杂”升级成“业务赚钱”,彻底进入AI智能体时代。
以前运营商的AI,要么是运维、办公小打小闹,要么核心系统迁不动、用不起来。华为这套基建直接把全场景打通了,从内部办公、运维,到面向个人、企业的核心业务,再到往外给行业赋能,一条路跑通。
像CRM、计费、客户体验管理这些运营商命脉系统,能平稳迁移不折腾,还能搭云手机、云电脑这些新应用。现在该系列方案已经跑通100多个AI场景,攒了上百个迁移案例、300多家生态伙伴,说白了就是运营商不用再摸着石头过河,直接抄作业就能完成从移动互联网到AI时代的转身。
第二点,也是运营商最在意的:开源开放到底,把技术攥在自己手里,告别依赖。
华为将底层能力全放开:65款主流大模型都能适配,主流AI框架随便兼容,CANN、MindSpore这些核心技术开源开放,从AI框架、数据库到操作系统等。对运营商来说,这不是简单用别人的技术,而是能自己建能力、搞创新,真正实现In-house自建,以后核心业务和技术自主权,攥在自己手上。
第三点,最硬核的底层突破,靠灵衢协议玩出新算力,把数据中心变成“一台超级计算机”。
这是华为厉害的地方,靠灵衢协议把上千个计算节点捏成一个整体,协同效率跟单机一样,直接造出DC as a computer的新算力底座。
硬件上更不用多说,智算有Atlas系列超节点,通算有Taishan 950 SuperPoD全球首创超节点,风冷液冷、软硬协同拉满。
如此一来,大模型训练更快、推理并发更高,运营商的智算中心不再是堆硬件,而是真正高效、能扩、靠谱的核心算力底座,这才是未来算力竞争的根基。
其实落地效果已经很明显了,华为跟国内运营商一起做了100多个商业案例,智能办公效率提20%,智能客服满意度涨10%,都是看得见的提升。
总结看,华为这套AI全要素基础设施,不是给运营商堆技术,而是帮运营商升级业务、掌握技术、筑牢算力,三方面解决运营商AI时代转型痛点。
对全球运营商来说,这不是一个可选方案,而是AI时代最稳妥、最可控的一条新路。
“功不唐捐,玉汝于成。”面向未来,随着超节点进入规模化商用,华为将为千行百业的智能化升级提供更强劲、更可靠的算力支撑,将持续引领全球算力基础设施的创新方向,在智能世界的建设中,贡献更大力量。