DC娱乐网

黄仁勋访再谈AI产业:电子变Token、能源即算力、生态定生死

几天前,黄仁勋在最新的访谈中,探讨了当前 AI 行业发展的底层逻辑。作为英伟达这家 AI 时代 "卖铲人" 的掌舵人,可

几天前,黄仁勋在最新的访谈中,探讨了当前 AI 行业发展的底层逻辑。

作为英伟达这家 AI 时代 "卖铲人" 的掌舵人,可以说,他是这个产业里离真相最近的人之一。其观点未必全然正确,却也建立在英伟达三十年穿越周期的实战经验,以及对未来十年技术演进的系统性预判之上。

而他口中正在发生的这场 AI 产业变革,以及他所指向的未来方向,或许值得认真思考。

电子变Token:AI产业的价值重构

“万物到最后,总得有某种机制把电子(Electrons)转化为Token。这个将电子转化为Token,并让这些Token随着时间推移不断增值的过程,是无可替代的。”

黄仁勋的这句话被很多人视为对AI本质的概括。在此之前,人们谈论AI时,总是在说模型、参数、算力、算法等,但黄仁勋指出,所有这一切最终都服务于一个目的:将廉价的电子转化为高价值的Token。

这一判断与当前AI产业的发展趋势吻合。2026年,全球AI产业正经历从“模型研发”到“商业兑现”的历史性拐点。

SEMI数据显示,2026年全球AI基础设施支出将达4500亿美元,其中推理算力占比首次突破70%。这意味着,AI产业的重心已经从"训练模型"转向"生产Token"。

Token正在成为数字世界的基本价值单位。每一个Token都承载着知识、智慧和创造力,它的生产效率和成本直接决定了AI应用的商业可行性。

据高盛测算,2026年全球每天将产生超过10万亿个AI Token,市场规模超过5000亿美元。

黄仁勋断言这个转化过程“极难被彻底商品化”,这一观点在行业内引发过讨论。很多人认为,既然英伟达只是把设计好的芯片交给台积电制造,那么只要别人也能设计出类似的芯片,英伟达就会被商品化。但他们忽略了一个事实:将电子高效地转化为Token,不仅仅是一个硬件问题,更是一个涉及硬件架构、软件栈、算法优化、网络互联、散热设计等多个方面的复杂系统工程。

从行业实践来看,这一判断正在得到验证。尽管过去两年有数十家公司推出了自己的AI芯片,但没有任何一家能够在单位Token成本上超越英伟达。即使是谷歌的TPU和亚马逊的Trainium,在综合TCO(总拥有成本)上也无法与英伟达的Blackwell架构相提并论。

不过,随着AI技术的不断成熟,Token生产的标准化程度正在提高。未来,Token生产可能会像今天的电力生产一样,成为一个标准化的大宗商品。届时,英伟达的优势可能会被削弱。

CUDA能否保持领先吗?来自云厂商自研芯片的挑战

关于英伟达的统治地位,最流行的解释是“CUDA护城河”。但很多人认为,只要头部客户能够开发出自己的软件栈,CUDA的护城河就会崩塌。

访谈中,黄仁勋指出,CUDA的价值不仅仅在于它是一个编程模型,更在于它背后庞大的生态系统、无可比拟的装机基数以及无与伦比的部署通用性。这三个优势结合在一起,构成了CUDA真正难以逾越的护城河。

目前,CUDA拥有超过500万开发者,几乎所有的AI框架和库都首先针对CUDA进行优化。英伟达的GPU装机量已达数亿台,遍布每一朵云、每一个数据中心。

然而,2026年,全球云巨头已经集体进入自研ASIC军备竞赛。谷歌与博通签下了一份长达五年、至2031年的重磅协议,涉及600万~700万颗TPU,对应收入规模高达1000亿美元。亚马逊的Trainium 3已经率先迈入3nm工艺,规划年产约250万颗。微软也在2026年1月推出了Maia 200,全面加入战局。

这些云厂商自研芯片的目标非常明确:降低对英伟达的依赖,提高自身的利润率。据测算,自研芯片可以将AI计算成本降低30%-50%。对于每年在AI基础设施上投入数百亿美元的云厂商来说,这是一个无法抗拒的诱惑。

不过,黄仁勋指出,“NVIDIA的计算软件栈拥有全世界最好的单位总拥有成本性能,没有任何争议。没有人能向我证明,当今世界上有任何一个平台的性能TCO比率能超越我们,一家都没有。”

尽管云厂商在自研芯片上投入了巨大的资源,但到目前为止,没有任何一家自研芯片能够在综合性能和TCO上超越英伟达的同代产品。而且,自研芯片只能满足云厂商自身的需求,无法像英伟达那样服务于全球所有的AI开发者和企业。

行业专家普遍认为,未来AI芯片市场将一定时间里形成“英伟达主导训练市场,多家厂商分享推理市场”的格局。英伟达在训练市场的优势短期内难以撼动,但在推理市场,云厂商自研芯片和国产芯片将占据越来越大的份额。

能源即算力:被低估的AI底层逻辑

访谈中,黄仁勋强调“能源即算力”:“AI就像一块五层蛋糕,而最底层的基础是能源。当你拥有充沛的能源时,它足以弥补芯片性能的不足;反之,充足的芯片也能弥补能源的短缺。”

如果你的电力供应极度充裕,甚至是免费的,你为什么还要在意“每瓦性能”呢?你的资源多到用不完,完全可以用旧一代的芯片去堆叠算力。所以,在充足能源的加持下,7纳米芯片基本就能达到Hopper架构的效果。

这一观点在行业内引发争议。很多人认为,黄仁勋是为自己的产品辩护,试图淡化先进制程的重要性。但如果我们深入分析AI产业的发展趋势,就会发现这一观点其实有着坚实的逻辑基础。

AI本质上是一个并行计算问题。只要有足够多的芯片并联在一起,就能够提供足够的算力。而能源是并行计算的基础。没有充足的能源供应,再先进的芯片也无法发挥作用。

这一点在中国市场表现得尤为明显。中国拥有极其丰富的能源资源和庞大的电力基础设施。据统计,中国的数据中心空置率远低于全球平均水平,而且电力成本也相对较低。这使得中国企业可以通过堆叠更多的芯片来弥补单芯片性能的不足。

黄仁勋指出,“正因为受限于算力,他们反而被逼出了极其精妙的算法。,摩尔定律每年大约推动25%的硬件性能提升,但凭借卓越的计算机科学,我们依然能够将算法性能提升10倍。”

过去两年,中国的AI研究人员在算法创新方面取得了一系列重大突破。混合专家模型、注意力机制优化、模型蒸馏等技术的应用,大幅降低了AI计算的算力需求。DeepSeek等中国公司开发的模型,在性能上已经能够与国际顶尖模型相媲美,但所需的算力却低得多。

不过,也有人指出,虽然能源可以在一定程度上弥补芯片性能的不足,但这种弥补是有限度的。当芯片性能差距过大时,即使投入再多的能源,也无法达到相同的效果。而且,能源本身也是一种稀缺资源,并不是无限供应的。

生态分裂:全球AI技术栈的未来走向

关于美国对华芯片出口管制的讨论,黄仁勋认为将世界割裂为两个独立的AI生态系统,对美国来说将是一场灾难。

“将世界割裂为两个生态系统是极其愚蠢的:一个只运行在中国技术栈上的开源生态,以及一个运行在美国技术栈上的闭源生态。我认为,这对美国而言将是一场灾难。”

“全球50%的AI开发者都在中国。我们不想、不应该,美国也绝不应该放弃这片阵地。”

黄仁勋的这一观点,反映了很多美国科技企业的担忧。他们担心,对华芯片出口管制不仅无法阻止中国AI产业的发展,反而会倒逼中国建立起自己独立的技术生态系统,最终形成两个相互竞争、互不兼容的全球AI标准。

这一担忧正在成为现实。IDC数据显示,2025年中国AI加速卡出货约400万张,国产厂商拿下约41%的份额,而英伟达的市占率从过去的垄断地位降至约55%。预计2026年,国产AI芯片市场份额将突破50%,正式占据国内市场半壁江山。

比如,华为昇腾已经成为国产AI芯片的领导者,2025年出货量达81.2万张,占国产总出货量的近一半。阿里平头哥、百度昆仑芯、寒武纪等也在快速发展,形成了“一超多强”的竞争格局。

更重要的是,中国正在建立起自己完整的AI技术生态系统。从底层的芯片、操作系统,到中层的框架、平台,再到上层的应用、服务,中国已经基本实现了自主可控。而且,中国的AI技术生态系统正在向全球输出,特别是在”一带一路“沿线国家,中国的AI技术和产品已经占据了相当大的市场份额。

总之,未来,世界很可能会形成两个主要的AI技术生态系统:一个是以美国为中心的生态系统,另一个是以中国为中心的生态系统。这两个生态系统将相互竞争、相互借鉴,共同推动AI技术的发展。

摩尔定律终结后的AI创新路径

在访谈的最后,黄仁勋再次强调了一个他多次提到的观点:摩尔定律已经终结了。

“我一直在反复强调,摩尔定律已经终结了。从晶体管层面来看,从Hopper到Blackwell,算它提升了75%吧。这两代产品相隔了三年,只有75%的提升。但Blackwell的性能却是Hopper的50倍。”

黄仁勋认为:架构才是决胜的关键。计算机科学至关重要,半导体物理学当然也很重要,但计算机科学本身更为关键。

这是一个极其重要的判断。在摩尔定律时代,性能的提升主要来自于晶体管密度的增加。但现在,晶体管密度的提升速度已经大幅放缓,未来的性能提升将主要来自于架构创新和算法优化。

这一判断与当前AI产业的发展趋势完全一致。过去几年,AI性能的提升主要来自于架构创新,如混合专家模型、Transformer架构、注意力机制等,而不是来自于晶体管密度的增加。据测算,过去十年,AI算法的性能提升了约1000倍,而硬件的性能提升只有约100倍。

黄仁勋还预测,未来推理市场将会出现细分。“我们现在有能力基于响应时间的快慢,为同一个模型划分出不同的服务层级。一直以来,人们总认为高吞吐量才是王道。但我们相信,未来会出现一个超高溢价Token的市场,哪怕数据中心底层的吞吐量较低,高昂的溢价也足以弥补成本。”

这是一个非常有前瞻性的预测。随着AI技术的不断发展,不同的应用场景对响应时间和吞吐量的要求将会越来越多样化。有些场景需要极高的响应速度,愿意为此支付更高的价格;而有些场景则更看重吞吐量,对响应时间不那么敏感。

最后,黄仁勋表示:“我们现在做的,就是我们一直以来在做的事——加速计算。创立这家公司的初衷在于:虽然通用计算在很多场景下很好用,但应对许多特定类型的计算时却显得捉襟见肘。”

最后

这场访谈的价值,不是黄仁勋的个人判断,而是它让我们跳出短期的市场波动和技术热点,看清了AI产业正在发生的底层结构性变化。

我们正在告别那个“只要有模型就能赢”的野蛮生长时代,进入一个比拼全链条能力的精细化竞争阶段。未来的胜负,不取决于单一的芯片性能或模型参数,而是取决于供应链的提前布局能力、能源的稳定获取能力、生态的构建与运营能力,以及对商业本质的深刻理解。

所有技术的演进永远充满了不确定性。今天英伟达的领先,是过去三十年持续投入和正确战略选择的结果,但这不意味着未来的行业格局已经尘埃落定。算法的突破性创新、全新计算架构的出现、甚至是能源技术的革新,都可能在一夜之间改写行业的游戏规则。

对于所有身处这个行业的人而言,最危险的事情莫过于用过去的经验预测未来。保持对技术的敬畏,保持对市场的敏感,不被极端观点裹挟,专注于创造真正的用户价值,才是穿越AI产业周期的唯一途径。