DC娱乐网

就在刚刚,1000倍!谷歌算力,或进入资本大周期?(概念股名单)

“我们必须每6个月将算力容量翻倍——未来4到5年,目标是实现1000倍能力提升。”就在周末,谷歌云AI基础设施负责人Am

“我们必须每6个月将算力容量翻倍——未来4到5年,目标是实现1000倍能力提升。”就在周末,谷歌云AI基础设施负责人Amin Vahdat在内部会议上抛出一句看似冷静却分量足的话。

根据谷歌目前AI的发展情况来看,这可能这不是口号,而是一份计划。当然该目标为谷歌内部技术路线展望,实际落地受限于工艺、能耗、应用场景等多重因素。

在过去两年,AI行业的聚光灯始终聚焦于“GPT vs Gemini”、“千亿参数 vs 多模态能力”这类表层对决。

但谷歌正在悄悄构建一个更底层、更庞大的系统工程,它不再只是比谁的模型更大,而是在比谁的“AI工厂”更高效、更可持续、更能触达真实用户。

一、大模型只是冰山一角

很多人以为AI竞赛的核心是算法和模型,但在谷歌看来,“水下”算力、存储、网络、能效,以及它们之间的极致协同。

以谷歌最新一代自研芯片TPU“Ironwood”为例,其在内部测试中已实现:

每瓦特推理性能提升6倍,训练效率提升3.8倍

这不仅是芯片的进步,更可能是整套基础设施的跃迁。

配合其自研的光互联架构“Helix”,AI集群间的通信延迟被压缩至微秒级,让万卡规模的集群扩展效率逼近理论极限——几乎线性增长。

更关键的是,谷歌正全面转向“AI原生数据中心”设计:

从冷却系统到供电架构,从布线布局到机柜结构,全部围绕TPU进行深度优化。

结果?整体PUE(能源使用效率)低至1.08,远优于行业平均的1.55。

这意味着,在同样的电力投入下,谷歌可能能跑出近50%更多有效算力。

二、AI的用户在哪里

再强的模型,若没有真实用户交互,终归是空中楼阁。

而谷歌的优势恰恰在于。它拥有一个每天触达数十亿人的超级生态。

截至2025年第三季度(Statista数据),Gemini应用的月活跃用户已达6.5亿,较年初暴增210%。这个数字或许不如OpenAI宣称的“8亿周活”耀眼,但需注意两点关键差异:

周活 ≠ 月活:8亿周活若换算为月活,实际可能低于6亿;

集成深度不同:ChatGPT主要依赖独立App或网页端,而Gemini已深度嵌入谷歌的“操作系统+搜索+视频+广告”全链路。

具体来看:

Android 16(覆盖全球32亿设备)原生集成Gemini;

Gmail智能回复、YouTube内容理解、Google Search实时推理等场景全面启用;

用户日均交互频次高达4.7次,远超ChatGPT的1.2次(SimilarWeb数据)。

相比ChatGPT更依赖独立入口,Gemini的策略是通过系统级集成提升用户粘性,两者路径不同,各有优劣。

当AI成为用户日常行为的一部分,粘性与商业价值自然水涨船高。

三、谷歌的算力

市场普遍认为,AI算力扩张 = 采购英伟达GPU + 组装服务器。

但谷歌已走上另一条路:垂直整合 + 极致定制。

它不再采购标准AI服务器,而是将详细设计图纸直接发给少数几家ODM厂商,要求“照图制造”,甚至对公差控制到0.1毫米以内。

从芯片(TPU)、整机、机柜到数据中心,全部自研或深度定制。

这种模式虽然前期投入巨大,但长期看,它带来了三大优势:

成本可控:摆脱对通用硬件的依赖;

性能极致:软硬协同优化,效率最大化;

供应链安全:减少地缘政治风险。

这也意味着,谷歌的算力扩张并非简单堆量,而是一场精密的“工业级重构”。

对于我们而言,与其紧盯模型参数,或许不如关注其背后产业链上的核心供应商。

写在最后

Gemini 3或许不是当前参数最大、benchmark分数最高的模型,但它背后站着一个现金流健康、用户基数庞大、算力持续指数增长的科技巨头。

谷歌的AI战略,从来不是一场短跑冲刺,而是一场马拉松式的系统工程。

它不靠单一技术突破取胜,而是通过芯片+基础设施+操作系统+应用场景的四重闭环,构建难以复制的护城河。

在AI投资的下半场,机会或许不在“谁发布了新模型”,而在“谁真正把AI变成了水电煤一样的基础设施”。

特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。

如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是笔者坚持的动力~

评论列表

用户16xxx16
用户16xxx16 1
2025-11-24 04:40