DC娱乐网

国产 AI 开启"万亿时代"!美团、DeepSeek 同日发布新一代大模型 中

国产 AI 开启"万亿时代"!美团、DeepSeek 同日发布新一代大模型

中国 AI 圈过年了!就在 4 月 24 日,美团 LongCat-2.0-Preview 和 DeepSeek V4 竟然同日发布,且两款模型的总参数规模双双突破万亿大关。这种“并驾齐驱”的态势,标志着国产大模型正式从千亿级跃迁至万亿级的新周期,更在核心技术架构与算力底座上实现了自主可控的规模化验证。

技术指标:SOTA级Agent能力与1.6T MoE架构

从技术解析角度看,这两款模型呈现出极高的技术一致性与前瞻性。LongCat 2.0 采用了主流的 1.6T MoE(混合专家)架构,每 Token 激活参数约 48B。通过 N-gram Embeddings 与轻量级稀疏注意力(Lighter Sparse Attention)技术,该模型在维持万亿知识容量的同时,显著提升了推理效率。

更值得关注的是,两款模型均支持 1M(百万级)上下文窗口,其单次推理的处理量级已能对标国际顶尖的 GPT-5.5。这种长文本处理能力与深度优化的 Agent 逻辑,使其在代码生成、复杂任务规划及企业自动化场景中,展现出了行业领先的 SOTA 性能。

国产算力集群支撑万亿参数训练

本次发布的深层意义在于国产算力生态的成熟。美团 LongCat 2.0 的训练全程依托国产算力集群完成,训练阶段动用的算力卡数量高达 5 万至 6 万张。这是迄今为止在国产算力平台上完成的规模最大的训练任务。

这种大规模集群的稳定运行,有力验证了国产自主算力在支撑超大规模模型训练上的可靠性。这不仅是模型层面的竞技,更是中国 AI 产业链从底层芯片到顶层算法全链路闭环的胜利。美团多年来在算力层(投资摩尔线程、沐曦股份等)与模型层(投资智谱AI、月之暗面等)的全栈布局,终于在这一刻完成了技术爆发。

市场普惠:每天1000万免费Token的战略意义

在商业策略上,美团通过 LongCat 官网 每天为用户提供 1000 万免费 Token。这种高强度的普惠策略,意在降低万亿级模型的使用门槛,加速“物理世界 AI 底座”的落地。对于开发者和企业用户而言,两强并进的市场格局提供了更优质的技术选择,也预示着国产 AI 正在加速进入应用爆发期。

看到国产大模型集体卷向“全球顶尖行列”,这种并驾齐驱的势头确实让人感叹:中国 AI 的技术储备和爆发力,远超外界想象。