DC娱乐网

国产芯片的“Day 0”胜利:DeepSeek V4发布,寒武纪海光们涨停

2026年4月24日,中国AI的“供电站”正式投运今天中午,DeepSeek官方公众号的更新弹窗,在无数开发者的屏幕上



2026年4月24日,中国AI的“供电站”正式投运

今天中午,DeepSeek官方公众号的更新弹窗,在无数开发者的屏幕上同时亮起。

《DeepSeek-V4 预览版:迈入百万上下文普惠时代》。

被催更三次、延期四个月的V4,终于落地。没有盛大的发布会,没有炫目的演示,只有一行朴素的公告,和一篇58页的技术报告。

但整个中国AI产业链的股价,在七分钟内直线拉升。皖通科技由跌转涨,封死涨停板。浙数文化同步涨停。科创50指数飙涨1.8%。资本市场的反应永远诚实——它们嗅到的不是又一款“国产最强模型”,而是一场基础设施级的变革。

V4-Pro在Apex Shortlist拿到90.2%,Codeforces Rating冲到3206,这些跑分数字重要,却不关键。

真正的分水岭,藏在三个被彻底重构的数字里。

第一个数字:27%。

在百万token上下文场景下,V4-Pro处理单token所需的计算量,只有前代V3.2的27%。关键值缓存占用,压到10%。V4-Flash更极端:计算量10%,缓存7%。

这意味着什么?上下文窗口从128K扩展到1M,理论负载膨胀近八倍,而单token的算力消耗不增反降。

AI行业过去三年的铁律被打破了:能力提升必须以算力膨胀为代价。V4改写了这条公式。这种反向的效率革命,让白皮书里描绘的Agent场景——让AI完整阅读代码库、分析百万字合同、处理跨月对话——突然具备了经济可行性。

第二个数字:0.2元。

V4-Flash的API定价,每百万token输入0.2元起,输出2元。V4-Pro输入1元起,输出12元。

对比坐标必须拉出来。就在前一天,4月23日,OpenAI刚刚上线GPT-5.5。它的输出定价是每百万token30美元,折合人民币超过200元。

200元对2元。100倍的价差。

这不是“性价比高”,这是定价逻辑的根本分野。闭源模型在为垄断溢价付费,开源生态在向边际成本无限趋近。当处理一部《三体》体量的文本,成本从数百美元降至几元人民币,应用场景会从“能做什么”变成“为什么不试试”。

第三个数字:1。

全球第一个完全运行于国产算力平台的万亿参数MoE模型。

DeepSeek-V4的技术报告里,罕见地并列写下了两家芯片厂商的名字:“我们在英伟达GPU和华为昇腾NPU平台上验证了细粒度专家并行方案。” 但推理侧的重心,已明确转向昇腾。华为在发布同日确认,昇腾全系列产品——A2、A3及最新的950超节点,已全面适配V4-Flash与V4-Pro。

黄仁勋数月前的一段评价被反复引用:“这对美国来说将是一个糟糕的结果。” 他的担忧正在成为现实。V4验证了一件事:离开CUDA生态,中国AI的底层算力循环可以独立跑通。这个信号对产业链的冲击,远比模型跑分第一更具颠覆性。

三个数字,指向同一个结论:2026年4月24日,中国AI应用“寒武纪大爆发”的奇点,降临了。

成本阈值:智力成为“水电煤”

寒武纪生命大爆发的前提,是氧气浓度达到了某个临界阈值。

AI应用大爆发的前提,是智力成本降到某个临界阈值。

V4-Flash的0.2元/百万token输入价,就是那个阈值。

开发者算过一笔账:调用一个万亿参数级的开源旗舰模型,处理百万字长文档,单次成本仅需几元人民币。中型企业的法务部门,可以用每月千元预算,让AI审阅全量合同。教育机构能以万元成本,为数千名学生提供个性化的长文本辅导。

成本结构一旦颠覆,应用逻辑随之重构。

过去,Agent开发最大的痛点是上下文管理。任务需要多轮对话,token消耗指数级堆叠,成本与稳定性同步恶化。开发者被迫采用各种工程“绕路”:切分文本、向量检索、人工摘要。每多一层工程封装,就多一分效率损耗和错误风险。

V4给出了最直接的解决方案:把整个代码仓库、完整需求文档、上百轮历史对话,一次性塞进上下文。不再切分,无需检索。

官方在定价中埋藏了更深的意图。缓存命中价格极低:Flash版0.2元,仅为未命中价的五分之一;Pro版1元,是未命中价的十二分之一。这鼓励开发者将系统提示词、工具定义、文档模板等固定内容置于请求头部,让缓存机制自动生效。

而这,恰恰是Agent最典型的调用模式。

成本阈值突破后,智力开始“水电煤化”。它不再是为特定任务采购的“特种资源”,而是像电力、带宽一样,成为随时可取、按需付费的公共基础设施。当智能的边际成本趋近于零,客服、电商、教育、医疗、法律……每一个依赖信息处理的行业,都将被重新定义。

算力独立:从“可用”到“好用”的闭环

芯片的战争,从来不只是制程的战争。

更是生态的战争。

英伟达75.2%的毛利率,近五万亿美元的市值,建立在CUDA生态近乎垄断的护城河之上。过去,所有大模型都在这条护城河里游泳。离开它,万亿参数模型的训练与推理,被视为不可能。

V4把“不可能”变成了“已实现”。

华为昇腾950超节点给出了具体性能数据:运行V4-Pro,在8K输入场景下,单token解码时延约20毫秒,单卡吞吐4700 TPS。运行V4-Flash,时延可压至10毫秒,单卡吞吐1600 TPS。这些数字不是“即将支持”的承诺,而是发布当日的实测结果。

更关键的是工程响应速度。寒武纪在发布当天宣布,已基于vLLM框架完成V4双版本的“Day 0适配”,代码直接开源。华为同步开源了PyPTO编程范式,将新架构中复杂算子的开发周期,从周级缩短到天级。

这不是临时赶工,而是深度咬合。

据此前报道,DeepSeek团队为这次迁移重写了大量核心代码,完成了从CUDA到昇腾CANN框架的整套技术栈替换。这也是V4三次跳票的核心原因之一。代价巨大,意义更深。

当一个万亿参数开源模型,在发布首日就能跑在国产算力全系列产品上,适配代码完全开源——这件事宣告了中国“模型-芯片-云”的正反馈闭环,从“逻辑成立”迈入了“事实成立”的阶段。

芯片企业有了市场验证,敢于投入下一代研发。下一代芯片性能更强、成本更低,反过来拉低模型推理成本,催生更多应用。应用产生数据和反馈,进一步推动模型进化。

独立生态,开始自我强化。

在大洋彼岸,相似的剧情以另一种方式上演。OpenAI在巨额亏损压力下,将“去英伟达化”定为生存战略。它与芯片创企Cerebras签订超200亿美元协议,获得其10%认股权证,实质已成为后者的债权人与大股东。Meta披露自研AI芯片路线图,计划在2027年前部署四款新品,构建“自研+外采”的双轨体系。

全球AI巨头,都在试图挣脱同一副枷锁。

黄仁勋看得清楚。他在最近一次访谈中承认,摩尔定律正在终结,芯片性能的绝对优势窗口不会永恒。限制对华出口,短期或可延缓中国AI发展,长期只会逼迫中国建立完整生态。

V4,就是这个“长期”到来的第一个明确信号。

Agent元年:从“能聊天”到“能干活”

“内部员工使用体验优于Anthropic的Sonnet 4.5,交付质量接近Opus 4.6非思考模式。”

DeepSeek官方对V4-Pro的这句评价,克制,且自信。它主动划出了与Opus 4.6思考模式的差距,却在国产大模型惯常的“全面超越”话术体系中,显得异常扎实。

V4-Pro在Agentic Coding评测中达到开源最佳。它针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent框架,做了专项适配与优化。这份名单同时涵盖海外与国产工具,信号明确:DeepSeek不打算自建应用生态,它要成为Agent时代的基础设施供应商。

这个选择,定义了它的格局。

Anthropic年化收入在四个月内从90亿美元跃至300亿美元,增量几乎全部来自Claude Code。代码编辑器Cursor估值已达600亿美元。应用层的财富就在眼前,但DeepSeek选择转身,去造“供电站”。

长上下文、低价API、专项适配——三位一体,只为解决一个问题:让所有“电器”都能更便宜、更稳定地跑起来。

Agent的本质,是“更可控的大模型调用系统”。它在提示词之上,引入了状态管理、角色设定、工具调用和上下文记忆机制,将模型转化为可分工合作的“数字员工”。过去,这套系统的瓶颈始终是成本与长度。现在,瓶颈被打破了。

百万上下文成为官方服务标配。一个能记住完整项目历史、理解所有关联文档的“数字员工”,终于可以从概念走向生产线。

东吴证券的研判一针见血:DeepSeek-V4在数学逻辑、专业编程、知识理解、智能体应用等核心领域实现突破,综合能力断层领先。其训练架构转向适配国产算力,成为国产大模型拥抱国产算力的关键里程碑。

这不是一次产品迭代。

这是一次定位跃迁。从“追赶模型能力”到“定义生态规则”。

寒武纪已来,谁能幸存?

2025年,行业曾预言AI应用的“寒武纪”即将到来——如同亿万年前那个生命种类急剧膨胀的地质年代,各类AI“物种”将在短时间内多样化爆发。

2026年4月24日,预言照进现实。

奇点降临的条件全部满足:成本低到足以铺量,性能强到足以胜任,生态准备好落地。 这不是线性改良,是相变。

历史的经验冰冷而直接:每一次底层基础设施的质变,都会引爆应用层的寒武纪式爆发。亚马逊AWS将计算成本压到阈值以下,全球SaaS创业潮随之而起。4G资费降至阈值以下,短视频与直播电商时代轰然开启。

今天,DeepSeek-V4将基础智能的成本压到了同一类阈值之下。而它颠覆的,是智力本身。

产业地震的第一波震感,已然传来。

最剧烈的重构发生在算力层。V4适配华为昇腾后,寒武纪、海光信息、摩尔线程等国产芯片企业同步加速。阿里、腾讯、字节等巨头加码采购昇腾芯片。这不是一家模型公司的发布,是一整条国产算力产业链的启动。

资本用脚投票。DeepSeek首次启动外部融资,估值据称已超200亿美元。这更像是一个信号:核心基础设施建成后,为大规模部署储备弹药。

应用层的连锁反应更为深刻。当Agent试错的成本降至几美元,大规模部署首次具备工程合理性。客服、电商、教育、医疗、法律……每一个垂直行业,都将迎来AI原生工作流的彻底改造。

未来竞争的焦点,已从“谁的模型更聪明”转向“谁的生态更繁荣”。

DeepSeek-V4在MIT许可下完全开源。全球任何开发者可本地部署、自由商用、二次开发。这种开放程度,正在加速瓦解闭源巨头的技术护城河。

官方在公告末尾,引用了《荀子·非十二子》中的十六个字:“不诱于誉,不恐于诽,率道而行,端然正己。”

对于一家三次跳票、身处舆论漩涡的公司,这句话是倔强的坚守。

但对于整个正从“依赖进口”迈向“自主可控”的中国AI产业,这句话是所有坚定前行者的共同注脚。

供电站已投运。电流正在输出。

寒武纪的大门,正式敞开。