DC娱乐网

DeepSeek-V4 大模型预览版今日正式上线并同步开源,标配 1M(百万 t

DeepSeek-V4 大模型预览版今日正式上线并同步开源,标配 1M(百万 token)超长上下文的设计,在 Agent 能力、世界知识储备与复杂推理性能上,均达到国内及开源领域的领先水平。其中 DeepSeek-V4-Pro 作为旗舰版本,总参数 1.6T、激活参数 49B、预训练数据 33T,主打顶级性能。在 Agent 能力上,它的 Agentic Coding 表现达到当前开源模型最佳水平,内部评测反馈显示,其使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,仅与 Opus 4.6 思考模式存在一定差距;在知识与推理领域,它在 SimpleQA-Verified、HLE、Apex Shortlist 等知识类评测中大幅领先其他开源模型,仅稍逊于 Gemini-3.1-Pro-High,同时在 Codeforces、SWE Verified、Terminal Bench 2.0、Toolathlon 等推理与 Agent 任务评测中,成绩对标甚至超越 GPT-5.4、Claude Opus 4.6等闭源模型,Codeforces 评分达 3206,Apex Shortlist 通过率达 90.2%,展现出比肩世界顶级闭源模型的推理实力。DeepSeek-V4-Flash 则是轻量化高效版本,总参数 284B、激活参数 13B、预训练数据 32T,主打更低成本与更快响应。相比 Pro 版,它在世界知识储备上稍逊一筹,但推理能力差距不大,在 Codeforces、SWE Verified 等核心评测中仍保持了接近 Pro 的水平;在 Agent 任务中,简单场景下与 Pro 表现旗鼓相当,仅高难度任务存在一定差距,凭借更小的参数与激活规模,它能提供更快捷、实惠的 API 服务,更适合日常轻量场景使用。两款模型均标配 1M 超长上下文,得益于 DeepSeek-V4 开创的全新注意力机制,结合 DSA 稀疏注意力技术,在 token 维度实现高效压缩,大幅降低了长上下文场景下的计算与显存需求,让百万级上下文能力真正普惠。同时,DeepSeek-V4 已针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品完成适配优化,在代码任务、文档生成等场景的表现均有提升。

DeepSeekV4发布