2026 年 4 月 24 日,DeepSeek 正式发布全新系列模型 DeepSeek-V4 预览版,并同步开源。该模型拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。
核心能力亮点
- 百万 token 超长上下文:从现在开始,1M 上下文将成为 DeepSeek 所有官方服务的标配
- 全新注意力机制:开创性在 token 维度进行压缩,结合 DSA 稀疏注意力,实现全球领先的长上下文能力
- Agent 能力显著增强:在 AgenticCoding 评测中达到开源模型最佳水平
- 世界知识领先:大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1
双版本策略:Pro 与 Flash
DeepSeek-V4 分为两个版本:
| 版本 | 特点 | 适用场景 |
|---|---|---|
| V4-Pro | 参数更大,性能更强 | 复杂 Agent 任务、高难度推理 |
| V4-Flash | 参数更小,速度更快 | 日常对话、快速响应 |
两个版本均支持 1M 超长上下文,同时支持非思考模式与思考模式。
性能提升:成本暴降 73%
- 推理性价比提升
- 推断速度提升35 倍
- 推理成本暴降73%
- 首次实现对华为昇腾芯片的同步深度适配,适配数高达 85% 的国产芯片
全面开源与 API 支持
DeepSeek-V4 已同步在 HuggingFace 和 ModelScope 开源,API 已同步上线 V4-Pro 和 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。
调用方式:base_url 不变,只需将 model 参数改为 deepseek-v4-pro 或deepseek-v4-flash即可。
主流 Agent 产品适配
DeepSeek-V4 针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。
正文完