在刚刚过去的4月24日,DeepSeek正式宣布推出其全新系列模型DeepSeek-V4的预览版本,并同步开源。
DeepSeek-V4具备超过百万字的上下文理解能力,在代理的能力、知识获取和推理性能上均实现了国内及开源领域的领先地位。
该模型分为两个版本:DeepSeek-V4-Pro和DeepSeek-V4-Flash。

API服务已更新,通过将Model_name更改为deepseek-v4-Pro或deepseek-v4-flash即可进行调用。
DeepSeek-V4引入了一种创新的注意力机制,通过对Token维度进行压缩,并结合DSA稀疏注意力,实现了全球领先的长上下文能力,并显著降低了计算和存储需求。百万字上下文将成为DeepSeek所有官方服务的标准配置。
具体来看,DeepSeek-V4-Pro的代理能力得到了显著提升。在Agentic Coding的评测中,V4-Pro已达到当前开源模型的最佳水平,并在其他相关评测中展现出优异表现。目前,DeepSeek-V4已成为公司内部员工使用的Agentic Coding模型,其使用体验优于Sonnet 4.5,交付质量接近OpUS 4.6,但与OpUS 4.6的思考模式仍存在差距。
DeepSeek-V4-Pro在全球知识评测中大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
在数学、STEM和竞赛型代码的评测中,DeepSeek-V4-Pro超越了所有已公开评测的开源模型,取得了与顶级闭源模型相媲美的优异成绩。
相比之下,DeepSeek-V4-Flash在全球知识储备方面略逊一筹,但展现了接近的推理能力。由于模型参数和激活较小,V4-Flash能够提供更加快捷和经济的API服务。
在Agent评测中,DeepSeek-V4-Flash在简单任务上与DeepSeek-V4-Pro表现相当,但在高难度任务上仍显示出差距。