在 4 月 25 日,英伟达宣布其 Blackwell 平台已成功适配 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 两款模型。开发者们可以通过 NVIDIA NI M 微服务下载与部署,或利用 SG Lang 和 vLLM 框架进行个性化推理。
根据英伟达的博文,DeepSeek-V4-Pro 拥有 1.6T 的总参数量及 49B 的激活参数,适用于高水平的推理任务。而 DeepSeek-V4-Flash 则具备 284B 的总参数量和 13B 的激活参数,专注于高效的场景应用。

这两款模型均支持 100 万 Token 的上下文窗口以及最高 38.4 万 Token 的输出长度,特别适合长文本编码和文档分析等核心应用,并遵循 MIT 开源协议。
实测数据显示,DeepSeek-V4-Pro 在 NVIDIA GB200 NVL72 上开箱即用,性能超过 150 Token/s/User。开发者借助 vLLM 的 day 0 配方,可以在 Blackwell B300 上迅速部署。随着 DynaMo、NVFP4 和 CUDA 内核的持续优化,预计性能将显著提升。
在生态部署方面,开发者可通过 NVIDIA NI M 微服务进行下载和部署,或利用 SG Lang 和 vLLM 框架实现个性化推理。SGLang 提供低延迟、均衡和最大吞吐量三种配方,而 vLLM 则支持多节点扩展至 100 个以上的 GPU,具备工具调用和推测解码能力。