在 4 月 25 日的消息中,英伟达宣布其 Blackwell 平台已成功适配 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 两款模型。开发者们可以通过 NVIDIA NI M 微服务进行下载和部署,或利用 SG Lang 和 vLLM 框架进行定制化推理。
根据英伟达的博文,DeepSeek-V4-Pro 拥有 1.6T 的总参数量和 49B 的激活参数,适用于高水平的推理任务。而 DeepSeek-V4-Flash 版本则具备 284B 的总参数量和 13B 的激活参数,专注于高效的场景应用。
这两款模型均支持 100 万 Token 上下文窗口和最高 38.4 万 Token 的输出长度,适合长文本编码、文档分析等核心应用,并遵循 MIT 开源协议。
实测数据显示,DeepSeek-V4-Pro 在 NVIDIA GB200 NVL72 上开箱即用,性能超出 150 Token/s/User。借助 vLLM 的 day 0 配方,开发者可以在 Blackwell B300 上快速部署。随着 DynaMo、NVFP4 和 CUDA 内核的进一步优化,预计性能将得到显著提升。
在生态部署方面,开发者可通过 NVIDIA NI M 微服务进行下载和部署,或利用 SG Lang 和 vLLM 框架进行定制化推理。SGLang 提供低延迟、均衡和最大吞吐量三种配方,而 vLLM 则支持多节点扩展至 100 个以上的 GPU,具备工具调用和推测解码能力。
