DeepSeek V4 评测:功能、反馈与价格
DeepSeek V4 评测:覆盖 Flash/Pro 功能、1M 上下文、CSA/HCA 架构、第三方 benchmark、用户反馈、局限性与 API 价格。
围绕 DeepSeek V4 的叙事在几个月里快速演化。大家一边搜索可靠的 DeepSeek V4 发布时间、可核实的 DeepSeek V4 大模型细节,一边在技术社区里讨论 DeepSeek V4 参数规模。现在信息已经清晰:DeepSeek V4 已发布,开发者文档中列出 V4-Flash 与 V4-Pro 两档,上下文长度为 1M tokens,输出长度上限在文档中标注为 384K,并写明 deepseek-chat 与 deepseek-reasoner 两个旧模型名将日后弃用。
这篇 DeepSeek V4 评测将发布信息、架构、第三方 benchmark、API 价格、早期用户反馈与官方披露的局限性放在一起。对 PixVerse 来说,V4 是一个值得跟进的长上下文与 Agent 编程模型家族,可与平台现有的视频、图片和文本生成能力形成互补。
4 月 24 日:DeepSeek V4 正式上线
2026 年 4 月 24 日,DeepSeek V4 从路线图和传闻进入可调用的产品形态:主打百万 token(1M)上下文,API 模型名为 deepseek-v4-pro 与 deepseek-v4-flash,并同步提供开源权重。面向用户侧,网页 chat.deepseek.com 与官方 App 上,Pro 对应「专家模式」、Flash 对应「快速模式」,与双档 API 形态对应。
官方通稿中还给出与计费表不同维度的架构级数字:
| deepseek-v4-pro | deepseek-v4-flash | |
|---|---|---|
| 总参数量(官宣) | 1.6T | 284B |
| 激活参数量(官宣) | 49B | 13B |
| 预训练数据量(官宣) | 33T tokens | 32T tokens |
| 上下文长度 | 1M | 1M |
| 开源(官宣) | 是 | 是 |
| API 服务(官宣) | 是 | 是 |
| 网页 / App 模式(官宣) | 专家模式 | 快速模式 |
集成侧提醒: 调用时在请求里指定模型名为 deepseek-v4-pro 或 deepseek-v4-flash(与 OpenAI 兼容接口的 model 字段一致,基座仍为 https://api.deepseek.com)。价格、限流、思考模式默认值等 仍以线上 Models & pricing 与能力说明为准,勿用 headline 参数量替代账单口径。
模型与价格:DeepSeek V4-Flash 与 V4-Pro
下表信息整理自 DeepSeek 英文文档中的 Models & pricing 页面:
| deepseek-v4-flash* | deepseek-v4-pro | |
|---|---|---|
| 模型版本 | DeepSeek-V4-Flash | DeepSeek-V4-Pro |
| BASE URL(OpenAI 风格) | https://api.deepseek.com | 同左 |
| BASE URL(Anthropic 风格) | https://api.deepseek.com/anthropic | 同左 |
| 思考模式 | 支持非思考与思考模式,思考模式为默认(详见官方「思考模式」文档) | 以文档描述为准 |
| 上下文长度 | 1M | 1M |
| 输出长度 | 最大 384K(以同一文档表格) | 最大 384K |
| 能力 | JSON 输出、Tool Calls、对话前缀续写(Beta)等;FIM 补全仅非思考模式 等,以官方表格为准 | 以文档为准 |
定价(每百万 tokens;输入分缓存命中/未命中):
| V4-Flash* | V4-Pro | |
|---|---|---|
| 输入(缓存命中) | 0.2 元 | 1 元 |
| 输入(缓存未命中) | 1 元 | 12 元 |
| 输出 | 2 元,约 $0.28 | 24 元,约 $3.48 |
输出价格是开发者最关心的转换信息之一:V4-Flash 低至每百万 Token 约 $0.28,V4-Pro 为约 $3.48。若与 Claude Opus 4.7 这类高价闭源模型相比,Flash 档输出成本约低 99%。旧模型名弃用计划:文档说明 deepseek-chat 与 deepseek-reasoner 将于日后弃用;为兼容,二者当前分别映射为 deepseek-v4-flash 的非思考与思考模式。若你仍在配置里写死旧名,应尽早迁移。
DeepSeek V4 发布时间线:从传闻到公开 API
DeepSeek V4 的「发布时间」并不是单篇通稿,而是媒体报道时间线与 4 月 24 日公开 API + 文档中的模型条目两条线。下表仍有助于理解发版前舆论与产业链讨论:
| 日期 | 内容 |
|---|---|
| 2026-01-09 | 路透称 2 月或推代码向模型、强调长代码提示 |
| 2026-02-26 | 路透称未向英伟达/AMD 给早期优化合作;国内供应商如华为有早期参与 |
| 2026-03-09 | 体量更小的 V4 Lite 在部分渠道露面 |
| 2026-03-18 | 路透澄清 OpenRouter 上匿名模型 Hunter Alpha 为小米 MiMo-V2-Pro 等 |
| 2026-04-03 | 路透援引 The Information:数周内、华为昇腾等 |
| 2026-04-08 | 客户端静默上线「快/专家」等模式,引发即將放量猜测 |
| 2026-04-11 | 部分报道仍指向 4 月下旬大推 |
| 2026-04-24 | DeepSeek V4 发布:1M 上下文、开源 + API 同步;公布 Pro / Flash 总参 / 激活参 / 预训练规模;网页与 App 对应专家模式(Pro)/ 快速模式(Flash) |
DeepSeek V4 大模型细节:和 V3、R1 怎么比
DeepSeek V4 的模型细节 在「公开材料」里,一侧是文档中已落表的(1M 上下文、384K 输出上限、双档计费、能力矩阵),一侧仍是发版前报道里讲的万亿级 MoE、长上下文与多模态等方向性描述。
V3 系更偏文本与代码;R1 系强调可解释的链式推理;V4 在 API 形态上最直观的变化是:以 Flash / Pro 分档、统一长上下文、并推动开发者从旧模型名迁移。
| 维度 | V3 / V3.2 时代常见描述 | R1 | V4 |
|---|---|---|---|
| 定位 | 通用对话与代码 | 推理特化 | 公开 SKU:deepseek-v4-flash / deepseek-v4-pro,长上下文、工具与定价分层 |
| 旧 API 里常见上下文 | 128K 等 | 128K 等 | 文档标注 1M 上下文、输出上限 384K |
| 模型名 | deepseek-chat / deepseek-reasoner 等 | 同系 | 新主名;旧名将弃用(见上) |
| 多模态 | 视产品线而定 | 视产品线而定 | 以官方各 Guide 中图像/多模态能力说明为准,区域与产品可能有差异 |
DeepSeek V4 参数与工程背景
DeepSeek V4 参数在舆论里常被说成「万亿级 MoE、每步只激活部分专家、长上下文依赖稀疏注意力等」。这些有助于理解为什么能拆 Flash/Pro 两档、为什么能撑 1M 上下文;真正进账单的是「每百万 token 多少元」。
发版前报道常写 ~1T 总参数、每 token 只激活子集(量级常在数百亿计讨论)、以及 V4 Lite 一类更小变体。它们解释产品分层,不替代你方压测与账单。
V4 的核心架构关键词是混合注意力机制:CSA(压缩稀疏注意力)+ HCA(重度压缩注意力)。这套架构是 V4 能突破 100 万上下文显存与算力瓶颈、保持高效推理的重要原因。它让长文本检索更可用,但不意味着可以把 1M token 当作无限粘贴板,应用侧仍需要分段、摘要和工具编排。
硬件与生态方面,V4 是首个在国产算力底座(昇腾平台)上完成训练与推理的万亿参数模型之一。寒武纪 vLLM 推理框架也已完成对 V4-Flash 和 V4-Pro 的开源适配,这对评估非单一云厂商部署的团队有实际意义。
Benchmark 与第三方评测
第三方测试让 DeepSeek V4 的评测不只停留在「Agent 工作流」这类宽泛描述。根据 Arena.ai 的评估,V4-Pro 在开源模型代码竞技场中排名第 3,总榜排名第 14。在 Vals AI 的 Vibe Code Benchmark 中,V4 位列开源权重模型榜首,性能较 V3.2 约有 10 倍跃升,并在部分场景下击败 Gemini 3.1 Pro 等闭源模型。
这些数据对代码生成、仓库级推理和 Agent 编程有参考价值,但不能替代你的业务评测。长合同对比、私有代码迁移、视频脚本规划等场景,都应使用自己的 eval 集合再做切换。
Feedback:真实长上下文与 Agent 编程反馈
早期用户反馈最有价值的部分,是它直接验证了 1M 上下文和 Agent 能力。在一个 Reddit 实测中,开发者在 80 万字文档中埋入虚构信息「张三的银行卡密码是 9527」,V4-Pro 能够精准定位并提取,说明超长文本检索没有明显丢失细节。
同一测试还上传了 50 万字行业研报:上传约 30 秒,处理约 1 分钟,摘要覆盖了 90% 以上核心要点,与人工基准对比未出现严重幻觉,并能准确执行跨越几十页的长合同条款比对。
在 Agent 编程方面,反馈显示 V4 不只是长文本容器,也具备较强的全项目代码库分析能力。实测中出现三种明显的推理状态:Non-think 用于快速直出,Think High 用于标准深度推理,Think Max 消耗更多 Token 用于攻克极端复杂问题。这个分层更贴近开发者真实使用:快速排查、认真规划和高成本深度分析,本就不该用同一种成本结构。
局限性与客观评价
DeepSeek 官方对 V4 的评价并不只有营销口径。官方明确表示,V4 在复杂知识和推理能力上距离最顶级闭源系统仍有约 3-6 个月差距。如果你的任务依赖最前沿的多步推理,这一点需要纳入选型。
另一个限制是吞吐量。受限于高端算力,Pro 版本目前的吞吐量存在上限。对产品团队来说,API 单价只是部署问题的一部分;还要看限流、区域可用性、高峰延迟,以及高频流量是否可以用 V4-Flash 承接,把 V4-Pro 留给更复杂的会话。
对视频与图片创作者
有了 Flash/Pro 分档,可以先问:我的场景更需要便宜高频(Flash)还是更愿为深度多付一点(Pro)? 文档里的定价阶梯已经写得很直白。
1M 上下文 适合品牌圣经、长 brief、多轮改稿——前提是你会分段组织上下文,而不是把 1M 当无限粘贴板。
在 PixVerse 生态里,V4 不是替代一切:你仍会组合自研 PixVerse 自有模型 与 Seedance 2.0、Veo 3.1、Sora 2 等——选对引擎、留在同一工作流。
DeepSeek V4 在 PixVerse:我们怎么做
前提已变:官方已给出模型 ID、价格表与弃用计划的文档化描述,因此我们按 V4 SKU 与文档推进对接,并在 DeepSeek 调整条款时同步更新产品与说明。
- 跟随官方模型名与迁移窗口,避免在旧名被下线时被动抢修。
- 不强迫你改创作习惯:理想体验仍是 在 PixVerse 内多选一,而不是多开一套实验后台。
- 能力边界 以 DeepSeek 各能力说明与 PixVerse 侧实际接通的接口为准;有进展会再发实操稿。
常见问题
问:从「能上线」角度,V4 算发布了吗?
算。以 Models & pricing(英文文档) 中 deepseek-v4-flash / deepseek-v4-pro 及计费描述为准;接入前仍需核对当周控制台、区域与限额。
问:旧名 deepseek-chat / deepseek-reasoner 怎么办?
官方写明将弃用;目前映射到 V4-Flash 的非思考/思考模式。应尽早改为新 ID。
问:用一句话说 DeepSeek V4 参数?
官方列出的 Pro 为 1.6T 总参数、49B 激活参数;Flash 为 284B 总参数、13B 激活参数;上下文为 1M,输出上限 384K,账单看官网每百万 token 价格表。
问:PPT 里 DeepSeek V4 发布时间写哪一天?
写 2026 年 4 月 24 日,并补充你团队在自己环境里验证模型名、价格、限流的日期。
问:只看英文文档够吗?
官方以 Models & pricing 英文页为权威口径;切流量当天请再打开一次线上页面核对数字与限额。
问:DeepSeek V4 API 输出价格是多少?
当前公开价格为 V4-Flash 每百万 tokens 输出 2 元,约 $0.28;V4-Pro 每百万 tokens 输出 24 元,约 $3.48。输入价格还要区分缓存命中与未命中。
问:PixVerse 会上吗?
会,已是与现有模型并列的集成项;上线后会再说明积分、限制与推荐用法。
问:V4 能一次替代所有创作工具吗?
很难。通用大模型是发动机;PixVerse 仍承担时间线、参考图、多模型编排等「做片子」的壳。