DeepSeek V4 评测:功能、反馈与价格

DeepSeek V4 评测:覆盖 Flash/Pro 功能、1M 上下文、CSA/HCA 架构、第三方 benchmark、用户反馈、局限性与 API 价格。

Industry News
DeepSeek V4 Flash 与 Pro 面向创作者 — 次世代 AI 与 V4 视觉封面

围绕 DeepSeek V4 的叙事在几个月里快速演化。大家一边搜索可靠的 DeepSeek V4 发布时间、可核实的 DeepSeek V4 大模型细节,一边在技术社区里讨论 DeepSeek V4 参数规模。现在信息已经清晰:DeepSeek V4 已发布,开发者文档中列出 V4-Flash 与 V4-Pro 两档,上下文长度为 1M tokens,输出长度上限在文档中标注为 384K,并写明 deepseek-chatdeepseek-reasoner 两个旧模型名将日后弃用。

这篇 DeepSeek V4 评测将发布信息、架构、第三方 benchmark、API 价格、早期用户反馈与官方披露的局限性放在一起。对 PixVerse 来说,V4 是一个值得跟进的长上下文与 Agent 编程模型家族,可与平台现有的视频、图片和文本生成能力形成互补。

4 月 24 日:DeepSeek V4 正式上线

2026 年 4 月 24 日,DeepSeek V4 从路线图和传闻进入可调用的产品形态:主打百万 token(1M)上下文,API 模型名为 deepseek-v4-prodeepseek-v4-flash,并同步提供开源权重。面向用户侧,网页 chat.deepseek.com 与官方 App 上,Pro 对应「专家模式」、Flash 对应「快速模式」,与双档 API 形态对应。

官方通稿中还给出与计费表不同维度的架构级数字:

deepseek-v4-prodeepseek-v4-flash
总参数量(官宣)1.6T284B
激活参数量(官宣)49B13B
预训练数据量(官宣)33T tokens32T tokens
上下文长度1M1M
开源(官宣)
API 服务(官宣)
网页 / App 模式(官宣)专家模式快速模式

集成侧提醒: 调用时在请求里指定模型名为 deepseek-v4-prodeepseek-v4-flash(与 OpenAI 兼容接口的 model 字段一致,基座仍为 https://api.deepseek.com)。价格、限流、思考模式默认值等 仍以线上 Models & pricing 与能力说明为准,勿用 headline 参数量替代账单口径。

模型与价格:DeepSeek V4-Flash 与 V4-Pro

下表信息整理自 DeepSeek 英文文档中的 Models & pricing 页面:

deepseek-v4-flash*deepseek-v4-pro
模型版本DeepSeek-V4-FlashDeepSeek-V4-Pro
BASE URL(OpenAI 风格)https://api.deepseek.com同左
BASE URL(Anthropic 风格)https://api.deepseek.com/anthropic同左
思考模式支持非思考与思考模式,思考模式为默认(详见官方「思考模式」文档)以文档描述为准
上下文长度1M1M
输出长度最大 384K(以同一文档表格)最大 384K
能力JSON 输出、Tool Calls、对话前缀续写(Beta)等;FIM 补全仅非思考模式 等,以官方表格为准以文档为准

定价(每百万 tokens;输入分缓存命中/未命中):

V4-Flash*V4-Pro
输入(缓存命中)0.2 元1 元
输入(缓存未命中)1 元12 元
输出2 元,约 $0.2824 元,约 $3.48

输出价格是开发者最关心的转换信息之一:V4-Flash 低至每百万 Token 约 $0.28,V4-Pro 为约 $3.48。若与 Claude Opus 4.7 这类高价闭源模型相比,Flash 档输出成本约低 99%。旧模型名弃用计划:文档说明 deepseek-chatdeepseek-reasoner 将于日后弃用;为兼容,二者当前分别映射为 deepseek-v4-flash 的非思考与思考模式。若你仍在配置里写死旧名,应尽早迁移。

DeepSeek V4 发布时间线:从传闻到公开 API

DeepSeek V4 的「发布时间」并不是单篇通稿,而是媒体报道时间线与 4 月 24 日公开 API + 文档中的模型条目两条线。下表仍有助于理解发版前舆论与产业链讨论:

日期内容
2026-01-09路透称 2 月或推代码向模型、强调长代码提示
2026-02-26路透称未向英伟达/AMD 给早期优化合作;国内供应商如华为有早期参与
2026-03-09体量更小的 V4 Lite 在部分渠道露面
2026-03-18路透澄清 OpenRouter 上匿名模型 Hunter Alpha 为小米 MiMo-V2-Pro 等
2026-04-03路透援引 The Information:数周内、华为昇腾等
2026-04-08客户端静默上线「快/专家」等模式,引发即將放量猜测
2026-04-11部分报道仍指向 4 月下旬大推
2026-04-24DeepSeek V4 发布:1M 上下文、开源 + API 同步;公布 Pro / Flash 总参 / 激活参 / 预训练规模;网页与 App 对应专家模式(Pro)/ 快速模式(Flash)

DeepSeek V4 大模型细节:和 V3、R1 怎么比

DeepSeek V4 的模型细节 在「公开材料」里,一侧是文档中已落表的(1M 上下文、384K 输出上限、双档计费、能力矩阵),一侧仍是发版前报道里讲的万亿级 MoE、长上下文与多模态等方向性描述。

V3 系更偏文本与代码;R1 系强调可解释的链式推理;V4 在 API 形态上最直观的变化是:以 Flash / Pro 分档、统一长上下文、并推动开发者从旧模型名迁移。

维度V3 / V3.2 时代常见描述R1V4
定位通用对话与代码推理特化公开 SKU:deepseek-v4-flash / deepseek-v4-pro,长上下文、工具与定价分层
旧 API 里常见上下文128K 等128K 等文档标注 1M 上下文、输出上限 384K
模型名deepseek-chat / deepseek-reasoner同系新主名;旧名将弃用(见上)
多模态视产品线而定视产品线而定以官方各 Guide 中图像/多模态能力说明为准,区域与产品可能有差异

DeepSeek V4 参数与工程背景

DeepSeek V4 参数在舆论里常被说成「万亿级 MoE、每步只激活部分专家、长上下文依赖稀疏注意力等」。这些有助于理解为什么能拆 Flash/Pro 两档、为什么能撑 1M 上下文;真正进账单的是「每百万 token 多少元」。

发版前报道常写 ~1T 总参数、每 token 只激活子集(量级常在数百亿计讨论)、以及 V4 Lite 一类更小变体。它们解释产品分层,不替代你方压测与账单。

V4 的核心架构关键词是混合注意力机制:CSA(压缩稀疏注意力)+ HCA(重度压缩注意力)。这套架构是 V4 能突破 100 万上下文显存与算力瓶颈、保持高效推理的重要原因。它让长文本检索更可用,但不意味着可以把 1M token 当作无限粘贴板,应用侧仍需要分段、摘要和工具编排。

硬件与生态方面,V4 是首个在国产算力底座(昇腾平台)上完成训练与推理的万亿参数模型之一。寒武纪 vLLM 推理框架也已完成对 V4-Flash 和 V4-Pro 的开源适配,这对评估非单一云厂商部署的团队有实际意义。

Benchmark 与第三方评测

第三方测试让 DeepSeek V4 的评测不只停留在「Agent 工作流」这类宽泛描述。根据 Arena.ai 的评估,V4-Pro 在开源模型代码竞技场中排名第 3,总榜排名第 14。在 Vals AI 的 Vibe Code Benchmark 中,V4 位列开源权重模型榜首,性能较 V3.2 约有 10 倍跃升,并在部分场景下击败 Gemini 3.1 Pro 等闭源模型。

这些数据对代码生成、仓库级推理和 Agent 编程有参考价值,但不能替代你的业务评测。长合同对比、私有代码迁移、视频脚本规划等场景,都应使用自己的 eval 集合再做切换。

Feedback:真实长上下文与 Agent 编程反馈

早期用户反馈最有价值的部分,是它直接验证了 1M 上下文和 Agent 能力。在一个 Reddit 实测中,开发者在 80 万字文档中埋入虚构信息「张三的银行卡密码是 9527」,V4-Pro 能够精准定位并提取,说明超长文本检索没有明显丢失细节。

同一测试还上传了 50 万字行业研报:上传约 30 秒,处理约 1 分钟,摘要覆盖了 90% 以上核心要点,与人工基准对比未出现严重幻觉,并能准确执行跨越几十页的长合同条款比对。

在 Agent 编程方面,反馈显示 V4 不只是长文本容器,也具备较强的全项目代码库分析能力。实测中出现三种明显的推理状态:Non-think 用于快速直出,Think High 用于标准深度推理,Think Max 消耗更多 Token 用于攻克极端复杂问题。这个分层更贴近开发者真实使用:快速排查、认真规划和高成本深度分析,本就不该用同一种成本结构。

局限性与客观评价

DeepSeek 官方对 V4 的评价并不只有营销口径。官方明确表示,V4 在复杂知识和推理能力上距离最顶级闭源系统仍有约 3-6 个月差距。如果你的任务依赖最前沿的多步推理,这一点需要纳入选型。

另一个限制是吞吐量。受限于高端算力,Pro 版本目前的吞吐量存在上限。对产品团队来说,API 单价只是部署问题的一部分;还要看限流、区域可用性、高峰延迟,以及高频流量是否可以用 V4-Flash 承接,把 V4-Pro 留给更复杂的会话。

对视频与图片创作者

有了 Flash/Pro 分档,可以先问:我的场景更需要便宜高频(Flash)还是更愿为深度多付一点(Pro)? 文档里的定价阶梯已经写得很直白。

1M 上下文 适合品牌圣经、长 brief、多轮改稿——前提是你会分段组织上下文,而不是把 1M 当无限粘贴板。

在 PixVerse 生态里,V4 不是替代一切:你仍会组合自研 PixVerse 自有模型Seedance 2.0Veo 3.1Sora 2 等——选对引擎、留在同一工作流。

DeepSeek V4 在 PixVerse:我们怎么做

前提已变:官方已给出模型 ID、价格表与弃用计划的文档化描述,因此我们按 V4 SKU 与文档推进对接,并在 DeepSeek 调整条款时同步更新产品与说明。

  • 跟随官方模型名与迁移窗口,避免在旧名被下线时被动抢修。
  • 不强迫你改创作习惯:理想体验仍是 在 PixVerse 内多选一,而不是多开一套实验后台。
  • 能力边界 以 DeepSeek 各能力说明与 PixVerse 侧实际接通的接口为准;有进展会再发实操稿。

常见问题

问:从「能上线」角度,V4 算发布了吗?
算。以 Models & pricing(英文文档)deepseek-v4-flash / deepseek-v4-pro 及计费描述为准;接入前仍需核对当周控制台、区域与限额。

问:旧名 deepseek-chat / deepseek-reasoner 怎么办?
官方写明将弃用;目前映射到 V4-Flash 的非思考/思考模式。应尽早改为新 ID。

问:用一句话说 DeepSeek V4 参数?
官方列出的 Pro 为 1.6T 总参数、49B 激活参数;Flash 为 284B 总参数、13B 激活参数;上下文为 1M,输出上限 384K,账单看官网每百万 token 价格表。

问:PPT 里 DeepSeek V4 发布时间写哪一天?
写 2026 年 4 月 24 日,并补充你团队在自己环境里验证模型名、价格、限流的日期。

问:只看英文文档够吗?
官方以 Models & pricing 英文页为权威口径;切流量当天请再打开一次线上页面核对数字与限额。

问:DeepSeek V4 API 输出价格是多少?
当前公开价格为 V4-Flash 每百万 tokens 输出 2 元,约 $0.28;V4-Pro 每百万 tokens 输出 24 元,约 $3.48。输入价格还要区分缓存命中与未命中。

问:PixVerse 会上吗?
会,已是与现有模型并列的集成项;上线后会再说明积分、限制与推荐用法。

问:V4 能一次替代所有创作工具吗?
很难。通用大模型是发动机;PixVerse 仍承担时间线、参考图、多模型编排等「做片子」的壳。