本文由 资源共享网 – ziyuan 发布,转载请注明出处,如有问题请联系我们![免费]时隔15个月重磅归来:DeepSeek-V4预览版正式上线,百万上下文成标配
收藏百万token吞吐能力突破10倍,与华为昇腾深度适配,依然是那个“价格屠夫”。
4月24日,深度求索正式推出新一代大语言模型——DeepSeek-V4预览版,同步向全球开源。这是DeepSeek自2025年春节爆火后的首个大版本更新,距离上一代V3发布已过去15个月。
? 核心亮点—百万上下文、双版本矩阵
此次发布的V4系列包含两款产品:高性能旗舰DeepSeek-V4-Pro与高效经济版DeepSeek-V4-Flash,均标配1M超长上下文。
百万上下文意味着什么? 模型能够一次性处理约《三体》三部曲合订本体量的长文本输入,对于需要深度背景理解的复杂任务(如长篇文献分析、超长对话Agent、大型代码仓库审查)提供了全新的可能性。
| 对比维度 | DeepSeek-V4-Pro | DeepSeek-V4-Flash | | :--- | :--- | :--- | | 定位 | 高性能旗舰 | 高效经济版 | | 上下文 | 1M(百万) | 1M(百万) | | 参数 | 1.6万亿总参数 / 490亿激活 | 2840亿总参数 / 130亿激活 | | 预训练数据 | 33万亿token | 32万亿token | | Agent能力 | Agentic Coding评测登顶开源模型榜首;内部体验优于Sonnet 4.5,交付接近Opus 4.6非思考模式 | 简单Agent任务与Pro旗鼓相当;复杂高难度任务仍有提升空间 | | 世界知识 | 大幅领先开源阵营,仅稍逊于Gemini-Pro-3.1 | 略低于Pro,仍保持可用水平 | | 推理能力 | 数学、STEM、竞赛代码超越所有已公开开源模型,与顶级闭源模型同梯队 | 展现接近Pro的推理能力 | | 价格 | 缓存命中输入1元,未命中12元,输出24元(每百万token) | 缓存命中输入0.2元,未命中1元,输出2元(每百万token) |
? 参考基准: Claude Opus系列及Gemini系列均为闭源模型业界顶尖标杆;Sonnet 4.5为Claude系列的中端模型。V4-Pro在多项核心关键指标上逼近这些顶级模型,尤其在开源领域实现了领先。
? 架构创新—注意力机制革命
在底层技术上,DeepSeek-V4实现了多项重大突破。
KV Cache滑窗+Token压缩
模型首次引入了KV Cache滑窗与压缩算法,大幅减少了Attention计算与访存开销,使得1M超长上下文在技术底层的算力承载成为现实。
DSA稀疏注意力
结合自主研发的DSA稀疏注意力技术,DeepSeek-V4实现了全球领先的长上下文能力,与传统方法相比大幅降低了对计算和显存的需求。官方宣布:从现在开始,1M超长上下文将成为DeepSeek所有官方服务的标准配置。
混合推理架构+多Agent生态适配
V4系列同时支持思考模式与非思考模式,首次引入reasoning_effort参数,支持high/max两种思考强度调节,复杂Agent场景下建议使用思考模式并设置强度为max。模型已完成对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent框架的深度适配。
? 对开发者的影响:
新架构对硬件资源需求门槛大幅降低,部署性价比更高
V4-Flash版本尤其适合低成本、高频调用的轻量级推理任务
Pro版本更适合高端Agent应用和高精度编程、推理场景
? 定价策略—深得“价格屠夫”精髓
DeepSeek延续了其一贯的“普惠”定价路线。
根据官方价格体系:
V4-Flash:缓存命中输入0.2元、未命中1元、输出2元(每百万token)
V4-Pro:缓存命中输入1元、未命中12元、输出24元(每百万token)
这一价格策略比OpenAI等效模型的单位成本低了不少。更长远来看,Pro的价格仍有下降空间:受高端算力限制,目前Pro服务吞吐有限,下半年昇腾950超节点批量上市后价格将大幅下调。
? 国产算力协同—华为昇腾全栈适配
DeepSeek-V4与华为昇腾实现了技术协同。
昇腾950超节点与Atlas 350系列在多方优化下,通过以下技术使DeepSeek-V4在国产算力集群中实现高吞吐、低时延的高效推理部署:
融合Kernel技术
多流并行技术
多种量化算法
同时,昇腾A3超节点也为用户提供了基于昇腾平台的训练参考实现。
? 开源与开发者生态
DeepSeek-V4预览版已在GitHub和Hugging Face(模型权重)及ModelScope魔搭社区同步开源。
更新后的API服务同步上线,支持OpenAI ChatCompletions接口与Anthropic兼容接口。
平滑迁移: 原有API接口名称deepseek-chat和deepseek-reasoner将在2026年7月24日起停止使用,当前这两个模型名分别指向deepseek-v4-flash的非思考模式与思考模式
开发者迁移流程: 更新base_url无需调整,仅model参数改为deepseek-v4-pro或deepseek-v4-flash即可接入新模型
? 使用者反馈
截至发布当天,海外AI社区反应热烈,不少用户对V4的Token性价比表示肯定,有人赞誉模型 “便宜又强大” 。
不过,部分初步反馈也指出了目前的一些短板:
在非深度推理、非数学、非代码的文艺创作等任务中,模型回答风格相对正式,不够“自然”
这可能是因为新模型在降低幻觉率方面采取了更保守的策略
? 市场影响与未来展望
V4发布适逢大模型市场竞争加剧的节点。DeepSeek近期已启动首次外部融资,估值目标不低于100亿美元,计划筹集至少3亿美元应对AI军备竞赛的升级。此前,由于战略优先级调整,已有相关领域核心研究员加入其他厂商,侧面反映了Agent赛道的竞争之激烈。
DeepSeek同时也面临国际环境的不确定性,美国监管方对其模型蒸馏和芯片获取表示关切。但以百万上下文、开源框架和价格策略的组合,DeepSeek-V4预览版无疑仍为全球AI社区带来了一套更具吸引力的方案。
在发布推文最后,DeepSeek团队引用了“不诱于誉,不恐于诽,率道而行,端然正己”,表示“将始终秉持长期主义的原则理念,在尝试与思考中踏实前行,努力向实现AGI的目标不断靠近”。

