摘要: 4月24日,业界翘首以盼的DeepSeek-V4预览版重磅上线并同步开源。新模型以“1M(百万)上下文+双版本(Pro/Flash)+全开源”的组合拳出击,不仅在Agent能力、世界知识与推理性能上比肩国际顶尖闭源模型,更在架构上实现了革命性突破——首创混合注意力机制与流形约束残差连接,大幅降低算力消耗。同时,DeepSeek-V4开始深度适配华为昇腾国产算力,标志着国产大模型在“软硬协同”自主可控道路上迈出关键一步。延续一贯的“价格屠夫”风格,V4 API定价极具冲击力,再次拉高了行业普惠天花板。
盼星星盼月亮,在距离上一个大版本更新15个月后,DeepSeek-V4终于掀开了红盖头。选在OpenAI发布GPT-5.5仅数小时后官宣,火药味与硬实力可见一斑。这一次,DeepSeek带来的不仅仅是参数的堆砌,更是对长文本效率瓶颈的一次降维打击,以及对国产算力生态的一次深度整合。
DeepSeek-V4这次采取了类似Claude(Sonnet/Opus)与GPT(Mini/Pro)的分档思路,推出了Pro与Flash两个版本,且全线标配1M(百万)超长上下文。
百万字上下文意味着什么?大约相当于一次性吞下《三体》三部曲还能娓娓道来。从今往后,128K将成为历史,1M将成为DeepSeek官方服务的底线配置。这背后,是V4在注意力机制上的颠覆性创新——在token维度进行压缩,结合DSA稀疏注意力。得益于这套机制,在1M上下文场景下,V4-Pro仅需前代V3.2的27%的单token推理FLOPs和10%的KV缓存;Flash版更是极致,低至10%的FLOPs和7%的KV缓存。
DeepSeek-V4的58页技术报告里,藏着不少狠活。保留DeepSeekMoE框架与多令牌预测(MTP)策略的同时,V4完成了“架构三件套”升级:
在后训练阶段,V4把V3.2的mixed RL阶段整个换成了On-Policy Distillation(OPD),先培养领域专家,再让学生模型在自己生成的轨迹上学习多老师的输出分布,这使得模型在代码、数学、指令跟随等不同领域能力更加均衡。此外,V4支持Non-think、Think High、Think Max三种思考强度,用户可根据任务复杂度灵活切换,在速度与深度间找到最优解。
从成绩单来看,V4-Pro-Max已经站在了开源模型的金字塔尖,甚至在多个维度硬刚闭源巨头:
当然,模型并非完美。在PPT视觉呈现等格式美感任务,以及最复杂的思考模式(如Opus 4.6 Thinking)对抗中,V4仍有追赶空间。
如果说模型能力的提升是“矛”,那么底层算力的自主可控就是“盾”。DeepSeek-V4发布的一个重磅信号是:开始明显转向适配国产算力。
华为宣布昇腾超节点全系列产品全面支持DeepSeek V4系列模型,通过芯模技术协同,使昇腾950与昇腾A3超节点系列完成适配。此前有消息称,DeepSeek下一代旗舰模型将完全运行于华为昇腾950PR芯片,技术架构从CUDA全面转向CANN框架。这意味着DeepSeek打破了“大模型必依赖英伟达”的产业定式,成为中国AI产业自主可控的关键里程碑。
受此利好刺激,资本市场迅速反应。DeepSeek概念股异动拉升,科创50指数一度飙涨超1.5%,海光信息、龙芯中科等国产算力标的纷纷大涨。同时,三大运营商及云厂商也闻风而动,中国联通(联通云x联通元景)、PPIO等均在第一时间宣布上线DeepSeek-V4,提供开箱即用的CodingPlan及云桌面服务,零门槛解锁顶尖大模型能力。
在这个算力即金钱的时代,DeepSeek依然保持了令人咋舌的性价比:
官方特别提示,受限于当前高端算力,Pro版服务吞吐有限,但预计下半年昇腾950超节点批量上市后,Pro版价格有望大幅下调。
在API接入上,V4兼容OpenAI与Anthropic两大标准接口,开发者仅需将model_name修改为deepseek-v4-pro或deepseek-v4-flash即可。需要注意的是,原有的deepseek-chat与deepseek-reasoner接口将在3个月后(2026年7月24日)正式停用,目前自动映射至Flash版本以降低迁移成本。
model_name
deepseek-v4-pro
deepseek-v4-flash
deepseek-chat
deepseek-reasoner
DeepSeek-V4不仅仅是一次简单的版本迭代,它是长文本效率革命、算法架构创新与国产算力崛起的三重奏。尽管在多模态能力上尚未切入(有猜测称因算力与资金掣肘),且融资传闻不断(估值传闻已超400亿美元),但DeepSeek正用最硬核的技术和最普惠的价格,努力向着AGI的长期主义目标不断靠近。
文章来源: