【摘要】 4月24日,千呼万唤的DeepSeek V4预览版终于掀开盖头,双版本(Pro/Flash)齐发,直接把100万Token超长上下文做成全系标配。新模型不仅在Agent智能体能力和数理推理上直逼甚至超越部分顶级闭源巨头,更在底层算力上交出了“华为昇腾芯片”的答卷。配合依旧“屠夫级”的API定价和全面开源的策略,DeepSeek V4正在重新定义大模型的性价比与长文本处理极限。
憋了数月的大招,DeepSeek V4 终于落地了。
今天上午,随着API文档的更新和官方公告的发布,DeepSeek V4 预览版正式上线并同步开源。没有冗长的铺垫,这次发布直接甩出了硬核数据:百万级上下文、比肩闭源的推理能力、以及极具冲击力的价格。更让国内开发者振奋的是,传闻中的国产算力适配也终于实锤。
这次DeepSeek V4没有搞“一刀切”,而是精准拆分成了两个版本,以满足不同量级的需求:
最炸裂的共性在于:两者均支持1M(100万)Tokens的上下文长度,最大输出长度更是达到了惊人的384K Tokens。这意味着什么?以前需要疯狂切碎文档做RAG的场景,现在可以直接把整本手册、整个代码库丢给模型让它一口气读完。从此,1M上下文不再是昂贵的奢侈品,而是DeepSeek服务的“出厂默认值”。
如果说长上下文是地基,那推理和Agent能力就是V4的上层建筑。根据官方及技术报告的数据,V4-Pro已经在多个维度上撕掉了“仅限开源领先”的标签,直接踩进了闭源巨头的竞技场。
在Agentic Coding评测中,V4-Pro拿下了开源模型的最佳成绩,甚至在实际内部体验反馈中优于Claude Sonnet 4.5,交付质量逼近Opus 4.6的非思考模式。在数学、STEM和竞赛级代码测试上,V4-Pro超越了所有已公开的开源对手,成绩比肩全球顶级闭源模型。而在世界知识储备方面,它仅仅稍逊于Gemini-Pro-3.1,但在开源阵营里已是断崖式领先。
不仅如此,V4还专门针对Claude Code、OpenClaw等主流Agent框架做了专项适配优化,这意味着它在代码生成和复杂文档任务处理上不再是“纸上谈兵”,而是真的能当生产力工具用。
1M上下文谁都能喊,但真跑起来不把显存撑爆、不把延迟拖垮才是核心技术壁垒。DeepSeek V4没有靠堆算力硬刚,而是动了底层架构的刀子:
这一套组合拳打下来的结果极其可观:对比前代V3,V4-Pro的推理FLOPs暴降73%,KV缓存大小缩减了90%。这才是1M上下文能真正“普惠”的底气所在。
除了模型本身,大家最关心的“卡脖子”问题也有了答案。此前的传闻被证实:DeepSeek V4确实采用了华为昇腾芯片。今晚7点,昇腾CANN还将直播DeepSeek V4在昇腾平台的首发。
这不仅仅是一次简单的硬件替换。据分析,DeepSeek对底层代码进行了大量重写以适应国产算力生态,这种“断奶”尝试的意义甚至不亚于模型本身的发布。与此同时,寒武纪也宣布基于vLLM推理框架,完成了对V4双版本的Day 0适配,并已开源代码。国产大模型+国产算力+国产推理框架的闭环,正在逐渐成型。
技术再好,用不起也是白搭。DeepSeek一如既往地展示了它的定价权:
对比国外同类模型动辄数十美元的价格,这个定价简直是“白菜价”。尤其是缓存命中后的极低成本,让开发者在设计长上下文应用时,不再需要对Token数精打细算。API接口同时兼容OpenAI与Anthropic规范,原有的旧模型名称将在3个月后停用,现阶段自动映射至新版。
结语
“不诱于誉,不恐于诽,率道而行,端然正己。”DeepSeek官方在文末引用的这句《荀子》,或许正是他们在喧嚣的AI军备竞赛中的态度。从V3的惊艳到V4的硬核,DeepSeek不仅把开源模型的性能天花板顶到了闭源巨头的下巴处,更在算力自主和工程效率上蹚出了一条新路。
剩下的,就该是开发者们去折腾这百万上下文的无限可能了。
文章来源: