DeepSeek V4 正式上线:百万上下文标配+华为昇腾加持,开源模型卷出新天际

Ai资讯2小时前发布 大国Ai
38 0 0

【摘要】 4月24日,千呼万唤的DeepSeek V4预览版终于掀开盖头,双版本(Pro/Flash)齐发,直接把100万Token超长上下文做成全系标配。新模型不仅在Agent智能体能力和数理推理上直逼甚至超越部分顶级闭源巨头,更在底层算力上交出了“华为昇腾芯片”的答卷。配合依旧“屠夫级”的API定价和全面开源的策略,DeepSeek V4正在重新定义大模型的性价比与长文本处理极限。


憋了数月的大招,DeepSeek V4 终于落地了。

今天上午,随着API文档的更新和官方公告的发布,DeepSeek V4 预览版正式上线并同步开源。没有冗长的铺垫,这次发布直接甩出了硬核数据:百万级上下文、比肩闭源的推理能力、以及极具冲击力的价格。更让国内开发者振奋的是,传闻中的国产算力适配也终于实锤。

双版本出击:1M上下文成标配,参数与定位各异

这次DeepSeek V4没有搞“一刀切”,而是精准拆分成了两个版本,以满足不同量级的需求:

  • DeepSeek-V4-Pro(专家模式):拥有1.6T总参数,49B激活参数,预训练数据量达33T Tokens。这是冲着复杂推理、长链条Agent任务去的重火力机型。
  • DeepSeek-V4-Flash(快速模式):284B总参数,13B激活参数,预训练数据32T Tokens。主打一个轻快省钱,在简单任务上与Pro版差距不大,但响应速度和成本优势明显。

最炸裂的共性在于:两者均支持1M(100万)Tokens的上下文长度,最大输出长度更是达到了惊人的384K Tokens。这意味着什么?以前需要疯狂切碎文档做RAG的场景,现在可以直接把整本手册、整个代码库丢给模型让它一口气读完。从此,1M上下文不再是昂贵的奢侈品,而是DeepSeek服务的“出厂默认值”。

硬刚闭源巨头:Agent与推理能力全面跃升

如果说长上下文是地基,那推理和Agent能力就是V4的上层建筑。根据官方及技术报告的数据,V4-Pro已经在多个维度上撕掉了“仅限开源领先”的标签,直接踩进了闭源巨头的竞技场

在Agentic Coding评测中,V4-Pro拿下了开源模型的最佳成绩,甚至在实际内部体验反馈中优于Claude Sonnet 4.5,交付质量逼近Opus 4.6的非思考模式。在数学、STEM和竞赛级代码测试上,V4-Pro超越了所有已公开的开源对手,成绩比肩全球顶级闭源模型。而在世界知识储备方面,它仅仅稍逊于Gemini-Pro-3.1,但在开源阵营里已是断崖式领先。

不仅如此,V4还专门针对Claude Code、OpenClaw等主流Agent框架做了专项适配优化,这意味着它在代码生成和复杂文档任务处理上不再是“纸上谈兵”,而是真的能当生产力工具用。

架构大换血:如何驯服百万级上下文?

1M上下文谁都能喊,但真跑起来不把显存撑爆、不把延迟拖垮才是核心技术壁垒。DeepSeek V4没有靠堆算力硬刚,而是动了底层架构的刀子:

  1. 混合注意力机制:结合了压缩稀疏注意力(CSA)和高度压缩注意力(HCA),在Token维度进行无情压缩,只计算关键信息,大幅削减计算复杂度。
  2. Engram条件记忆架构:首次引入这一机制,将“死记硬背”的静态知识检索与“逻辑推理”解耦,用O(1)的哈希查找替代部分注意力检索,让模型在长文本中找东西又快又准。
  3. 流形约束超连接(mHC)与Muon优化器:前者保证了超深网络训练时信号传递的稳定性,不让梯度跑飞;后者则加速了训练收敛,这对于万亿参数级别的模型训练来说,是保命的关键。

这一套组合拳打下来的结果极其可观:对比前代V3,V4-Pro的推理FLOPs暴降73%,KV缓存大小缩减了90%。这才是1M上下文能真正“普惠”的底气所在。

国产算力实锤:华为昇腾首发,寒武纪Day 0适配

除了模型本身,大家最关心的“卡脖子”问题也有了答案。此前的传闻被证实:DeepSeek V4确实采用了华为昇腾芯片。今晚7点,昇腾CANN还将直播DeepSeek V4在昇腾平台的首发。

这不仅仅是一次简单的硬件替换。据分析,DeepSeek对底层代码进行了大量重写以适应国产算力生态,这种“断奶”尝试的意义甚至不亚于模型本身的发布。与此同时,寒武纪也宣布基于vLLM推理框架,完成了对V4双版本的Day 0适配,并已开源代码。国产大模型+国产算力+国产推理框架的闭环,正在逐渐成型。

价格依然是屠夫:1M上下文真的用得起

技术再好,用不起也是白搭。DeepSeek一如既往地展示了它的定价权:

  • V4-Flash:百万Tokens输入(缓存命中)仅0.2元,未命中1元;输出2元。
  • V4-Pro:百万Tokens输入(缓存命中)1元,未命中12元;输出24元。

对比国外同类模型动辄数十美元的价格,这个定价简直是“白菜价”。尤其是缓存命中后的极低成本,让开发者在设计长上下文应用时,不再需要对Token数精打细算。API接口同时兼容OpenAI与Anthropic规范,原有的旧模型名称将在3个月后停用,现阶段自动映射至新版。

结语

“不诱于誉,不恐于诽,率道而行,端然正己。”DeepSeek官方在文末引用的这句《荀子》,或许正是他们在喧嚣的AI军备竞赛中的态度。从V3的惊艳到V4的硬核,DeepSeek不仅把开源模型的性能天花板顶到了闭源巨头的下巴处,更在算力自主和工程效率上蹚出了一条新路。

剩下的,就该是开发者们去折腾这百万上下文的无限可能了。


文章来源:

  • 华为云社区:《DeepSeek V4 双版本正式上线,采用华为昇腾芯片》[Webpage 1]
  • 太平洋科技:《DeepSeek-V4预览版上线:百万上下文普惠,推理与Agent能力达开源领先》[Webpage 2]
  • 中华网:《DeepSeek-V4预览版上线并开源 探索1M超长上下文新体验》[Webpage 3]
  • 网易新闻-机器之心:《刚刚,DeepSeek V4 双版本正式上线!》[Webpage 4]
  • CBISMB:《DeepSeek V4预览版正式发布:百万上下文与全维度能力突破》[Webpage 5]
  • TechWeb:《官宣:DeepSeek-V4预览版本正式上线并开源》[Webpage 6]
  • CSDN博客:《DeepSeek‑V4 预览版:1M 上下文暴打西方闭源模型阵营》[Webpage 7]
  • 未知来源:《DeepSeek-V4在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先》[Webpage 8]
  • 百度百科:《DeepSeek-V4》[Webpage 9]
  • CSDN博客:《DeepSeek V4灰度测试全解析》[Webpage 10]
  • CSDN博客:《DeepSeek V4 技术前瞻》[Webpage 11]
© 版权声明

相关文章

暂无评论

none
暂无评论...