摘要: 2026年4月24日,DeepSeek正式发布V4系列预览版并同步开源,包含Pro、Flash双版本,标配1M(百万token)超长上下文,Agent能力、推理性能登顶开源阵营,比肩GPT-5.4、Gemini-3.1等顶级闭源模型。本次发布同步完成华为昇腾全系列适配,联通云、PPIO等平台已率先上线服务;叠加腾讯、阿里超200亿估值抢投的融资传闻,发布当日即带动AI概念股集体拉升,被英伟达CEO黄仁勋称为“国产AI的可怕突破”。
说实话,从今年春节DeepSeek悄悄放出V4的测试风声开始,整个AI圈就陷入了“等更焦虑”——中间传了三四次“本周发布”的消息都放了鸽子,甚至有知情人士透露模型经历了3-4次延期,就为了再追一追性能上限。直到4月24日上午,官网突然弹出更新提示,不少蹲守的开发者直接在评论区刷“鲸鱼终于回来了”,还有人调侃“OpenAI刚发完GPT-5.5没几小时,DeepSeek就跟上,这波节奏踩得准”。
这次发布的DeepSeek-V4系列分两个版本,完全踩中了不同用户的需求:追求性能的选DeepSeek-V4-Pro,总参数1.6T、激活参数49B、预训练数据33T,定位旗舰;追求性价比的选DeepSeek-V4-Flash,总参数284B、激活参数13B、预训练数据32T,主打高效低成本。两个版本全开源,而且统一标配1M上下文——什么概念?按官方测算,1M token大概相当于75万字中文,一次性读完《三体》三部曲都绰绰有余。
性能上Pro版基本把开源模型的天花板顶到了新高度:Agentic Coding能力已经超过Claude Sonnet 4.5,交付质量接近Opus 4.6的非思考模式,目前已经是DeepSeek内部员工的默认编程模型;数学、STEM、竞赛代码测评里,Pro版直接干到了开源第一,和世界顶级的GPT-5.4、Gemini-3.1-Pro掰手腕也不落下风;只有世界知识储备稍逊于Gemini-Pro-3.1,但也把其他开源模型甩了不止一个身位。Flash版虽然知识储备弱一点,但推理能力没掉太多,简单Agent任务上和Pro版几乎没差,价格却便宜了不止一点。
能做到这么猛的性能还把成本压下来,全靠DeepSeek啃下了底层架构的硬骨头。这次V4搞了个全新的混合注意力机制,把token维度压缩和DSA稀疏注意力结合,1M上下文场景下,Pro版的单token推理计算量只有前代V3.2的27%,KV缓存更是砍到了10%,Flash版更夸张,计算量只有10%,KV缓存7%。还有那个流形约束超连接(mHC),只花了6.7%的额外时间,就解决了深层网络信号发散的老问题;再加上Muon优化器、Anticipatory Routing这些工程上的“土办法”,把训练稳定性拉到了新高度。
这次V4最不一样的地方,是彻底把国产算力拉到了主舞台。发布当天华为就宣布,昇腾950和A3超节点全系列产品已经完成适配,从训练到推理全流程支持,而且因为用了mxFP4精度,比英伟达体系常用的FP8更适配华为昇腾、壁仞这些国产芯片。DeepSeek自己也在公告里明说:现在Pro版吞吐有限,就是因为高端算力卡脖子,等下半年昇腾950超节点批量上市,Pro版的价格还要大幅下调。
不止华为,国内云平台也跑得飞快:联通云当天就完成了DeepSeek-V4和元景MaaS平台、政务/工业智能体的适配,用户三步就能调用API,还送万份Coding Plan套餐;PPIO作为全栈AI云服务商,也成了首批上线V4预览版的平台,注册就能直接用,不用复杂部署。开发者更省心的是,V4的API同时兼容OpenAI和Anthropic两套标准接口,只要改个model_name就能迁移,旧的deepseek-chat和deepseek-reasoner会在2026年7月24日正式停用,现在还能自动映射到Flash版,过渡成本几乎为零。
消息一出来,资本市场的反应比开发者还快:皖通科技7分钟直线涨停,浙数文化跟着封板,科创50一度飙涨1.8%,海光信息、龙芯中科这些半导体股集体跟涨,国证半导体芯片指数当天涨了1.06%。背后的原因除了技术突破,还有传得沸沸扬扬的融资消息:之前一直坚持不融资的DeepSeek,这次终于松口启动外部融资,腾讯、阿里都在抢着投,估值从最开始的100亿美元一路飙到200亿甚至440亿美元,就为了补算力和留人才——毕竟之前核心研究员被小米、字节挖走的事,确实给团队提了醒。
英伟达CEO黄仁勋最近在播客里也特意提了DeepSeek V4:“中国算力芯片虽然制程受限,但算法创新能补差距,等DeepSeek和华为昇腾彻底适配的那天,对我们来说会是‘可怕的结果’。” 这话还真不是夸张,现在V4已经把“1M上下文+全开源+国产算力适配”的路走通了,之前大家还在纠结“长文本是不是伪需求”,现在DeepSeek直接把门槛打到了平民级,以后一次扔整本代码库、整份财报给模型处理,真的要变成常态了。
现在不管是开发者还是普通用户,都能直接体验V4的能力:网页端登录chat.deepseek.com或者官方APP,就能用上1M上下文的对话;企业用户可以直接走联通云、PPIO的API,成本比之前还低——Pro版缓存命中输入才1元/百万token,Flash版更是低到0.2元/百万token,还是那个熟悉的“价格屠夫”路子。
本文由大国Ai导航(daguoai.com)整理改写,整合公开报道与官方信息,转载请注明出处。