
摘要:Hy3 preview是腾讯混元大模型团队于2026年4月23日发布并开源的新一代语言模型。该模型采用快慢思考融合的MoE架构,总参数2950亿、激活参数210亿,最大支持256K上下文长度。作为混元团队重建预训练与强化学习基础设施后的首个模型,Hy3 preview在复杂推理、代码生成、智能体(Agent)执行、指令遵循及长文本理解等维度实现显著提升,主打实用性、高性价比与真实场景落地,目前已接入腾讯云、元宝、CodeBuddy、WorkBuddy等多条产品线。
官网入口:
- 开源地址:https://github.com/Tencent-Hunyuan/Hy3-preview
- 腾讯元宝(C端体验):https://yuanbao.tencent.com
- 开源模型与API接入:可通过OpenRouter、腾讯云TokenHub及主流开源智能体框架调用
一、模型概述
1.1 产品定位
Hy3 preview是腾讯混元大模型在团队、架构与基础设施全面重建后推出的首个版本。模型定位并非追求参数规模第一,而是聚焦“实用性”与“性价比”,目标成为中型参数区间内业务落地的最优选择之一。官方将其定义为混元迄今最智能的模型,强调在真实业务场景中的综合表现而非单一 benchmark 刷榜成绩。
1.2 核心参数
| 参数项 | 规格 |
|---|---|
| 架构类型 | MoE(混合专家模型) |
| 总参数量 | 295B(2950亿) |
| 激活参数量 | 21B(210亿) |
| 最大上下文长度 | 256K tokens(约25万字) |
| 推理模式 | 支持快思考/慢思考融合,可配置禁用、低、高三级推理深度 |
| 开源协议 | 开源发布 |
二、架构设计
2.1 MoE混合专家架构
Hy3 preview采用Mixture of Experts(MoE)架构,核心逻辑为“按需激活”。每次前向推理仅调用部分专家网络,而非全量参数参与计算。该设计使得模型在保持较大参数总量的同时,实际推理成本与延迟控制在相对低位,兼顾性能与部署经济性。
2.2 快慢思考融合机制
模型支持快慢思考融合模式:面对简单查询时快速响应,降低用户等待时间;面对复杂推理、代码调试、多步骤Agent任务时启动深度思考链。开发者可通过API配置推理级别(disabled/low/high),在不同任务类型间灵活切换速度与深度的平衡策略。
2.3 长上下文窗口
256K tokens的上下文容量在同尺寸开源模型中处于较高水平。该能力支撑长文档检索、知识库问答、大规模代码库理解等场景,使模型能够在单次会话中处理整本书籍、大型项目代码或长篇技术报告。
三、核心能力
3.1 复杂推理与指令遵循
Hy3 preview在数学推理、逻辑推演与多条件约束任务中表现较上一代显著提升。内部测试显示,模型在多轮对话中的意图理解稳定性增强,面对模糊提问、短句追问时仍能准确抓取用户需求并输出一致性较高的答复。
3.2 代码生成与编程辅助
模型在主流代码智能体基准测试(如SWE-Bench Verified、Terminal-Bench 2.0)中取得竞争性成绩。内部评测集Hy-Backend(后端工程任务)、Hy-Vibe Bench(用户交互开发)及Hy-SWE Max(高难度软件工程)均显示模型在真实开发场景中具备较强竞争力。适用场景包括代码补全、Bug修复、跨文件重构及终端命令执行。
3.3 智能体(Agent)能力
Hy3 preview将Agent能力作为重点强化方向。在ClawEval、WildClawBench等Agent评测中表现突出,支持多步骤工具调用、MCP工具链编排、开放信息检索与筛选整合。实际用户环境中,模型可稳定驱动长达495步的复杂Agent工作流,覆盖文档处理、数据分析、知识检索等办公场景。
3.4 上下文学习与长文本处理
在ima知识库问答与通用长文本问答场景中,模型在答案准确性、信息覆盖度与全面性方面表现较好。256K上下文使其能够基于整篇论文、产品手册或法律合同进行端到端分析,减少因片段截断导致的信息丢失。
四、训练理念与评测方法
4.1 能力体系化
混元团队提出不推崇“偏科”式能力堆叠。即使是单一的代码Agent应用,也涉及推理、长文理解、指令解析、对话管理、代码生成、工具调用等多维度能力的深度协同。Hy3 preview的训练目标为体系化提升,确保各能力模块在真实任务中无缝配合。
4.2 评测真实性
团队主动跳出易被针对性优化的公开榜单,采用自建题目、最新考试、人工评测、产品众测等多元方式评估模型“真实战斗力”。内部构建了多套贴近实际业务场景的评测集,以验证模型在脱离 benchmark 环境后的实际可用性。
4.3 性价比追求
实用性需与商业合理性并存。通过模型架构与推理框架的协同设计,Hy3 preview在推理效率与部署成本之间进行深度优化,目标让中小团队与个人开发者也能以可控成本调用大模型能力。
五、应用场景与产品接入
5.1 腾讯内部产品矩阵
Hy3 preview已首发上线于腾讯云、腾讯元宝、ima、CodeBuddy、WorkBuddy、QQ、QQ浏览器、腾讯文档、腾讯乐享等产品。微信公众号、和平精英(AI NPC)、腾讯新闻、腾讯自选股、腾讯客服、微信读书等主线产品也在陆续接入。各产品针对自身场景与模型进行深度协同设计(Co-Design),例如:
- 元宝:优化意图理解精准度、文本创作质量、深度搜索能力,并针对文风、情商、内容组织进行精细化调优;
- CodeBuddy/WorkBuddy:首token延迟降低54%,端到端耗时降低47%,任务成功率超过99.99%;
- 腾讯文档AI PPT:生成成功率提升20%,评分提升10%,生成耗时降低20%,在模板选择、配色、大纲生成、内容补充环节无幻觉且贴合主题;
- 和平精英AI NPC:准确理解角色设定,在局外角色扮演与局内复杂战斗场景中均表现出稳定的拟人化对话节奏。
5.2 企业级API服务
模型已上架腾讯云大模型服务平台TokenHub,提供标准化API接口。输入价格低至1.2元/百万tokens,缓存命中输入价格0.4元/百万tokens,输出价格低至4元/百万tokens。平台同时推出定制化套餐计划,个人版月费低至28元,面向Agent开发者与轻量级应用提供成本可控的接入方案。
5.3 开源生态接入
Hy3 preview以开源形式发布,支持接入OpenClaw、OpenCode、KiloCode等主流开源智能体框架。开发者可通过OpenRouter、Mastra等模型路由平台直接调用,也可在本地或私有云环境部署,满足定制化与数据合规需求。
六、性能与成本
6.1 推理效率
通过模型与推理框架的深度协同优化,Hy3 preview整体推理效率较前代提升约40%。在同等成本约束下,模型可提供更高的有效智能密度,即在固定预算内完成更多有效推理步骤。
6.2 成本结构
在TokenHub平台的公开定价中,Hy3 preview处于国产开源大模型的中低位区间。结合21B激活参数带来的较低单次推理计算量,模型在批量文档处理、高频Agent调用等持续运行场景中具备明显的成本优势。
七、技术背景与发展路径
7.1 混元重建背景
2026年2月,腾讯混元重建了预训练与强化学习基础设施,确立了“实用性大模型”的技术路线。Hy3 preview被视为混元快速探索实用性大模型、解决真实世界问题的开端。官方表示,团队将持续扩大预训练与强化学习规模,提升模型智能上限,并通过与腾讯众多产品的深度Co-Design持续优化真实场景表现。
7.2 研发团队
Hy3 preview由腾讯混元大模型团队研发,首席AI科学家姚顺雨主导技术方向。姚顺雨此前在OpenAI从事Agent相关研究,曾参与Operator、Deep Research等项目,并是ReAct推理-行动框架的提出者之一。团队将Coding与Agent作为Hy3 preview的优先强化方向,与其在智能体系统领域的长期研究积累保持一致。
文章来源:本文基于腾讯混元官方发布信息及公开技术报道整理,信息更新时间为2026年4月23日。
版权说明:本文由大国AI导航(daguoai.com)原创整理,仅供学习交流使用。文中涉及的产品名称、商标及数据归腾讯及相关权利人所有。转载请注明出处。
数据评估
本站大国Ai提供的Hy3 preview都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由大国Ai实际控制,在2026年4月23日 下午6:33收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,大国Ai不承担任何责任。
相关导航


谷歌Genie 3

GPT-OSS

Kimi K2.6

Claude Opus 4.5

Claude 4.1

Claude 4

