摘要:2026年4月,大模型圈卷出新高度,小米毫无预兆地甩出MiMo-V2.5-Pro。这款模型不仅在Artificial Analysis榜单上与Kimi K2.6并列开源第一,更在SWE-bench Pro等核心编码指标上逼近Claude Opus 4.6与GPT-5.4。最香的是其极具杀伤力的价格——仅需Opus 4.6约40%的成本,就能享受100万超长上下文与丝滑的Agent调用体验。本文将带你深度实测MiMo-V2.5-Pro搭配Claude Code的真实体感,从建站实操到硬核编译器编写,看它如何成为国内开发者当下最值得冲的“干活神器”。
最近的大模型圈子,简直像是在赶春运,你方唱罢我登场。上周刚被Claude Opus 4.7刷屏,这周Kimi K2.6刚热闹完,昨天凌晨,小米一声不吭地把MiMo-V2.5和MiMo-V2.5-Pro甩了出来,今天OpenAI的GPT-5.5又紧跟着发布。这迭代速度,只能用“疯狂”来形容。
自从罗福莉加入小米后,MiMo系列的水平可以说是坐着火箭往上蹿。作为一名十二年老米粉,我第一时间上手了MiMo-V2.5-Pro。有一说一,试完之后我有点超出预期——这已经是正儿八经能跟GLM-5.1和Kimi K2.6掰手腕的模型,稳稳跻身国产第一梯队。
先看硬指标。在Artificial Analysis(AA)榜单上,MiMo-V2.5-Pro目前已经跟Kimi K2.6并列开源第一。更细看细分领域,在SWE-bench Pro上拿到57.2,在τ3-bench上拿到72.9,Claw-Eval(pass^3)达到63.8,这些代表通用Agent和编码能力的核心指标,已经咬死了Claude Opus 4.6和GPT-5.4。
如果说跑分是“赢学”,那价格就是实打实的“真金白银”。现在百万上下文几乎成了标配,GPT-5.5也跟风支持了1M,但算算账:Opus 4.6的API价格是$5/$25每百万token,而MiMo-V2.5-Pro在0-256k区间只要¥7/¥21,超过256k也仅是¥14/¥42,整体比Opus便宜约60%。如果是Token Plan套餐,更是有不区分上下文长度的统一收费标准,非高峰期还有0.8折系数,简直是便宜大碗的典范。
小米MiMo-V2.5-Pro
对于国内开发者来说,很多人抢不到智谱的Coding Plan,用不到GLM-5.1,又苦于网络问题无法顺畅使用Claude。听我一句劝,Claude Code + MiMo-V2.5-Pro,就是当下最丝滑的平替方案。
接入方式极为简单,双击打开cc-switch,供应商选择“Xiaomi MiMo”,填入API Key,模型名输入mimo-v2.5-pro,保存启用后即可在Claude Code里直接开撸。
mimo-v2.5-pro
我自己实测下来,它的工具调用和Coding开发能力,意外地有一股子Opus 4.6的“味道”——说人话、懂逻辑、给图表,不瞎折腾。
实操案例:从零搓一个公众号数据分析平台
我一直想做一个公众号文章数据分析的内网平台。数据存在飞书多维表格里,指标多达三十多项(阅读、转发、完读率、赞阅比等),还需要跟历史数据做分位数对比,逻辑非常复杂。
我直接在Claude Code里开着语音一通“口喷”需求,MiMo-V2.5-Pro接住后,表现出了极高的工程素养:它没有上来就写代码,而是先有条理地输出了技术栈(Next.js 14 + ECharts)、架构设计,接着梳理了指标体系,甚至自主设计了“转发加速曲线”的衍生逻辑来判断文章传播健康度,最后才输出项目结构和实现步骤。
开发过程顺风顺水,但真正的考验在部署环节。我给它挂载了自己公司的服务器skill,这玩意儿涉及到飞书企业认证、容器隔离等极其复杂的首次部署流程。以前用某些国产模型,死在这一步是家常便饭。但MiMo-V2.5-Pro丝滑地走完了认证、比对、部署的全流程。不仅如此,我又让它接入公司内部复杂的统一登录中台,面对多飞书主体、多权限渠道的冗长文档,它竟然一轮对话,零修改,直接接通了。
这种长链路、多工具调用的稳定性,才是开发者最需要的“踏实感”。
如果说我的实操还是偏业务层,那小米官方放出的案例则彻底暴露了MiMo-V2.5-Pro的工程底色——“Built to Solve Harder”。
在北大的《编译原理》大作业中,MiMo-V2.5-Pro用Rust从零实现了一个完整的SysY编译器。在672次工具调用、约4.3小时的自动化长程任务中,它不仅能先搭架构再补细节,甚至在第512轮出现性能回退时,展现出了自我诊断与修复的能力,最终在隐藏测试集中拿到233/233满分。
更离谱的是模拟电路EDA实验。在TSMC 180nm工艺下设计FVF-LDO稳压器,它通过“看波形—调参数—再仿真”的闭环,把Line Regulation等关键指标优化了9到22倍。这意味着在需要严密逻辑和长期规划的Agent场景下,MiMo的Token效率比Opus 4.6和GPT-5.4高出40%-60%,真正做到了“既聪明又省钱”。
当然,天下没有完美的模型。我用160万字的《甄嬛传》喂给它,让它做人物关系和情节线的交互网页,逻辑梳理得很溜,但前端出来的视觉效果只能用“能用”来形容,毫无设计感可言,这点和GPT-5.4/5.5初期的毛病一模一样。不过对于侧重后端和逻辑的Agent工作流来说,这并非致命伤,配个前端设计的Skill即可弥补。
2026年的大模型战场,早已从“美国领跑”变成了多极混战。国产模型的Token调用量在2月份首次单月超越美国,靠的正是像DeepSeek V3.2的极致性价比,以及MiMo-V2.5-Pro这种在Agent能力上硬刚旗舰的开源力量。
就当下而言,MiMo-V2.5-Pro搭配Claude Code,绝对是国内开发者值得一试的生产力组合。趁着现在用的人不多、API响应速度快、套餐还算好买,赶紧上车体验。毕竟,这种高性价比的窗口期,通常都不会太长。