摘要: 2026年1月20日,智谱AI正式发布并开源新一代轻量级通用基座模型GLM-4.7-Flash。该模型总参数量为30B,激活参数量仅3B,在多项主流基准测试中超越同尺寸开源模型,取得SOTA(最先进)分数。即日起,GLM-4.7-Flash在智谱开放平台BigModel.cn上线,完全免费调用,为开发者和企业提供了兼顾高性能与极致性价比的轻量化部署新选择。
2026年1月20日,中国人工智能领域迎来重磅更新。智谱AI(Zhipu AI)宣布其新一代轻量级模型GLM-4.7-Flash正式发布并开源。与以往版本最大的不同在于,GLM-4.7-Flash从发布之日起就定位为“免费调用”,开发者无需支付费用即可通过智谱开放平台BigModel.cn的API接口使用。
GLM-4.7-Flash是一个“混合思考模型”,其技术核心在于以更高效的训练方法,在保证卓越性能的前提下,显著降低了计算资源消耗和时间成本。具体参数上,模型总参数量为300亿(30B),但在推理时激活的参数量仅为30亿(3B)。这种设计使其在轻量化部署场景下,能够实现性能与效率的完美平衡,堪称“30B级最强模型”。
此举标志着国产大模型在普惠化和工程化落地方面迈出关键一步。GLM-4.7-Flash将直接替代上一代免费模型GLM-4.5-Flash,后者计划于2026年1月30日正式下线。
GLM-4.7-Flash的“强”并非空谈,其在权威测试和内部实测中均表现亮眼。
在SWE-bench Verified、τ²-Bench等国际主流基准测试中,GLM-4.7-Flash的综合表现超越了gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507等知名开源模型,在相同或近似尺寸的模型系列中取得了开源SOTA分数,确立了其技术领先地位。
编程能力突出: 根据智谱内部的编程实测结果,GLM-4.7-Flash在前端与后端开发任务上均表现出色。这并非偶然,其前身GLM-4.7版本就已在编程、推理与智能体三个维度实现突破,特别是在多语言编码和终端智能体效果上提升显著,能够在复杂任务中实现“先思考、再行动”的稳定机制。
通用场景全面: 除了专业的编程场景,GLM-4.7-Flash同样适用于广泛的通用人工智能任务。智谱官方推荐开发者在中文写作、文本翻译、长文本理解、情感分析以及角色扮演等场景中体验该模型。这意味着无论是内容创作、教育辅助、客服对话还是创意生成,GLM-4.7-Flash都能提供强大的支持。
GLM-4.7-Flash的发布,是北京作为全球人工智能创新高地建设成果的一个缩影。北京已汇聚了包括豆包、智谱GLM、月之暗面Kimi、文心一言等在内的国内主流大模型,备案大模型数量占全国近三成,形成了强大的“大模型北京队”。
智谱AI此次发布专为极致性价比而生的GLM-4.7-Flash,被视作国产大模型在全球主流竞争中的又一次强力回应。它降低了企业和个人开发者使用先进AI技术的门槛,使更多创新应用能够以低成本快速落地。这与北京市深入实施的“全域应用赋能行动”、“开源开放聚力行动”等政策方向高度契合,旨在将AI从实验室推向街头巷尾,融入千行百业。
对于开发者和企业而言,获取并使用GLM-4.7-Flash的途径非常便捷:
温馨提示: 正在使用上一代GLM-4.5-Flash的用户请注意,该模型将于2026年1月30日下线,建议及时将代码中的模型编码更新为“glm-4.7-flash”。下线后,相关请求会自动路由至新版本,但为确保最佳体验,主动迁移仍是首选。
文章来源: 本文综合自智谱AI官方发布、每日经济新闻、第一财经、北京商报及新京报于2026年1月20日的相关报道。大国AI导航(daguoai.com)整理编辑,旨在提供准确、实用的AI资讯。