核心摘要:2026年4月3日,Google DeepMind 正式发布 Gemma 4 开源模型系列。此次发布的最大意义在于“以小博大”:其最小的 E2B 模型仅激活20亿参数,却能跑在手机、树莓派上完全离线运行,性能却堪比上一代270亿参数的桌面模型。全系列采用商业友好的 Apache 2.0 许可证,意味着开发者可自由修改、商用和分发,无任何限制。这标志着顶级AI能力正从云端数据中心,走向每个人的口袋和边缘设备。
Gemma 4 不是一个单一模型,而是一个针对不同场景精心设计的家族。其底层技术与 Google 的闭源旗舰 Gemini 3 同源,确保了能力的高起点。
关键突破:参数效率极高。31B模型在多项基准测试上的表现,超越了参数规模大它20倍的对手。手机端的E2B模型,在GPQA Diamond科学基准上的得分(43.4%),已与上一代Gemma 3的270亿参数桌面模型(42.4%)几乎持平。
Gemma 4 被设计为“高级推理与智能体工作流”模型,这意味着它从诞生起就为了处理更复杂的任务,并能接入你的工作流。
谷歌构建了立即可用的生态,你几乎可以从任何地方开始体验和开发。
ollama pull gemma4 ollama run gemma4
from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("google/gemma-4-31B-it")
Gemma 4 的发布,尤其是其 Apache 2.0 许可证 和 强大的端侧模型,解决了开源AI领域的两个长期痛点:法律风险和落地场景。
过去,许多企业因许可证限制对开源模型望而却步。现在,开发者可以毫无顾虑地将 Gemma 4 集成到商业产品中。更重要的是,它让AI能力真正进入了那些对数据隐私、网络延迟和成本敏感的领域:医疗记录在本地分析、工厂设备离线质检、个人数据永不离开手机……
这不仅仅是提供了一个“更小”的模型选项,而是开启了一种新的AI部署范式:智能可以分布式地存在于每一个终端,而不仅仅是集中的云端。当最强的能力可以装在口袋里时,创新的可能性才刚刚开始。
文章来源:本文信息综合编译自 Google DeepMind 官方发布及多家科技媒体报道。