Google Gemma 4 正式发布:迄今最强大的开源大模型来了

2026-04-03 9 0

发布于:2026年4月3日 | 分类:AI大模型 | 阅读预计 8 分钟


2026年4月2日,Google DeepMind 正式发布了 Gemma 4——谷歌开源大模型家族的全新迭代版本。这也是自2024年2月Gemma初代发布以来,最大的一次升级。

如果要用一句话总结 Gemma 4 的定位:在同参数规模下,它是目前全球最强的开源大模型

Gemma 4 是什么

Gemma 4 是 Google 基于与 Gemini 3 同源的研究成果和技术架构打造的开源大模型系列。与 Google 闭源收费的 Gemini 产品线不同,Gemma 系列采用完全开源的策略,旨在让全球开发者能够在本地设备上运行高性能 AI 模型。

自初代 Gemma 发布以来,开发者社区已累计下载 Gemma 模型超过4亿次,并基于此构建了超过10万种定制变体模型,形成了活跃的Gemmaverse生态。

四款型号:从小到大的完整布局

Gemma 4 本次一口气发布了四个不同规格的模型,满足从手机到高端GPU的各种硬件场景:

型号 类型 特点
E2B (Effective 2B) 轻量级 激活参数仅2B,专门为手机和IoT设备优化
E4B (Effective 4B) 轻量级 激活参数4B,支持本地离线运行
26B MoE 混合专家 激活参数3.8B/token,延迟极低,推理速度极快
31B Dense 密集模型 31B全参数,追求最高质量,支持微调

根据 Arena AI 文本排行榜(截至2026年4月1日),Gemma 4 31B 在全球开源模型中排名第三26B MoE 排名第六,甚至能击败自身体积20倍的竞争对手。

核心技术亮点

MoE 架构:26B 模型用3.8B参数就能跑

Gemma 4 的26B混合专家模型(MoE)是一大亮点。虽然总参数达到260亿,但每次推理只激活38亿个参数,这意味着:生成速度极快、显存占用大幅降低、单卡消费级GPU即可本地运行。

上下文窗口:最高256K

E2B、E4B:128K 上下文;26B、31B:256K 上下文。足够一次性把整个代码仓库或长篇文档扔进去处理。

支持140+语言

Gemma 4 原生支持超过140种语言,中文开发者可以直接用中文Prompt进行交互和微调。

原生多模态

所有型号均支持:视觉理解(图像OCR、图表理解、文档解析)、音频处理(E2B和E4B支持语音识别和语音理解)、视频处理(支持可变分辨率视频帧输入)。

Agent工作流原生支持

Gemma 4 内置了函数调用(Function Calling)、结构化JSON输出、原生系统指令、工具调用和API集成能力,用 Gemma 4 构建本地AI Agent比以往任何时候都更简单。

硬件要求:普通电脑就能跑

Gemma 4 在硬件适配上非常友好:31B和26B模型未量化的bfloat16权重可高效容纳于单张80GB NVIDIA H100 GPU,量化版本在消费级GPU(如RTX 4090)上也能流畅运行。E2B和E4B模型可在智能手机Raspberry PiNVIDIA Jetson Orin Nano等边缘设备上完全离线运行。

Google还与 Qualcomm(高通)MediaTek(联发科)以及自家 Pixel团队 深度合作,针对移动设备进行了专门优化。

开源许可:Apache 2.0

Gemma 4 采用 Apache 2.0 开源许可证:可商用、可修改、可分发、无专利限制、无需开源衍生代码。给企业和开发者完整的数据主权和模型控制权。

生态支持:一流工具全覆盖

Gemma 4 在发布首日即获得几乎所有主流AI开发工具的原生支持:Hugging Face、Ollama、LM Studio、NVIDIA NIM & NeMo、MLX(Apple Silicon)、vLLM、llama.cpp、Google Cloud(Vertex AI、Cloud Run、GKE、TPU)、Kaggle、Docker、Unsloth、SGLang、Cactus、Baseten。

Gemma 4 vs Gemma 3:升级对比

维度 Gemma 3 Gemma 4
最大参数 27B 31B
架构 全Dense Dense + MoE
最高上下文 128K 256K
语言支持 约35种 140+种
Agent支持 基础 原生函数调用+JSON输出
移动端支持 有限 E2B/E4B专为边缘优化
开源许可 Gemma Terms Apache 2.0
下载量(累计) 1亿+ 4亿+

如何获取 Gemma 4

立即体验:Google AI Studio(31B & 26B MoE)、Google AI Edge Gallery(E4B & E2B)、Hugging FaceKaggleOllama

云端部署:Vertex AI(Google Cloud)、Cloud Run、GKE(Kubernetes)、TPU加速服务

本地运行:Ollama(macOS/Linux/Windows)、LM Studio(桌面应用)、llama.cpp(轻量推理)

总结

Gemma 4 的发布,是 Google 在开源大模型领域的一次真正发力。它不仅在性能上达到了开源模型的顶尖水准(31B第三名),更重要的是通过 Apache 2.0许可超长上下文原生Agent能力超低硬件门槛,把高性能AI真正带到了开发者和普通用户的手中。

在中国开源大模型(如GLM、Qwen、Kimi等)激烈竞争的背景下,Google 拿出 Gemma 4 这个不让中国公司独美的作品,也让开源模型市场的竞争变得更加精彩。


关键词:Google Gemma 4, 开源大模型, Gemma 4发布, Google DeepMind, 开源LLM, Gemma 4评测, 混合专家模型MoE, 本地运行大模型, Apache 2.0, AI开源模型2026

相关文章

国行iPhone AI智能正式上线!
飞书 CLI 正式开源!AI Agent 迎来新时代
微信龙虾插件上线72小时被OpenClaw更新干崩
突发!OpenAI 宣布收购 Astral 公司
OpenClaw 2026.3.23 发布:大量 bug 修复与功能优化
微信官方上线 ClawBot 插件,直连 OpenClaw