发布于:2026年4月3日 | 分类:AI大模型 | 阅读预计 8 分钟
2026年4月2日,Google DeepMind 正式发布了 Gemma 4——谷歌开源大模型家族的全新迭代版本。这也是自2024年2月Gemma初代发布以来,最大的一次升级。
如果要用一句话总结 Gemma 4 的定位:在同参数规模下,它是目前全球最强的开源大模型。
Gemma 4 是什么
Gemma 4 是 Google 基于与 Gemini 3 同源的研究成果和技术架构打造的开源大模型系列。与 Google 闭源收费的 Gemini 产品线不同,Gemma 系列采用完全开源的策略,旨在让全球开发者能够在本地设备上运行高性能 AI 模型。
自初代 Gemma 发布以来,开发者社区已累计下载 Gemma 模型超过4亿次,并基于此构建了超过10万种定制变体模型,形成了活跃的Gemmaverse生态。
四款型号:从小到大的完整布局
Gemma 4 本次一口气发布了四个不同规格的模型,满足从手机到高端GPU的各种硬件场景:
| 型号 | 类型 | 特点 |
|---|---|---|
| E2B (Effective 2B) | 轻量级 | 激活参数仅2B,专门为手机和IoT设备优化 |
| E4B (Effective 4B) | 轻量级 | 激活参数4B,支持本地离线运行 |
| 26B MoE | 混合专家 | 激活参数3.8B/token,延迟极低,推理速度极快 |
| 31B Dense | 密集模型 | 31B全参数,追求最高质量,支持微调 |
根据 Arena AI 文本排行榜(截至2026年4月1日),Gemma 4 31B 在全球开源模型中排名第三,26B MoE 排名第六,甚至能击败自身体积20倍的竞争对手。
核心技术亮点
MoE 架构:26B 模型用3.8B参数就能跑
Gemma 4 的26B混合专家模型(MoE)是一大亮点。虽然总参数达到260亿,但每次推理只激活38亿个参数,这意味着:生成速度极快、显存占用大幅降低、单卡消费级GPU即可本地运行。
上下文窗口:最高256K
E2B、E4B:128K 上下文;26B、31B:256K 上下文。足够一次性把整个代码仓库或长篇文档扔进去处理。
支持140+语言
Gemma 4 原生支持超过140种语言,中文开发者可以直接用中文Prompt进行交互和微调。
原生多模态
所有型号均支持:视觉理解(图像OCR、图表理解、文档解析)、音频处理(E2B和E4B支持语音识别和语音理解)、视频处理(支持可变分辨率视频帧输入)。
Agent工作流原生支持
Gemma 4 内置了函数调用(Function Calling)、结构化JSON输出、原生系统指令、工具调用和API集成能力,用 Gemma 4 构建本地AI Agent比以往任何时候都更简单。
硬件要求:普通电脑就能跑
Gemma 4 在硬件适配上非常友好:31B和26B模型未量化的bfloat16权重可高效容纳于单张80GB NVIDIA H100 GPU,量化版本在消费级GPU(如RTX 4090)上也能流畅运行。E2B和E4B模型可在智能手机、Raspberry Pi、NVIDIA Jetson Orin Nano等边缘设备上完全离线运行。
Google还与 Qualcomm(高通)、MediaTek(联发科)以及自家 Pixel团队 深度合作,针对移动设备进行了专门优化。
开源许可:Apache 2.0
Gemma 4 采用 Apache 2.0 开源许可证:可商用、可修改、可分发、无专利限制、无需开源衍生代码。给企业和开发者完整的数据主权和模型控制权。
生态支持:一流工具全覆盖
Gemma 4 在发布首日即获得几乎所有主流AI开发工具的原生支持:Hugging Face、Ollama、LM Studio、NVIDIA NIM & NeMo、MLX(Apple Silicon)、vLLM、llama.cpp、Google Cloud(Vertex AI、Cloud Run、GKE、TPU)、Kaggle、Docker、Unsloth、SGLang、Cactus、Baseten。
Gemma 4 vs Gemma 3:升级对比
| 维度 | Gemma 3 | Gemma 4 |
|---|---|---|
| 最大参数 | 27B | 31B |
| 架构 | 全Dense | Dense + MoE |
| 最高上下文 | 128K | 256K |
| 语言支持 | 约35种 | 140+种 |
| Agent支持 | 基础 | 原生函数调用+JSON输出 |
| 移动端支持 | 有限 | E2B/E4B专为边缘优化 |
| 开源许可 | Gemma Terms | Apache 2.0 |
| 下载量(累计) | 1亿+ | 4亿+ |
如何获取 Gemma 4
立即体验:Google AI Studio(31B & 26B MoE)、Google AI Edge Gallery(E4B & E2B)、Hugging Face、Kaggle、Ollama
云端部署:Vertex AI(Google Cloud)、Cloud Run、GKE(Kubernetes)、TPU加速服务
本地运行:Ollama(macOS/Linux/Windows)、LM Studio(桌面应用)、llama.cpp(轻量推理)
总结
Gemma 4 的发布,是 Google 在开源大模型领域的一次真正发力。它不仅在性能上达到了开源模型的顶尖水准(31B第三名),更重要的是通过 Apache 2.0许可、超长上下文、原生Agent能力和超低硬件门槛,把高性能AI真正带到了开发者和普通用户的手中。
在中国开源大模型(如GLM、Qwen、Kimi等)激烈竞争的背景下,Google 拿出 Gemma 4 这个不让中国公司独美的作品,也让开源模型市场的竞争变得更加精彩。
关键词:Google Gemma 4, 开源大模型, Gemma 4发布, Google DeepMind, 开源LLM, Gemma 4评测, 混合专家模型MoE, 本地运行大模型, Apache 2.0, AI开源模型2026