阿里开源Qwen3.6-35B-A3B:30亿激活参数实现顶尖智能体编程

2026-04-17 7 0

4月16日,阿里通义实验室正式宣布开源 Qwen3.6-35B-A3B 模型。这是一款采用稀疏混合专家(MoE)架构的高效模型,总参数量为350亿,但每次推理仅激活30亿参数,实现了性能与效率的突破性平衡。

核心亮点

  • 稀疏MoE架构:总参数350亿,激活仅30亿,推理效率极高
  • 智能体编程能力大幅超越前代:较 Qwen3.5-35B-A3B 提升显著
  • 比肩更大参数量稠密模型:可与 Qwen3.5-27B、Gemma4-31B 等正面竞争
  • 原生多模态:支持多模态思考与非思考模式
  • 主流编程助手兼容:无缝集成 OpenClaw、Claude Code、Qwen Code

多模态能力表现

尽管激活参数仅约30亿,Qwen3.6-35B-A3B 在视觉语言基准上的表现已与 Claude Sonnet 4.5 持平,并在部分任务上实现超越。其空间智能优势尤为突出:

  • RefCOCO:92.0
  • ODInW13:50.8

智能体编程集成

该模型可以无缝集成到流行的第三方编程助手中:

  • OpenClaw:可自托管的开源 AI 编码智能体,连接百炼即可在终端获得完整智能体编码体验
  • Claude Code:Qwen API 支持 Anthropic API 协议,可直接配合使用
  • Qwen Code:专为终端设计的开源 AI 智能体,针对 Qwen 系列深度优化

获取方式

  • Qwen Studio:在线交互对话体验
  • 阿里云百炼 API:以 qwen3.6-flash 名称调用
  • Hugging Face & ModelScope:开源权重下载,支持本地部署

技术意义

Qwen3.6-35B-A3B 表明,稀疏 MoE 模型可以在智能体编程和推理任务上实现卓越表现。仅凭30亿激活参数,即可交付与数倍激活规模的稠密模型相当的性能,同时在多模态基准上同样出色。作为完全开源的模型权重,它为该规模下的模型能力树立了新的标杆。

阿里通义实验室表示,Qwen3.6 开源家族正在持续壮大,后续将有更多发布。

相关文章

Claude Opus 4.7:AI不再只长脑子,它开始长出双手
它看着你工作:Gemini Mac 时代,屏幕没有秘密
代码无国界,但开发者有——AI工具国界化的2026启示录
硅谷神话崩塌!8万5千星的项目,被一个中国团队锤得体无完肤
百度突然开源ERINE-Image,但我有几句话不吐不快
Chrome 悄悄上线了一个新功能,把你的 AI 提示词变成了”一键工具”