阿里开源了个"小个子"模型,但干翻了一堆大块头
大模型领域有个常见的逻辑:参数越多越强。70B比7B强,130B比70B强,这事基本上成立。
但阿里4月16日开源的这个新模型,有点反常识。
Qwen3.6-35B-A3B,总参数350亿,但运行时只激活30亿。就是个"小个子"。
但它在编程基准测试里,把拥有270亿参数的稠密模型Qwen3.5-27B给超了。

怎么做到的?
这涉及到它用的架构——稀疏混合专家(MoE)。
传统的稠密模型,不管什么任务,都会调用全部参数参与计算。就像你做一道加减法,全公司开会讨论,成本高、速度慢。
MoE架构不一样。它把模型拆成多个"专家",每次只激活跟当前任务相关的少数专家来处理。打个比方:你的公司有各领域的专业团队,做财务找财务部,做技术找研发部,不用每次全公司开会。
Qwen3.6-35B-A3B就是这个逻辑——350亿参数是"公司总人数",但每次只叫30亿"员工"上班。所以它跑起来的时候,资源消耗跟一个30亿参数的模型差不多,但调用的知识储备却是350亿级别的。
跑分表现如何?
具体到编程能力:
在SWE-bench Pro(硬核编程基准测试)上,Qwen3.6-35B-A3B从上代53.4%跃升至64.3%,单代涨幅近11个百分点。横向对比一下:GPT-5.4是57.7%,Gemini3.1 Pro是54.2%——它把这两个都踩在脚下了。
视觉推理方面,RefCOCO评分高达92.0,部分多模态指标已经比肩Claude Sonnet4.5。
还有一个有意思的点:它已经支持preserve_thinking思维链保留功能,可以无缝适配OpenClaw、Claude Code和Qwen Code等主流AI编程助手。

"小参数、高智能"这个方向意味着什么?
这件事值得多说几句。
过去两年,大模型的主流叙事是"越大越好"。OpenAI、Google、Meta这些大厂在参数规模上不断加码,用更大的模型证明更强的能力。
但到了2026年,方向开始分化了。一部分玩家继续走"大而全"的路线,另一部分开始探索"小而精"的路径——用更少的计算资源,提供足够强的能力。
Qwen3.6-35B-A3B属于后者。它的意义在于:它证明了在编程这个场景下,模型效率的优化可以弥补参数规模的差距。
这对于实际应用来说很关键。企业部署模型需要考虑成本,在效果够用的前提下,能用30亿参数跑完的任务,为什么要花70亿的成本?尤其在端侧AI和自动化智能体需求激增的背景下,这种"低功耗高智能"的模型会更受欢迎。
怎么用?
目前已集成至Qwen Studio,并通过阿里云百炼平台以qwen3.6-flash的命名对外提供API服务。
如果你是开发者,想体验这个模型,可以去Qwen Studio或者阿里云百炼平台申请调用。API接口已经开放,文档也有。
模型地址:https://huggingface.co/Qwen/Qwen3.6-35B-A3B
AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说
AITOP100平台官方交流社群二维码:










