阿里开源了个270亿参数的模型,编程能力把3970亿参数的MoE甩在身后
4月22日,通义千问团队开源了Qwen3.6-27B。
这个模型有意思的地方在于:它只有270亿参数,却在前代旗舰——总参数3970亿、激活参数17亿的MoE模型Qwen3.5-397B-A17B——的核心能力评测中实现了全面超越。
"以小博大"这件事,在大模型领域并不常见。因为过去几年行业的主流叙事是:参数越大,能力越强。Qwen3.6-27B的出现,让这个线性关系被打破了。

一、模型定位:开发者呼声最高的规格
Qwen3.6-27B的定位很明确:开发者群体呼声最高的模型规格。
在它之前,通义千问已经发布了Qwen3.6-Plus和Qwen3.6-35B-A3B两个版本。前者是闭源的高性能模型,后者是开源的轻量级MoE模型。但社区一直有一个诉求:能不能提供一个稠密架构、中等规模、开源可部署的模型?
稠密架构的优势在于:部署简单,不需要MoE路由,推理延迟更稳定。MoE架构的优势是参数大、能力强,但部署复杂度高,需要专门的路由机制。
Qwen3.6-27B就是针对这个需求推出的——270亿参数,稠密架构,开源权重,本地部署友好。让开发者在不需要复杂MoE路由的情况下,也能获得旗舰级的编程辅助体验。
二、参数与架构:270亿稠密多模态模型
| 项目 | 规格 |
|---|---|
| 总参数量 | 270亿(27B) |
| 架构类型 | 稠密模型 |
| 模态支持 | 文本 + 图像 + 视频(原生多模态) |
| 运行模式 | 思考模式 + 非思考模式 |
| 路由需求 | 无需MoE路由 |
稠密 vs MoE:稠密模型在推理时会激活所有参数,而MoE(混合专家模型)只会激活部分参数。MoE的优势是用更少的计算量实现更大的参数规模,代价是需要复杂的路由机制。稠密模型的优势是推理逻辑简单、延迟稳定、部署门槛低。
Qwen3.6-27B选择稠密架构,核心考量是降低开发者部署门槛。
三、性能表现:多项基准测试结果
3.1 编程能力基准
Qwen3.6-27B在多项反映真实智能体编程能力的权威基准测试中表现突出:
| 基准测试 | 测试内容 | 表现 |
|---|---|---|
| SWE-bench Verified | 代码修复能力 | 77.2分 |
| Terminal-Bench 2.0 | 终端命令执行能力 | 表现出众 |
| SkillsBench | 技能推理任务 | 进步显著 |
| QwenWebBench | Web开发能力 | 表现出众 |
| NL2Repo | 自然语言到代码仓库 | 表现出众 |
核心亮点:在所有主要编程基准上,Qwen3.6-27B全面超越了参数量是其15倍的Qwen3.5-397B-A17B。这意味着开发者无需复杂的MoE路由即可获得旗舰级的编程辅助体验。

3.2 多模态能力
Qwen3.6-27B原生支持多模态处理:
- 输入支持:图像 + 视频 + 文本混合输入
- 应用场景:视觉推理、文档深度理解、交互式视觉问答
- 能力对标:视觉语言能力与Qwen3.6-35B-A3B保持一致
原文提到,其多模态处理能力已与更高参数级别的Qwen3.6-35B-A3B一致,确保了多模态任务下的高精度产出。
四、部署与生态对接
4.1 获取方式
模型地址: https://www.modelscope.cn/models/Qwen/Qwen3.6-27B
| 方式 | 平台 | 说明 |
|---|---|---|
| 开源权重下载 | Hugging Face、ModelScope | 支持本地部署 |
| 在线体验 | Qwen Studio(chat.qwen.ai) | 即时交互 |
| API调用 | 阿里云百炼平台 | 即将支持 |
4.2 开发工具集成
Qwen3.6-27B已实现对主流编程助手的无缝集成:
这意味着开发者可以把Qwen3.6-27B作为这些编程助手的本地推理引擎,在保持数据隐私的前提下获得高质量的编码辅助。
4.3 特殊功能
阿里云百炼平台将保留"preserve_thinking"功能,以便在智能体任务中完整回溯思维链。这对于需要理解AI推理过程的场景很有价值。

五、行业意义:重新审视参数与能力的关系
Qwen3.6-27B的发布,让行业重新审视参数量与能力的线性关系。
过去几年,大模型领域的主流叙事是:参数越大,能力越强。GPT-4、Gemini Ultra、Claude Opus——旗舰模型的参数规模一直在攀升。但Qwen3.6-27B证明了另一条路径:通过训练效率与推理逻辑的重构,中等规模的稠密模型也能在特定任务上达到甚至超越超大参数MoE模型的表现。
有媒体用了一个比喻:这就像是用一台精密的涡轮增压小排量引擎,在赛道上超了一辆笨重的重型卡车。
这种跨层级的性能跃升,本质上是训练效率与推理逻辑的重构。对于开发者来说,这意味着在本地部署的模型,也能完成以往大尺寸或MoE模型才能实现的智能体编程任务。
AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说
AITOP100平台官方交流社群二维码:










