通义千问 QwQ-32B 荣登 Hugging Face 大模型榜首
在 AI 开源社区 Hugging Face 的更新中,阿里巴巴通义千问推理模型 QwQ-32B 成功登顶大模型榜单。该模型一经发布,便备受瞩目,超越了微软 Phi-4 和 DeepSeek-R1 等知名模型,展现了强大的性能。
QwQ-32B 模型在数学、代码处理及通用能力等方面实现了显著提升,尤其值得一提的是,其参数数量相对较少,但整体性能却能与 DeepSeek-R1 相媲美。此外,该模型允许用户在普通显卡上进行本地部署,大大降低了应用成本,为更多用户提供了经济便捷的 AI 应用选择。
在多项基准测试中,QwQ-32B 模型的表现均十分出色,性能直逼 OpenAI 的 o1-mini,与 DeepSeek-R1 不相上下。在 AIME24 数学评测集和 LiveCodeBench 代码能力测试中,QwQ-32B 的成绩与 DeepSeek-R1 持平,远超 o1-mini 及其同尺寸的 R1 蒸馏模型。
目前,QwQ-32B 模型已在魔搭社区、Hugging Face 及 GitHub 等平台以 Apache2.0 协议开源,用户可免费下载并进行本地部署。此外,用户还可以通过阿里云百炼平台直接调用模型 API 服务。
QwQ-32B 关键特性:
- 性能领先:在 Hugging Face 榜单位居榜首,超越众多知名模型。
- 成本效益:支持消费级显卡的本地部署,降低应用成本。
- 实力强劲:基准测试表现优异,可与 DeepSeek-R1 相媲美。
通义千问 QwQ-32B 大模型地址:【点击登陆】