腾讯新动作:混元-A13B模型开源登场
最近,腾讯又有大动作啦!正式发布并开源了混元大模型家族的新成员——混元-A13B模型。这个模型可不简单,它采用了基于专家混合(MoE)架构,总参数规模达到了800亿,激活参数也有130亿。在保持顶尖开源模型效果的同时,还大幅降低了推理延迟和计算开销,给个人开发者和中小企业带来了更具性价比的AI解决方案。

部署超轻松:一张卡搞定
硬件要求低
腾讯介绍说,腾讯混元-A13B模型在极端条件下,仅需1张中低端GPU卡就能部署。这对很多开发者来说,无疑是个好消息。以前,部署大型AI模型可能需要昂贵的高端硬件,成本很高。现在,有了混元-A13B模型,门槛大大降低了。
下载使用便捷
用户可以通过Github、HuggingFace等技术社区下载使用这个模型,模型API也已经在腾讯云官网上线了。这样一来,更多的开发者能够以较低的成本接入前沿AI技术,推动创新应用的落地。不管是个人开发者想做点有趣的小项目,还是中小企业想提升业务效率,都能轻松上手。
性能表现佳:数学推理超厉害
数学推理能力强
在性能表现方面,混元-A13B模型在数学、科学和逻辑推理任务中展现出了领先的效果。就拿数学推理测试来说吧,这个模型能够准确完成小数比较,还能展现出分步解析能力。就好像有个聪明的小助手在旁边,一步一步帮你把问题解决清楚。
支持复杂指令响应
除了数学推理,该模型还支持调用工具生成复杂指令响应。比如说出行攻略,它能根据你的需求,给出详细的行程安排;数据文件分析,它也能快速准确地找出关键信息。这为智能体(Agent)应用开发提供了有力的支持,让开发者能够开发出更多实用的应用。
技术有创新:推理能力上限提升
语料库助力
在技术层面,混元-A13B模型通过预训练使用了20万亿高质量网络词元语料库。这就好比给模型喂了大量的“知识粮食”,提升了模型推理能力的上限。同时,它还完善了MoE架构的Scaling Law理论体系,为模型设计提供了可量化的工程化指导,让模型的设计更加科学合理。
思考模式可选
而且,这个模型还支持用户按需选择思考模式。快思考模式能提供简洁高效的输出,适合一些对速度要求较高的场景;慢思考模式则涉及更深的推理步骤,虽然速度稍慢,但准确性更高,兼顾了效率和准确性。
推动开源生态:开源新数据集
为了进一步推动AI开源生态的发展,腾讯还开源了两个新数据集。其中,ArtifactsBench主要用于代码评估,构建了包含1825个任务的新基准;C3-Bench则针对Agent场景模型评估,设计了1024条测试数据,通过这些测试数据可以发现模型能力的不足,帮助开发者不断改进模型。
此次混元-A13B模型的开源,是腾讯在AI领域持续投入的又一成果。
未来,腾讯混元大模型家族还会推出更多尺寸、更多特色的模型,和社区共享实践技术,一起促进开源生态的繁荣。相信在腾讯和众多开发者的共同努力下,AI技术会给我们带来更多的惊喜。
体验地址:【腾讯混元-A13B模型】
github地址:https://github.com/Tencent-Hunyuan
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码:









