刚刚阿里云宣布了一个震撼业界的消息,九款通义大模型价格大幅下降。其中,性能媲美GPT-4的Qwen-Long模型,API输入价格从0.02元/千tokens降至0.0005元/千tokens,即1块钱可以买到200万tokens,相当于五本《新华字典》的文字量,堪称全球大模型中最具性价比的选择。
相比OpenAI的GPT系列,降价后的通义千问系列基本上都是以一折购得,性价比极高。尤其是Qwen-Long,其价格仅为GPT-4的1/400,但性能却不逊色。在处理长文本方面,Qwen-Long支持最长1000万tokens的上下文对话,能够轻松处理约1500万字或1.5万页的文档,并支持多种文档格式的解析和对话。
此次降价名单中,还包括刚发布不久的通义千问超大杯Qwen-max,API输入价格直降67%,降至0.02元/千tokens。
开源模型方面,Qwen1.5-72B、Qwen1.5-110B等五款模型的输入价格也均降了75%以上。
这波降价无疑再次刷新了全网最低价,可以说是大模型企业和程序员们的狂欢节。
通义千问官网:
地址: https://www.aitop100.cn/tools/detail/1474.html
1块钱200万token
具体降价信息如下:
本次降价共涵盖九款通义千问系列模型,包括商业化模型和开源模型:
- Qwen-Long,性能媲美GPT-4,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅97%;API输出价格从0.02元/千tokens降至0.002元/千tokens,降幅90%。
- Qwen-max,性能追平GPT-4-turbo,API输入价格从0.12/千tokens降至0.04元/千tokens,降幅67%。
- Qwen1.5-72B的API输入价格从0.02元/千tokens降至0.005元/千tokens,降幅75%;API输出价格从0.02元/千tokens降至0.01元/千tokens,降幅50%。
值得注意的是,与国内大部分厂商输入输出价格相同的定价方式不同,Qwen-Long的输入价格降幅更大。阿里官方解释称:用户在长文本(如论文、文档等)上的提问已成为最常见需求,因此输入调用量往往大于输出调用量。统计数据显示,真实模型输入调用量通常是输出的8倍左右。我们将输入token的价格大幅下调,让企业更划算,并促进长文本的使用。
阿里大手笔
阿里云已经不是第一次通过降价策略震撼业界。今年2月29日,阿里云推出“疯狂星期四”活动,所有云产品价格直降20%,最高降幅达55%。
阿里云作为国内第一大公有云厂商,长期的技术积累和规模效应,使其在AI基础设施和技术方面占据了优势。这次大规模降价也展示了其技术红利正在成为公有云厂商的“杀手锏”之一。
阿里云已经基于自研的异构芯片互联、高性能网络、高性能存储、人工智能平台等核心技术,构建了高弹性的AI算力调度系统。PAI平台支持10万卡规模的集群扩展,超大规模训练效率达96%,在大模型训练任务中节省了超50%的算力资源,性能达到全球领先水平。
在推理优化方面,阿里云提供了三大能力:
- 高性能优化:包括系统级的推理优化技术、高性能算子和高效推理框架。
- 自适应调优:AI应用多样化的背景下,自适应推理技术允许模型根据输入数据和计算环境动态调整。
- 可扩展部署:推理服务的扩展和弹性解决了推理服务的潮汐现象。
- 阿里云智能集团副总裁刘伟光表示,公有云的技术红利和规模效应,带来了巨大的成本和性能优势,促使“公有云+API成为企业调用大模型的主流方式”。
大模型应用时代:公有云+API
此次阿里云大幅降低大模型API输入价格的核心原因,正是希望加速AI应用的爆发,预计未来大模型API的调用量将成千上万倍增长。
对于中小企业和创业团队而言,公有云+API一直以来是性价比最高的选择。尽管开源模型发展迅猛,但私有化部署仍然成本高昂。
以Qwen-72B开源模型、每月1亿token用量为例,在阿里云上调用API,每月仅需600元,而私有化部署成本则超10000元/月。
此外,公有云+API模式便于多模型调用,并提供企业级的数据安全保障。阿里云可提供专属VPC环境,实现计算、存储、网络隔离和数据加密。目前,阿里云已参与制定了十多项大模型安全相关的国际国内技术标准。
阿里云百炼平台支持Llama系列、百川、ChatGLM等上百款国内外大模型,提供大模型应用一站式开发环境,实现5分钟开发大模型应用,5到10行代码即可搭建企业级RAG应用。
据《中国AIGC应用全景报告》统计,AIGC应用产品中,基于自建垂直大模型和API接入的产品占到近七成。这一数据证明了“公有云+API”模式的市场潜力:在应用市场,对业务理解和数据积累是关键,而公有云+API模式在成本和启动速度上更具优势。
总之,无论是价格战,还是AI基础设施之争,背后反映的都是大模型应用的普及关键在于降低使用门槛和运营成本。这对于开发者和期待更多大模型应用的用户来说,都是利好消息。
AITOP100平台资讯专区: https://www.aitop100.cn/infomation/index.html