AI Infra公司迎来DeepSeek-R1接入潮
自AI Infra公司宣布接入DeepSeek-R1模型以来,众多中小企业纷纷寻求合作,清程极智便遇到了类似的情形。客户最关心的问题是:“你们的DeepSeek是不是‘满血版’?”
注:DeepSeek“满血版”指的是参数高达671B的顶级版本,是普通版(14B/32B)的20倍以上。它支持本地/API部署及复杂科研计算,能力更强,对硬件要求也更高。
为了解决客户的疑虑,清程极智团队巧妙地利用工程手段,在官网上线了一个“满血版”鉴别小程序。该小程序通过精心挑选的题目来判断模型版本,回答准确则为“满血版”,否则可能不是。
这个小程序的访问量远超清程极智的预期。
清程极智的经历是AI行业近期发展的一个缩影。“整个AI行业最近一个多月都过得很充实。”业内人士表示,DeepSeek的火爆,让整个AI赛道“痛并快乐着”。
一方面,DeepSeek激发了用户对AI工具的需求,推动了AI普及。它也成为了增速最快的AI应用。但用户涌入也导致DeepSeek对话机器人频繁出现“服务器繁忙”的情况。
另一方面,DeepSeek的快速迭代和开源,让AI行业进入了新一轮的“军备竞赛”。云服务商、芯片制造商以及各类应用公司纷纷宣布接入DeepSeek。据统计,已有超过200家企业完成了DeepSeek技术接口的集成部署。
接入的企业也获得了巨大的流量。例如,腾讯元宝APP在接入DeepSeek后,下载量迅速攀升,登顶中国区苹果应用商店免费APP下载排行榜;硅基流动在全网最快接入DeepSeek-R1,访问量激增40倍,2月访问量高达1719万人次。
DeepSeek-R1的出现,提高了各方对AIGC应用发展的期待。Monica.im发布AI智能体产品Manus时,再次引发了“邀请码抢购”热潮。
无论是模型厂商还是AI产业链上下游公司,都在期待通往未来AI世界的关键路径。
DeepSeek的接入方式
早在2024年DeepSeek-V2模型发布时,业内已经关注到这家公司及其开源模型。
美图设计室技术负责人郭晨晖表示,为了提升AI应用的用户体验,美图一直关注国内外优秀的大模型。DeepSeek-V2发布后,美图的外采AI团队就与DeepSeek团队接触,尝试合作。为了寻求稳定性,美图当时主要通过第三方AI Infra服务商调用DeepSeek模型API。2024年9月,美图设计室接入了V2模型,辅助文案扩写,V3、R1模型发布后,他们也陆续进行了更新。
DeepSeek官方提供了两种接入方法:一是通过编程调用API接口;二是直接在APP或官网聊天窗口与AI对话,背后也是调用API。
但由于DeepSeek流量过高,存在服务器、人手不足等问题,API会出现超时等问题。郭晨晖表示,美图产品有着庞大的用户基数,流量可能激增数十倍,公有云的服务保障能力相对更强。
此外,“满血版”模型对硬件有一定要求;基于性价比考虑,美图的业务场景存在明显的高峰、低峰效应,云厂商可以抹平API调用高峰期的差异。“如果我们自己部署,低峰期资源利用率可能较低,造成资源浪费。”郭晨晖说。
因此,美图目前主要通过调用云厂商的API来接入DeepSeek-R1模型,并进行一定的私有化部署。
与美图类似,部署端侧芯片的此芯科技也关注着新发布的大模型,尤其是适合在端侧本地化部署的模型。此芯科技生态战略总经理周杰表示,对于开源的大模型,他们会第一时间投入资源进行异构适配。因此在DeepSeek发布V2以及R1后,此芯科技都第一时间尝试适配。
周杰认为,DeepSeek-V2模型的主要创新点在于:通过MLA架构降低KV缓存开销;以及通过MoE模型,让更大参数的模型在资源有限的情况下被使用。
当时,此芯科技很快适配了V2模型的light版本,即16B大小的模型。“虽然16B参数看起来很大,但实际运行时只会激活2.4B参数。我们觉得这样的模型非常适合在端侧运行,此芯科技的P1芯片也可以给2.4B参数规模的模型提供较好的支持。”周杰说。
周杰解释道:“用户使用DeepSeek等应用,需要调用云端算力,相当于DeepSeek或云厂商提供API给终端侧应用调用。但是部分端侧场景对数据隐私有较高要求,需要在本地运算。在端侧部署后,用户可以在断网情况下运行DeepSeek等模型。”
在满足算力和系统要求后,此芯科技就可以结合客户项目需求,与DeepSeek等模型厂商进行商业化合作,对模型进行微调优化,落地项目。
V2推出后,清程极智也尝试接入,但当时市场需求较少。R1出来后,他们决定接入并大规模推广。
清程极智提供基于系统软件的推理服务,他们为客户提供一套专属的DeepSeek的API用于应用服务。“我们接入的方式是把DeepSeek的开源模型下载下来,在我们的算力系统上用系统软件把服务部署起来。”汤雄超说。
简单来说,R1模型是一个几百G大小的文件,下载后无法直接使用。“它只是一个文件,不是一个可用的服务。我们需要将它运行起来,对外提供服务接口。用户通过API接口与模型对话。”汤雄超解释道。
基于前期积累,清程极智在下载模型文件后,一天内迭代出第一个版本,并针对R1模型结构进行优化,一周内正式上线“满血版”。
在汤雄超看来,技术环节比较顺利,更大的挑战来自商务侧和市场侧。客户的需求各不相同,包括算力平台、芯片型号、服务器规格等,需要针对不同基础做针对性调优。
API成本降低推动大模型普及
DeepSeek在2024年5月发布V2模型后,以极致性价比获得“AI界拼多多”的称号,并带动了国内大模型价格战。
价格战降低了API费用。以美图“AI商品图”为例,郭晨晖认为,美图在AI图像处理上拥有强大技术优势,DeepSeek模型的接入带来了用户体验和转化的正向反馈,且大语言模型API的调用成本占比很低,与美图的业务场景形成了优势互补,因此美图会加大对大语言模型应用的关注。
DeepSeek停止了V3模型为期45天的优惠价格体验期,API恢复原价。R1的百万tokens输入价格(缓存命中)为1元,百万tokens输入价格(缓存未命中)为4元,输出价格为16元。
而OpenAI的GPT-4o价格更高。最新发布的GPT-4.5的价格更是高达75美元/百万输入tokens,150美元/百万输出tokens,远高于GPT-4o。
郭晨晖认为,一方面DeepSeek模型调用费用在美图AI研投的整体成本占比不高;另一方面,DeepSeek恢复原价后依然处于比较便宜的价格区间,且美图接入DeepSeek后,在用户转化及反馈上是正向的,因此他们会加大在大语言模型方面的投入。
周杰也认为,DeepSeek的API价格比OpenAI低很多倍,大大降低了企业和用户的token购买费用。在端侧模型层面,现在一个3B的模型可能就能做到以前7B以上规模的模型效果,内存等成本也相对降低。
“这是个软硬件协同的过程。同样的硬件条件下,现在能实现以前更大参数规模的模型效果,或者要达到同样的模型效果,对硬件的要求变低了。”周杰说。
3月初,DeepSeek团队首次对外公布了模型的优化技术细节、成本利润率等关键信息。按DeepSeek测算,其成本利润率理论上能达到545%。
大模型成本的快速降低以及能力的提升,带来了to B和to C领域用户的高速增长。汤雄超透露,现在有很多的中小企业会主动联系到他们,希望获得基于R1模型的产品。
AI应用将加速爆发
百度创始人李彦宏表示,大模型的推理成本每12个月就降低90%以上,远超“摩尔定律”。随着大模型技术的迭代和成本的直线下降,人工智能应用将大爆发。
目前,AI市场处于高速增长阶段,汤雄超认为,DeepSeek的理论利润率对于整个行业意义重大,给市场科普了算力系统软件的重要性。
“过去大家并不是非常重视软件的能力,DeepSeek让大家认识到,花钱买软件不是浪费钱,而是为了更好地省钱。”汤雄超表示,在受过教育的市场环境下,核心系统软件的优势能被更大地发挥出来;短期来看,DeepSeek的开源也能让各方降低产品交付的商业成本。
随着越来越多企业接入DeepSeek,在其开源生态上做“建设”反馈,DeepSeek的发展进程也在加速。
郭晨晖认为,这也是DeepSeek开源生态最大的优势——接入的企业在各自应用场景上打造差异化能力产品,应用场景也能推动DeepSeek等基座大模型的发展。“各家公司在开源生态的差异化部署不仅能加速AI的创新,大模型的低成本化也有助于大模型在垂直细分领域的可用性,给AI的应用带来更大的想象空间。”郭晨晖说。
在周杰看来,除了云端应用爆发外,在DeepSeek的推动下,端侧AI应用也会在2025年实现井喷式发展。
“未来的AI是一个混合式的人工智能,不是所有东西都在云端跑,也不是所有东西都在端侧跑,因为各有各的优势。如端侧只能跑相对小规模参数的模型,但对于某些任务来说,对精度有更高要求,还是要用云端算力;而为了保证数据安全和隐私,就需要使用端侧能力实现以前更大参数规模的模型效果,这就形成一个混合式的部署方案。”周杰说,此芯科技也在跟云厂商进行这方面的应用探索。
“AI应用元年”已经不是一个新概念,但截至目前,AI行业从业者以及投资人,还在寻找更适合AI应用的落地场景。在周杰看来,这只是时间问题,“一个新生态的发展肯定需要一定时间,所有的东西不会突然完善,需要软件和硬件不断迭代。目前来看,芯片侧、模型侧等已经为AI的大规模应用打下了坚实的基础,后面需要更多的开发者来开发AI应用,满足实际的场景需求。”