最近有个好消息,MLX-LM已经直接“入驻” Hugging Face平台啦!这可真是个里程碑式的更新,给那些用Apple Silicon设备(像M1、M2、M3、M4芯片这些)的小伙伴们带来了大大的便利。以后啊,大家不用再依赖云服务,也不用费劲巴拉地等模型转换,就能直接在本地设备上以超快的速度跑超过4400种大型语言模型(LLM)了!
本地化AI开发更普及,工具更高效灵活
这次集成,无疑又给本地化AI开发添了一把火,让开发者和研究人员们有了更趁手的工具。这工具啊,不仅高效,还特别灵活,能让大家的工作更顺手。
MLX-LM与Hugging Face的“天作之合”
说到 MLX,这可是Apple机器学习研究团队专门为Apple Silicon设备量身打造的机器学习框架。它的目标就是充分利用M系列芯片里的神经引擎(ANE)和Metal GPU的强大性能,让机器学习跑得更快、更稳。
而 MLX-LM 作为MLX的“得力助手”,主要负责大语言模型的训练和推理。这几年,它因为高效又易用,可是受到了不少人的追捧。现在好了,它跟Hugging Face一集成,直接就能从Hugging Face Hub上加载模型,再也不用多走一步转换模型的路了,工作流程一下子就简化了不少。
想试试?直接点这里!
想体验一下这个新功能的小伙伴们,赶紧戳这个链接:**https://huggingface.co/models?library=mlx**。在这里,你能找到各种适合Apple Silicon设备运行的大型语言模型,让你的设备发挥出最大的潜力!
总的来说,MLX-LM和Hugging Face的这次集成,真是给Apple Silicon设备的用户们带来了福音。以后啊,咱们在本地设备上跑大模型就更方便、更高效了!