Liquid AI正式推出LFM2-VL视觉语言模型系列,以超低延迟、高效能的特性,为智能手机、可穿戴设备等终端场景注入新活力。这款模型打破传统多模态AI“高性能必高耗能”的魔咒,在速度与精度间找到完美平衡。
核心亮点:速度翻倍,资源减半
LFM2-VL-450M与LFM2-VL-1.6B双版本同步上线,覆盖不同算力需求:
- 450M参数版:专为资源受限设备打造,内存占用极低,老款手机也能流畅运行。
- 1.6B参数版:单GPU或高端移动设备首选,兼顾性能与效率,支持更复杂任务。
实测数据显示,LFM2-VL的GPU推理速度较同类模型提升200%,在图像描述、视觉问答等任务中表现媲美InternVL3等大型模型,但内存占用更少、响应更快。
技术创新:模块化架构+像素解混
LFM2-VL采用模块化设计,由语言主干(LFM2系列)、SigLIP2NaFlex视觉编码器及多模态投影器组成,通过“像素解混”技术动态压缩图像标记数量,大幅降低计算量。
- 原图处理能力:支持最高512×512像素输入,避免放大失真,大图自动分割为无重叠补丁,保留细节。
- 全局上下文优化:1.6B版本额外编码缩略图,兼顾局部与整体理解。
应用场景:从手机到机器人,全覆盖
LFM2-VL的灵活推理机制允许用户动态调整速度与质量比,适配不同设备能力:
- 消费级场景:手机相册智能分类、AR导航实时交互、可穿戴设备实时健康监测。
- 工业级场景:智能摄像头异常检测、机器人视觉导航、物联网设备数据解析。
开放生态:零门槛接入,支持量化
模型已在Hugging Face开源,提供开放权重,研究者与开发者可自由下载调试。商业用户可通过联系Liquid AI获取专属许可。值得一提的是,LFM2-VL与Hugging Face Transformers深度集成,并支持量化技术,进一步压缩模型体积,提升边缘硬件部署效率。
行业意义:推动AI去中心化
LFM2-VL的发布标志着多模态AI从云端走向终端的关键一步。其低延迟特性减少对云服务的依赖,为实时交互、隐私保护等场景提供新可能。Liquid AI表示,未来将持续优化模型,助力更多设备实现“本地化智能”。
立即体验: https://huggingface.co/collections/LiquidAI/lfm2-vl-68963bbc84a610f7638d5ffa
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码: