Liquid AI发布企业级小模型LFM2及技术蓝图,赋能设备端高效AI

麻省理工学院(MIT)孵化的初创公司Liquid AI于2025年7月10日正式推出了其第二代“液态基础模型”(LFM2)系列,旨在为市场提供最快速的设备端基础模型,并挑战传统云端大型语言模型的应用范式。

Liquid AI成立于2023年,由麻省理工学院的计算机科学家团队创立,总部设于马萨诸塞州剑桥/波士顿。该公司的核心使命是构建高效、通用的AI系统,使其能够在各种规模下运行。

LFM2系列模型采用了一种创新的混合架构,区别于传统的Transformer架构,其设计灵感来源于动力系统、信号处理和数值线性代数等工程原理。这种架构结合了门控短卷积与分组查询注意力机制,从而实现了卓越的训练和推理效率。初期发布的LFM2模型包含3.5亿、7亿和12亿参数的密集检查点。此外,据一份技术报告披露,该系列还涵盖了26亿参数的密集模型以及一个总参数为83亿(活跃参数15亿)的专家混合(MoE)变体,均支持32K的上下文长度。

基准测试结果显示,LFM2在CPU上的解码和预填充性能比同类竞争产品(如Qwen3和Gemma 3)快两倍。LFM2在指令遵循、函数调用、知识、数学和多语言能力等多项评估中均表现出色,超越了参数规模相似的模型。同时,其训练效率相较于上一代LFM提升了三倍。

LFM2的设计理念围绕企业实际需求,严格考量延迟预算、内存限制和热阈值等因素,确保AI应用能够在智能手机、笔记本电脑和车载系统等各类设备上实现实时、私密且高效的运行,有效解决了性能与延迟之间的权衡难题。

为进一步推动行业发展,Liquid AI于2025年11月28日在arXiv平台上公开发布了一份长达51页的LFM2详细技术报告(arXiv ID 2511.23404)。该报告全面揭示了模型背后的架构搜索过程、训练数据混合策略、蒸馏目标、课程学习方法以及后训练流程,为其他组织从零开始训练适用于自身硬件和部署需求的小型高效模型提供了宝贵的参考蓝图。

LFM2发布后,Liquid AI持续拓展其产品生态,不仅增加了面向特定任务和领域的变体,还推出了小型视频摄取和分析模型(LFM2-VL,于2025年8月20日发布,包含4.5亿和16亿参数版本),以及一个名为LEAP的边缘部署堆栈,为企业提供更为全面的AI解决方案。目前,LFM2模型已通过Hugging Face平台开放,遵循基于Apache 2.0的开放许可协议,允许学术研究及年收入低于1000万美元的公司免费用于商业用途,更大型企业则需联系Liquid AI获取商业授权。

上一篇:

下一篇:

发表回复

登录后才能评论