麻省理工学院计算机科学家团队创立的初创公司Liquid AI,近日凭借其最新发布的第二代设备端基础模型LFM2引发行业关注。这款基于创新"liquid"架构打造的模型,通过优化训练与推理效率,在移动设备端实现了与云端大型语言模型的性能对标,为边缘计算领域开辟了新的技术路径。
LFM2系列首批推出350M、700M及1.2B参数的密集检查点版本,采用门控短卷积混合架构设计。基准测试数据显示,该模型在CPU吞吐量和生成质量两个维度均超越Qwen3、Llama3.2及Gemma3等同类产品。其核心优势在于突破传统设备端模型的能力限制,使手机、笔记本电脑及车载系统等终端设备能够直接运行实时AI应用,同时确保用户数据全程留存本地。
技术层面,Liquid AI团队在arXiv平台公开的51页技术报告中,系统披露了模型开发的全流程细节。从架构搜索策略到训练数据配比,从蒸馏目标设定到课程学习方案,报告详细记录了如何通过工程化手段将模型参数压缩至传统模型1/5规模的同时,保持90%以上的性能表现。配套发布的LEAP边缘部署栈,进一步简化了模型在不同硬件环境下的适配流程。
针对企业级应用场景,研发团队特别强化了模型的硬件约束适配能力。通过内置延迟预算、内存占用及散热阈值等参数调节模块,LFM2可自动优化运行策略以匹配设备性能。测试表明,在搭载骁龙8 Gen3芯片的智能手机上,该模型在保持每秒15 token生成速度的同时,功耗较前代产品降低42%。这种可预测性设计显著提升了AI工具在工业检测、医疗诊断等关键领域的部署可靠性。
值得关注的是,Liquid AI同步推出的模型定制化服务已吸引多家企业开展合作。通过调整微调数据集和训练目标函数,客户可快速获得针对特定业务场景优化的专用模型。这种开放的技术生态策略,正在推动设备端AI从概念验证阶段向规模化商用加速迈进。















