ITBear旗下自媒体矩阵:

麻省理工背景Liquid AI发布LFM2,为企业打造设备端高效小模型新蓝图

   时间:2025-12-02 18:22:58 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

麻省理工学院计算机科学家团队创立的初创公司Liquid AI,近日凭借其最新发布的第二代设备端基础模型LFM2引发行业关注。这款基于创新"liquid"架构打造的模型,通过优化训练与推理效率,在移动设备端实现了与云端大型语言模型的性能对标,为边缘计算领域开辟了新的技术路径。

LFM2系列首批推出350M、700M及1.2B参数的密集检查点版本,采用门控短卷积混合架构设计。基准测试数据显示,该模型在CPU吞吐量和生成质量两个维度均超越Qwen3、Llama3.2及Gemma3等同类产品。其核心优势在于突破传统设备端模型的能力限制,使手机、笔记本电脑及车载系统等终端设备能够直接运行实时AI应用,同时确保用户数据全程留存本地。

技术层面,Liquid AI团队在arXiv平台公开的51页技术报告中,系统披露了模型开发的全流程细节。从架构搜索策略到训练数据配比,从蒸馏目标设定到课程学习方案,报告详细记录了如何通过工程化手段将模型参数压缩至传统模型1/5规模的同时,保持90%以上的性能表现。配套发布的LEAP边缘部署栈,进一步简化了模型在不同硬件环境下的适配流程。

针对企业级应用场景,研发团队特别强化了模型的硬件约束适配能力。通过内置延迟预算、内存占用及散热阈值等参数调节模块,LFM2可自动优化运行策略以匹配设备性能。测试表明,在搭载骁龙8 Gen3芯片的智能手机上,该模型在保持每秒15 token生成速度的同时,功耗较前代产品降低42%。这种可预测性设计显著提升了AI工具在工业检测、医疗诊断等关键领域的部署可靠性。

值得关注的是,Liquid AI同步推出的模型定制化服务已吸引多家企业开展合作。通过调整微调数据集和训练目标函数,客户可快速获得针对特定业务场景优化的专用模型。这种开放的技术生态策略,正在推动设备端AI从概念验证阶段向规模化商用加速迈进。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version