人工智能领域迎来新突破,Liquid AI正式发布新一代小型基础模型家族LFM2.5。该系列基于成熟的LFM2架构优化升级,专为边缘设备与本地化部署设计,通过开源权重形式在Hugging Face平台开放下载,同时通过LEAP技术展示平台提供交互体验。此次发布的模型矩阵包含文本、视觉语言、音频语言三大核心方向,并针对日语等特定场景推出定制化版本。
在架构设计层面,LFM2.5延续了CPU与NPU协同优化的混合计算模式,通过改进内存管理机制实现推理效率的显著提升。基础模型参数规模扩展至12亿,预训练数据量从10万亿tokens跃升至28万亿tokens,构建起更庞大的知识储备。指令微调阶段采用多阶段强化学习框架,重点强化指令理解、工具调用、数学运算及知识推理等关键能力,确保模型在复杂任务中的可靠性。
文本处理领域,LFM2.5-1.2B-Instruct作为通用型主力模型表现亮眼。在GPQA知识问答基准测试中取得38.89分,MMLU Pro综合评估中达到44.35分,两项指标均领先于Llama-3.2-1B和Gemma-3-1B等同规模开源模型。针对日语市场开发的LFM2.5-1.2B-JP版本,在JMMLU学科测试、M-IFeval交互评估等专项任务中展现出独特优势,其性能表现可与多语言模型媲美。
多模态能力方面,视觉语言模型LFM2.5-VL-1.6B通过集成专用视觉处理模块,实现了文档解析、界面识别及多图推理等场景的深度优化。该模型在边缘设备上保持高效运行,特别适合需要实时图像理解的移动端应用。音频语言模型LFM2.5-Audio-1.5B则突破性地采用新型音频反标记化技术,将语音处理速度提升至前代方案的八倍,在语音对话系统、实时转录等场景中展现出商业应用潜力。
技术文档显示,LFM2.5系列通过模块化设计实现功能扩展,开发者可根据需求灵活组合不同组件。所有模型均经过严格的边缘计算环境测试,在低功耗设备上仍能维持稳定性能。此次发布标志着边缘人工智能向专业化、场景化方向迈出重要一步,为智能终端、物联网设备等场景提供了更高效的AI解决方案。









