百度文心大模型4.5系列正式迈出了开源的重要步伐,这一消息在科技界引起了广泛关注。今日,百度官方宣布,文心大模型4.5系列不仅全面开源,还同步提供了API服务,为开发者提供了极大的便利。
此次开源,百度一次性推出了涵盖多个任务需求的10款模型,从47B参数的混合专家(MoE)模型到轻量级的0.3B稠密型模型应有尽有,满足了文本、多模态等多种应用场景的需求。这些模型的权重与代码均完全开放,开发者可以通过飞桨星河社区、HuggingFace以及百度智能云千帆平台轻松下载并使用。
值得注意的是,文心大模型4.5系列遵循的是Apache 2.0协议,这一举措不仅彰显了百度的开放态度,也为学术研究和产业应用提供了强有力的支持。在模型数量、类型、参数丰富度以及开源的宽松度和可靠性等方面,百度此次均展现出了十足的诚意。
文心大模型4.5系列在MoE架构上提出了一种创新性的多模态异构模型结构,这种结构在保持甚至提升文本任务性能的同时,显著增强了多模态理解能力。其优越的性能得益于多模态混合专家模型预训练、高效训练推理框架以及针对模态的后训练等关键技术。这些模型均使用了飞桨深度学习框架进行高效训练、推理和部署,在大语言模型的预训练中,模型FLOPs利用率高达47%。
实验结果显示,文心大模型4.5系列在多个文本和多模态基准测试中均达到了业界领先水平,特别是在指令遵循、世界知识记忆、视觉理解和多模态推理任务上表现尤为突出。在文本模型方面,该系列模型在主流基准评测中超越了DeepSeek-V3、Qwen3等模型;而在多模态模型方面,则基于强大的视觉感知能力和丰富的视觉常识,在视觉常识、多模态推理等评测中优于闭源的OpenAI模型。
文心大模型4.5系列中的轻量模型也表现出色,文心4.5-21B-A3B-Base文本模型效果与同量级的Qwen3相当,而文心4.5-VL-28B-A3B多模态模型在同量级开源模型中更是达到了顶尖水平,甚至能与更大参数的模型一较高下。
为了让开发者更好地利用这些模型,百度还基于飞桨提供了开源的产业级开发套件,这些套件广泛兼容多种芯片,大大降低了模型的后训练和部署门槛。作为国内最早投入AI研发的企业之一,百度在算力、框架、模型到应用的全栈布局上构建了显著的技术优势。此次文心大模型4.5系列的开源,也标志着百度在框架层与模型层实现了“双层开源”,为开发者提供了更加全面和便捷的工具链支持。