ITBear旗下自媒体矩阵:

面壁智能MiniCPM-V4.0多模态模型开源:4B参数量,移动端流畅运行

   时间:2025-08-07 14:28:05 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

魔搭ModelScope社区近期传来振奋人心的消息,正式推出了新一代多模态模型MiniCPM-V4.0,并已全面开源。这款模型凭借仅4B的参数量,在多个权威榜单如OpenCompass、OCRBench及MathVista上均取得了同级最佳表现。尤为它能够在智能手机等移动设备上实现稳定且流畅的运行,为用户带来前所未有的体验。

MiniCPM-V4.0的问世,标志着多模态模型在端侧应用领域取得了突破性进展。作为专为移动设备设计的模型,它以较小的体积实现了高效运行与快速响应,即便长时间连续使用,也不会出现设备过热或卡顿的问题。更令人欣喜的是,魔搭社区还同步开源了推理部署工具MiniCPM-V CookBook,为开发者提供了在不同设备、不同场景下轻松部署的解决方案。

在性能表现上,MiniCPM-V4.0无疑达到了新的高度。在包括OpenCompass、OCRBench、MathVista在内的多项基准测试中,它均展现出了同级最优的综合性能。特别是在OpenCompass测评中,MiniCPM-V4.0的表现甚至超越了Qwen2.5-VL3B和InternVL2.54B等模型,与GPT-4.1-mini和Claude3.5Sonnet等业界顶尖模型不相上下。相较于上一代MiniCPM-V2.6的8B模型,MiniCPM-V4.0在参数减半的同时,多模态能力实现了显著提升。

MiniCPM-V4.0之所以能在手机、PC等端侧设备上流畅完成实时视频理解、图像理解等复杂任务,离不开其独特的模型结构设计。这一设计不仅提升了模型的运行效率,还显著降低了显存占用。在Apple M4metal上的测试中,MiniCPM-V4.0的显存占用仅为3.33GB,远低于同级别的Qwen2.5-VL3B和Gemma3-4B等模型。在图片理解测试中,借助ANE + metal的辅助加速,MiniCPM-V4.0的首次响应时间得到了大幅缩短,尤其在处理高分辨率图片时,其优势更为明显。

为了全面评估MiniCPM-V4.0的性能,研究团队还利用两张4090GPU对其并发量和吞吐量进行了深入测试。测试结果显示,在算力资源允许的情况下,随着并发量的增加,MiniCPM-V4.0的总吞吐量优势愈发显著。例如,在256并发用户需求下,其吞吐量高达13856tokens/s,远超Qwen2.5-VL的7153tokens/s和Gemma3的7607tokens/s,充分展现了其强大的处理能力和广泛的应用潜力。

感兴趣的开发者可以通过以下链接获取更多信息并下载相关资源:Github链接:https://github.com/OpenBMB/MiniCPM-o;Hugging Face链接:https://huggingface.co/openbmb/MiniCPM-V-4;ModelScope链接:https://modelscope.cn/models/OpenBMB/MiniCPM-V-4;CookBook链接:https://github.com/OpenSQZ/MiniCPM-V-CookBook。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version