近日,科技界迎来了一项令人瞩目的新成果:InternLM 团队宣布开源其精心打造的轻量级多模态推理模型 Intern-S1-mini。这款模型以8B的参数规模,巧妙融合了Qwen3-8B语言模型与0.3B的InternViT视觉编码器,展现出卓越的处理效能与高度灵活性。
在多项基准测试中,Intern-S1-mini 的表现均超越同类模型,成绩斐然。在MMLU-Pro、MMMU、GPQA及AIME2024/2025等任务上,该模型分别取得了令人瞩目的ChemBench分数76.47、MatBench分数61.55以及ProteinLMBench分数58.47。这些出色的成绩不仅彰显了Intern-S1-mini的强大实力,也进一步验证了其在处理文本、图像及视频输入方面的广泛兼容性。
Intern-S1-mini 还创新性地引入了“思考模式”,用户只需通过简单的开关命令(enable_thinking)即可轻松切换。这一设计极大地增强了模型的交互性,为用户带来了更为便捷、灵活的使用体验。
在科技日新月异的今天,Intern-S1-mini 的发布无疑为科研人员及开发者们提供了一个强大的工具,助力他们在多模态推理领域探索更多未知,实现更多创新与突破。无论是基础科学研究还是实际应用场景,Intern-S1-mini 都将成为备受瞩目的焦点。