阿里云近日宣布,正式推出Qwen3-VL系列模型的紧凑dense版本,为用户提供4B和8B两种参数规模的选项。每个参数规模均包含Instruct和Thinking两种变体,以满足不同场景下的应用需求。
这款新系列模型在技术上实现了三大突破。首先,通过优化设计,显存占用显著降低,使其能够适配更多类型的硬件环境,为开发者提供了更大的灵活性。其次,尽管参数规模有所缩减,但模型完整保留了Qwen3-VL的全部能力,特别是在多模态任务处理方面,性能表现与原版相比毫不逊色。第三,在STEM、视觉问答、光学字符识别、视频理解等多个领域,模型均展现出强劲的性能。
在基准测试中,Qwen3-VL的4B和8B版本表现尤为突出。与Gemini 2.5 Flash Lite和GPT-5 Nano等同类模型相比,新版本在STEM & Puzzle、General VQA等多项任务中均取得了更优的成绩。部分指标甚至接近六个月前发布的旗舰款Qwen2.5-VL-72B,显示出其在小参数规模下的高效性能。
为了方便用户部署,阿里云还提供了FP8版本,进一步提升了模型的运行效率。用户可以通过Hugging Face和ModelScope平台获取相关资源,或通过阿里云ModelStudio平台调用Qwen3-VL-8B-Instruct和Qwen3-VL-8B-Thinking的API。GitHub上还提供了详细的实战指南,帮助用户快速上手。
从基准测试表格中可以看出,Qwen3-VL 4B/8B版本在多个任务类别中的表现均优于Gemini 2.5 Flash Lite和GPT-5 Nano,部分指标甚至达到了Qwen2.5-VL-72B的水平。这一结果充分证明了新版本模型在小参数规模下的强大能力。
如需了解更多AI领域的最新资讯,可访问:http://www.aipress.com.cn/