开源 AI 项目 Jan 团队近日正式推出了全新的多模态大模型 Jan-v2-VL-Max。这款拥有30B 参数的模型并非盲目追求通用性,而是精准锁定在“长周期执行任务”这一核心痛点上,旨在解决 AI 在复杂自动化流程中容易“断片”的问题。
该模型的技术底座源自 Qwen3-VL-30B-A3B-Thinking。为了提升在多步操作中的稳定表现,Jan 团队引入了 LoRA-based RLVR 技术。这项技术的精妙之处在于它能有效减少多步执行过程中的误差累积,从而显著抑制 AI 在处理长任务时常见的“幻觉”现象。
在实际性能表现上,Jan-v2-VL-Max 在专门衡量执行稳定性的“幻象递减回报”基准测试中,甚至超越了 Gemini2.5Pro 和 DeepSeek R1等知名模型。这意味着它在处理诸如 Agent 自动化、UI 界面控制以及其他需要高度逻辑连贯性的任务时,拥有更强的可靠性。
目前,开发者和 AI 爱好者已经可以通过网页端直接体验,或者利用 vLLM 在本地进行私有化部署。作为一款主打离线运行、尊重隐私的Jan生态成员,新模型的加入无疑为追求本地化 AI 自动化的用户提供了一个更强力的工具选项。
huggingface:https://huggingface.co/janhq/Jan-v2-VL-max-FP8










