近日,Mininglamp 开源了两个重量级本地 AI 项目——Cider 和 Mano-P,分别针对 Mac 端侧推理加速和 GUI 智能体操作两大痛点,为用户打造一套完整的本地 AI 基础设施。这意味着 Mac 不再只是“能跑 AI”,而是真正成为高效、私有、可深度操控的 AI 工作站。
Cider:释放 M 系列芯片潜能,LLM/VLM 本地跑得更快更省许多用户在 Mac 上部署本地大模型时都会遇到相同问题:硬件芯片性能强劲,但实际推理速度和内存占用并未达到预期。Cider正是为此而来。
该项目专注于更充分挖掘 M 系列芯片(特别是 M5)的 INT8TensorOps 能力,通过优化底层计算路径,显著提升大型语言模型(LLM)和视觉语言模型(VLM)的本地推理速度,同时大幅降低内存消耗。为 Mac 用户在端侧高效运行 AI 模型提供了实用解决方案。
Mano-P:纯视觉 GUI Agent,实现 AI“看屏 + 操作”全流程如果说 Cider 解决的是“跑得快”,那么Mano-P解决的就是“怎么用”——让 AI 像人类一样真正理解和操作电脑。
Mano-P 是一款面向端侧设备的 GUI-VLA Agent,支持在 Mac mini 和 MacBook 上进行本地推理。它突破了传统 Agent 仅限于浏览器操作的限制,能够直接操控桌面软件、网页界面、专业工具以及复杂图形化工作流。
其核心能力包括:
复杂 GUI 自动化操作跨系统数据整合长任务规划与执行智能报告生成自主应用构建技术路径采用纯视觉 GUI 操作方式,整个过程中截图和任务数据均不出设备,充分保障隐私安全。
实战演示:Mano-P 玩转麻将,实现自主决策项目展示中,Mano-P 已在麻将游戏场景中展现出强大能力。它通过纯视觉理解游戏界面,自主完成识牌、局面分析和决策动作,展示了从“感知”到“行动”的完整闭环能力。
两大开源项目合力,构建本地私有 AI 基础设施Cider 作为端侧推理加速框架,Mano-P 作为端侧 GUI Agent 模型,二者结合形成了一套完整的本地 AI 解决方案。无论是追求极致推理效率,还是需要 AI 自主完成复杂桌面任务的用户,都能在 Mac 上获得更强大、更私密的 AI 体验。
AIbase 点评:随着本地大模型部署需求持续增长,Mininglamp 此次开源的 Cider 和 Mano-P 精准击中 Mac 用户痛点,为端侧 AI 的实用化和生态化发展提供了重要参考。感兴趣的开发者可关注项目最新动态,亲手搭建属于自己的本地 AI 工作站。










