AMD近日发布了一份技术指南,详细阐述了在Windows系统上通过两种不同硬件路径实现OpenClaw本地化运行的方法。这一举措是AMD“Agent Computers”战略的重要组成部分,旨在满足个人和企业用户对数据控制、无限制使用及高性价比AI的需求,将AI智能体完全部署在本地PC上。
AMD提出的两条技术路径分别命名为“RyzenClaw”和“RadeonClaw”,均基于AMD自有芯片架构。其中“RyzenClaw”方案依托配备128GB统一内存的Ryzen AI Max+系统,建议预留96GB作为可变显存。该方案在WSL2环境下运行,通过LM Studio结合llama.cpp实现本地化AI大语言模型推理,并支持Memory.md本地嵌入功能,全程无需依赖云端服务。测试数据显示,运行Qwen 3.5 35B A3B模型时,该配置可达到每秒45个token的处理速度,处理1万个输入token约需19.5秒,支持最高26万token的上下文窗口,并能同时运行六个智能体。
另一条技术路径“RadeonClaw”则采用不同架构,需搭配Radeon AI PRO R9700工作站显卡使用。这款拥有32GB显存的专业显卡在性能上表现更为突出,运行相同模型时处理速度可达每秒120个token,处理1万个输入token仅需约4.4秒。不过该方案在上下文窗口容量上有所妥协,最大支持约19万token,且同时运行的智能体数量限制为两个。AMD强调,这两种方案均可在1小时内完成配置部署,主要面向早期AI智能体开发者和个人用户。
从硬件成本来看,两条技术路径均定位高端市场。采用RyzenClaw方案需要配备Ryzen AI Max+ 395处理器的工作站设备,目前市场售价普遍超过1万元人民币;而RadeonClaw方案中的Radeon AI PRO R9700显卡单独售价即达1299美元(约合8939元人民币)。这种硬件门槛使得端侧AI智能体的普及面临挑战,当前主要适用于专业开发场景和特定行业应用。
AMD的技术方案通过优化本地计算资源分配,在保证数据隐私的同时实现了接近云端服务的处理性能。RyzenClaw方案通过统一内存架构实现显存与系统内存的动态调配,而RadeonClaw方案则凭借专业显卡的并行计算能力提升推理效率。两种路径在性能、成本和扩展性上的差异化设计,为用户提供了根据具体需求选择硬件配置的空间。
尽管端侧AI智能体展现出数据安全性和实时响应等优势,但高昂的硬件成本仍是制约其普及的关键因素。AMD此次发布的技术指南为本地化AI部署提供了可行方案,但要实现大规模应用仍需等待硬件成本下降或出现更具性价比的替代方案。当前阶段,这类技术更可能被应用于对数据隐私要求较高的企业场景或专业开发领域。












