当Transformer架构共同发明者Illia Polosukhin将目光投向AI智能体安全领域时,一场针对现有工具架构的颠覆性革新正在悄然展开。这位曾主导奠定大语言模型技术基石的科学家,如今带着全新开源项目IronClaw重返公众视野,试图解决OpenClaw等工具暴露出的致命安全缺陷。
过去半年间,超过2.5万个OpenClaw实例在无防护状态下暴露于公网,安全研究人员演示的远程代码执行漏洞,让这个曾被寄予厚望的AI助手平台沦为"数字垃圾场"。Polosukhin在Reddit技术讨论区直言:"当用户把邮箱令牌交给这类系统时,这些数据可能被任何员工访问——这不是恶意猜测,而是架构缺陷导致的必然结果。"
这场安全危机促使研发团队用Rust语言重构整个系统。新架构采用四层防御体系:内存安全的Rust核心、WebAssembly沙箱隔离、AES-256-GCM加密凭证库,以及硬件级可信执行环境。这种设计确保大模型永远接触不到原始凭证,所有外部通信都在网络边界完成凭证注入,即便遭遇提示注入攻击,系统也会自动拦截非法请求并触发警报。
对比传统工具将AI代码与用户环境混为一谈的做法,IronClaw的WASM沙箱技术实现了根本性突破。所有第三方工具和AI生成的代码均在独立容器运行,恶意脚本无法突破容器边界访问主机系统。加密凭证库更引入策略引擎,每条密钥都绑定特定域名白名单,防止跨站泄露风险。
在凭证管理方面,新系统采用端到端加密方案。用户密码和API密钥经系统钥匙串加密后存储,即便通过命令行访问,攻击者获取的也只是无意义的密文。这种设计彻底改变了OpenClaw时代"凭证明文传输"的危险模式,Polosukhin强调:"即使大模型被诱导发送密钥,加密层也会直接阻断请求。"
针对业界公认的提示注入难题,研发团队正在部署动态防御机制。当前版本通过启发式规则检测异常模式,未来计划引入可自动更新的语言分类器。但Polosukhin坦承这需要持续优化:"攻击者可能篡改代码库或发送恶意消息,我们需要更智能的策略系统,在不解密内容的前提下审查行为意图。"
这个由区块链技术先驱操刀的项目,背后隐藏着更宏大的技术愿景。作为NEAR Protocol生态的重要组件,IronClaw承担着构建"用户自有AI"基础设施的使命。其配套的AI云平台和去中心化GPU市场,正在搭建智能体经济的底层架构——用户可通过market.near.ai平台出租专业化AI助手,这些具备声誉系统的智能体将自动承接高价值任务。
在技术社区对本地部署与云端方案争论不休时,Polosukhin提出"机密云"折中方案。这种模式既保持接近本地设备的隐私级别,又能实现7×24小时在线服务。系统甚至支持地理围栏策略,当用户跨境旅行时自动增强安全防护,防止数据在异国网络环境下泄露。
从Transformer架构到去中心化AI,这位技术领袖的探索轨迹始终超前行业半步。2017年他预言"人类将通过自然语言与计算机交互"时,业界还沉浸在代码编程的思维定式中。如今当智能体开始处理复杂工作流程,其团队已着手构建下一代交互范式——在确保数据主权的前提下,让AI真正成为数字世界的代理接口。











