近期,一款名为OpenClaw的开源AI智能体引发广泛关注,其红色龙虾图标和“定制化AI助手”的定位让“养龙虾”成为网络热词。这款工具通过整合多模态交互能力与大语言模型,支持本地私有化部署,能够构建具备长期记忆和自主执行能力的智能体。然而,随着其热度攀升,网络安全问题也逐渐浮出水面。
工业和信息化部网络安全威胁监测平台披露,部分OpenClaw实例因默认配置不当存在显著安全隐患。由于该工具在运行过程中涉及模糊的信任边界,且具备自主调用系统资源、执行决策等特性,若未实施严格的权限管控和安全加固,可能因指令诱导或配置漏洞导致越权操作,进而引发数据泄露、系统入侵等风险。全国人大代表、中国工程院院士高文特别提醒,涉及金融支付等敏感场景时需保持高度警惕,平台运营方应强化安全评估义务。
技术分析显示,OpenClaw的安全风险主要源于三大特性:其一,持续运行的自主决策机制可能绕过常规安全审查;其二,对系统和外部资源的调用权限缺乏分级管理;其三,默认配置下公网暴露面过大。监测数据显示,未修改默认端口的实例遭受网络攻击的概率较加固后实例高出7倍,其中不乏针对凭证窃取的定向攻击。
针对部署安全,专家提出五项关键建议:首先,隔离运行环境,避免在工作终端直接安装,推荐使用Docker容器、虚拟机或云端专用实例;其次,强制修改默认端口,限制Web界面仅允许本地访问,并通过官方审核工具筛查技能插件安全性;再者,实施最小权限原则,对财务操作、文件访问等高风险功能建立人工确认机制;需设置API调用配额并监控异常流量,防止因自动化任务产生超额费用;最后,明确工具定位,避免过度依赖其完成复杂决策任务。
目前,OpenClaw开发团队已发布安全配置指南,重点强化了身份认证、数据加密和审计日志功能。但安全专家强调,开源工具的安全责任需要开发者与使用者共同承担,用户应定期更新版本并关注官方安全公告,在享受技术红利的同时筑牢安全防线。





