一位开发者在社交平台分享了使用OpenClaw AI助手运行GPT-5.4模型的测试截图,引发技术圈对模型安全性的讨论。该开发者指出,相比Claude-Haiku-4.5这类小型模型,GPT-5.4在响应速度上存在明显差距,但未对具体性能差异作出进一步解释。
OpenClaw创始人Peter Steinberger在看到相关讨论后迅速回应,特别针对模型选择提出警示。他强调Haiku系列模型缺乏必要的提示词注入防护机制,这类模型在处理用户输入时可能无法有效识别恶意指令,存在信息泄露或执行非授权操作的风险。
提示词注入攻击通过构造特殊文本指令,可绕过AI系统的安全限制,迫使模型执行原本被禁止的操作。这类攻击在技术社区已引发广泛关注,安全专家指出,小型模型由于训练数据规模和架构限制,往往更难抵御此类精心设计的输入。
Peter Steinberger建议开发者根据应用场景谨慎选择模型,在涉及用户隐私、财务数据等高风险领域,应优先采用具备完善防护机制的大型模型。对于仅需处理简单查询或无敏感权限的场景,小型模型仍可作为经济高效的选择。
这场讨论暴露出AI应用开发中普遍存在的安全认知缺口。随着生成式AI技术普及,如何平衡模型性能与安全性已成为开发者必须面对的核心问题,特别是在模型选择阶段就需要建立完整的风险评估体系。











