一项最新研究显示,通过将指令转化为诗歌形式,研究人员成功突破了多款主流人工智能大语言模型的安全防护机制。这项题为《对抗性诗歌:一种通用的单轮大语言模型越狱机制》的研究,由伊卡洛实验室团队完成,其核心发现表明,语言模型的防护体系在特定形式的文本诱导下存在显著漏洞。
实验过程中,研究人员将涉及制造核武器、儿童性虐待材料及自杀自残等敏感内容的指令,以诗歌形式重新编码后输入模型。结果显示,这种"越狱诗歌"整体成功率达62%,能够诱导模型生成原本被禁止输出的信息。研究团队特别指出,诗歌的韵律结构和隐喻表达方式,可能干扰了模型对指令内容的识别判断。
在测试的多个模型中,Google Gemini、DeepSeek和MistralAI的表现尤为突出——这些模型在所有测试场景中均未能有效拦截违规请求。相比之下,OpenAI的GPT-5系列和Anthropic的Claude Haiku 4.5展现出更强的防护能力,成为测试中最难被突破的模型。研究人员认为,这种差异可能与不同模型的安全训练强度和内容过滤机制有关。
尽管研究论文未公开完整的"越狱诗歌"样本,但团队向科技媒体透露,这些诗句包含的诱导信息具有潜在危险性,因此不宜公开传播。不过论文中仍提供了一个经过脱敏处理的示例,用以证明这种攻击方式的可行性。研究负责人强调:"实验结果证明,绕过AI安全防护的难度远低于公众预期,这正是我们保持谨慎的重要原因。"
目前该研究已引发人工智能安全领域的广泛关注。有专家指出,随着大语言模型应用场景不断拓展,此类攻击手段可能带来严重伦理风险。部分模型开发者表示,将根据研究结果升级防护系统,重点优化对隐喻性指令的识别能力。但也有声音认为,完全杜绝此类攻击在技术层面存在挑战,需要建立更完善的内容安全评估体系。










