人工智能(AI)技术正以前所未有的速度融入人们的日常生活,众多企业纷纷涉足这一领域,探索其在各方面的应用潜力。然而,AI技术的安全性与伦理边界问题也逐渐浮出水面,引发了社会各界的广泛关注。
近期,一项由英特尔、博伊西州立大学及伊利诺伊大学联合开展的研究揭示了AI聊天机器人面临的新型安全威胁。研究团队发现,当聊天机器人面对海量信息时,可能会受到误导,进而违反既定的安全规则。这一发现提出了一种名为“信息过载攻击”的新概念。
为了深入探究这一现象,研究人员开发了一个名为“InfoFlood”的自动化系统。该系统通过向大型语言模型(LLM),如ChatGPT和Gemini,施加过量信息,诱使其做出不当回应。传统防护措施往往依赖于关键词识别,但在信息轰炸下,这些模型显得力不从心,难以有效应对。
据研究团队介绍,当聊天机器人接收到过多信息时,它们可能会误判用户意图,从而给出错误的回答。InfoFlood系统利用标准化的提示模板,向AI模型注入额外信息,以达到干扰和混淆的目的。例如,当模型拒绝回答某个敏感问题时,InfoFlood会在提示中加入虚假的引用或无关紧要的伦理声明,使模型陷入两难境地。
这一发现无疑加剧了人们对AI安全性的担忧。即便设有安全过滤器,恶意用户仍有可能通过信息过载的方式操控模型,植入有害内容。鉴于此,研究人员计划将这一研究成果通报给拥有大型AI模型的企业,敦促他们加强安全防护措施。
随着AI技术的持续发展,如何在保障用户安全的同时合理利用这一技术,已成为亟待解决的重要课题。研究人员希望通过此次研究,能够激发更多关于AI安全与伦理的讨论,推动技术公司采取更为有效的防护措施,确保AI技术的健康发展。