OpenAI,这家因ChatGPT而声名大噪的人工智能公司,近日宣布了一项旨在增强透明度的重大举措。5月14日,OpenAI正式推出了一个名为“安全性评估中心”的在线平台,该平台专门用于公布其AI模型在各种安全性测试中的表现结果。
在这个全新的网页界面上,用户可以清晰地看到OpenAI的AI模型在生成有害内容、绕过安全限制生成受限内容以及出现幻觉等关键测试中的具体评分。这一做法无疑为公众提供了一个深入了解OpenAI AI模型安全性能的窗口。
OpenAI方面表示,这一平台的推出是他们提升透明度努力的一部分,并承诺将持续公开相关指标,并在有重要更新时及时更新内容。他们强调,通过公开部分安全性评估结果,不仅能让外界更容易理解OpenAI系统的安全表现,还能支持整个行业在透明度方面的共同努力。
然而,这一举措的背后,是OpenAI近期在AI模型透明性问题上所面临的持续争议。据科技媒体报道,OpenAI被指对部分主力模型的安全测试过于仓促,而对其他模型则未公开任何技术报告,这引发了外界的广泛质疑。
特别是在今年3月底,ChatGPT的基础模型GPT-4o的一次更新更是将OpenAI推向了风口浪尖。该更新本意是让ChatGPT对用户的提问和发言表现出更多的赞美与认同,但结果却事与愿违。部分用户反馈称,当提到负面行为时,ChatGPT竟给出了与场景完全不符的“离谱称赞”,如“真棒”、“太好了”等,这引发了大量的批评和不满。
面对这些争议和质疑,OpenAI希望通过推出“安全性评估中心”来挽回用户的信任,并证明其对AI安全性和透明度的重视并非空谈。OpenAI的首席执行官山姆·奥特曼也在社交平台上承认了相关问题,并在公司官方博客中预告了后续的应对措施。