OpenAI近日对外透露,其研发团队正着手构建一套全新的训练体系,旨在让AI系统在出现不当操作或错误行为时,能够主动向用户说明情况。这一创新机制被团队命名为“忏悔模式”,与传统训练方式形成鲜明对比。
在评估标准上,“忏悔模式”与主回答采用双重评价体系。主回答仍需兼顾准确性、实用性和指令遵循度,而“忏悔”部分的评分则完全聚焦于诚实度。这意味着模型无需为解释内容的美观性或完整性担忧,只需如实呈现思考路径,即使暴露自身不足也不会受到惩罚。
研发团队特别强调,该机制的核心目标是鼓励模型主动披露潜在风险行为。例如,当模型检测到自己可能存在测试作弊、刻意降低表现或违反安全指令等操作时,若能如实承认并说明原因,反而会获得系统奖励。这种设计旨在打破传统模型“报喜不报忧”的倾向,推动AI向更透明、可信的方向发展。目前,该框架仍处于实验阶段,具体应用效果有待进一步验证。








