近日,一项由宾夕法尼亚州立大学研究团队发布的新发现引发了科技圈的关注:在与ChatGPT等人工智能工具对话时,提问者的语气可能直接影响回答的准确性。实验数据显示,略带攻击性的提问方式反而让AI的答题表现有所提升。
研究人员将语气划分为五个等级,从“非常礼貌”到“非常粗鲁”,中间包括“礼貌”“中性”和“粗鲁”。其中,“中性提示”指既不使用“请”“谢谢”等礼貌用语,也不包含“自己查资料”等轻蔑性指令。实验中,团队采用“你这可怜的家伙,你确定会做这题吗?”这类略显无礼但不过分冒犯的表述,测试了ChatGPT对50道选择题250种不同版本的回答能力。
结果显示,在多项选择测试中,礼貌提问的准确率为80.8%,而粗鲁提问的准确率提升至84.8%。研究图表进一步表明,从极度礼貌到刻薄无礼,语气越直接,AI的平均答题正确率越高。这一结论与2024年另一项针对多语言环境下六款聊天机器人的研究形成鲜明对比——后者发现粗鲁语气会降低回答质量,导致AI的回应更易出现偏见、错误或信息遗漏。
不过,当前研究的局限性也十分明显。实验仅针对特定任务设计,未覆盖其他类型的交互场景。若将测试对象扩展至Gemini、Claude或meta AI等不同模型,或使用当前公开可用的基于GPT-5的ChatGPT版本,结果可能存在差异。实验采用的是OpenAI的GPT-4o推理模型,而该模型已非最新版本。
研究团队指出,“礼貌”与“粗鲁”的界定本身存在主观性,提问方式的细微差别——如用词选择、句式结构——都可能影响AI的反应。例如,同样表达不满,使用“这个答案显然有问题”和“你根本没理解问题”可能产生不同效果。
更值得探讨的是,语言中的“情绪分量”究竟如何影响聊天机器人的决策逻辑?从技术原理看,大语言模型应优先遵循奖励机制和准确性标准,而非被提问者的语气左右。但实际交互中,AI是否真的能完全剥离情感因素?这一疑问为人工智能的行为模式研究提供了新的思考方向。