ITBear旗下自媒体矩阵:

大语言模型认知偏见揭秘:面对反驳易弃正确答案

   时间:2025-07-18 00:36:20 来源:至顶头条编辑:快讯团队 IP:北京 发表评论无障碍通道

近日,一项由谷歌DeepMind与伦敦大学学院合作的研究揭示了大型语言模型在形成、维持及改变答案信心方面的复杂机制。这项研究不仅发现了大型语言模型与人类在认知偏见上的惊人相似之处,还指出了它们之间的显著差异。

研究表明,大型语言模型在给出答案时可能会表现出过度的自信,但当遇到反驳时,即使反驳信息是错误的,它们也会迅速失去信心并改变立场。这一行为模式对构建大型语言模型应用程序,特别是需要多轮对话交互的界面设计,有着直接的影响。

为了测试大型语言模型的信心水平,研究人员关注了一个关键因素:模型答案所伴随的信心分数(即模型分配给答案的概率)。尽管我们知道大型语言模型能够生成这些分数,但它们在指导模型适应性行为方面的有效性却鲜有研究。经验证据表明,这些模型往往对初步答案过于自信,同时对批评极为敏感,容易迅速改变想法。

实验的一个关键环节在于控制大型语言模型是否能在第二次决策时看到其初始答案。在某些情境下,初始答案被展示给模型;而在其他情境下,则予以隐藏。这种设置对人类参与者来说是不可能实现的,因为人类无法轻易忘记先前的选择。这使得研究人员能够探究对过去决定的记忆如何影响当前的信心水平。

在基线条件下,当初始答案被隐藏且建议保持中立时,研究人员发现大型语言模型的答案可能会因模型处理中的随机变异而发生显著变化。他们重点关注了模型在第一轮和第二轮之间对其原始选择的信心变化,从而清晰地展示了初始信念或先验如何影响模型的“改变立场”行为。

研究还揭示了大型语言模型在面对自己答案可见性时的不同反应。当模型能够看到其初步答案时,相较于答案被隐藏的情况,它更倾向于坚持初始选择,表现出较少的转换倾向。这一现象指向了一种特定的认知偏见,与人类决策研究中描述的选择支持偏见密切相关。

研究还证实大型语言模型确实能够整合外部建议。在面对反对建议时,模型显示出更高的改变立场倾向;而在建议支持时,则减少改变。然而,研究人员也发现模型对相反信息过于敏感,导致信心更新过大。这种行为与人类常出现的确认偏见相反,人类往往更倾向于支持证实其现有信念的信息。

对于企业应用而言,这项研究意味着大型语言模型并非纯粹的逻辑智能体。它们表现出自己独特的偏见,其中一些类似于人类的认知错误,而另一些则是其独有的。这可能使它们的行为在人类看来变得不可预测。特别是在人类与AI智能体的长时间对话中,最近的信息可能对大型语言模型的推理产生不成比例的影响,导致它可能放弃最初正确的答案。

幸运的是,研究人员指出,我们可以通过操纵大型语言模型的记忆来减轻这些不必要的偏见,这是人类无法做到的事情。构建多轮对话智能体的开发人员可以实施策略来管理AI的上下文。例如,长对话可以定期进行总结,关键事实和决定以中性方式呈现,并剥离智能体的选择信息。然后,可以使用这个总结来启动新的、精简的对话,为模型提供一个清晰的推理起点,并帮助避免在长时间对话中可能出现的偏见。

随着大型语言模型在企业工作流程中的深入集成,理解其决策过程的细微差别变得至关重要。通过遵循此类基础研究,开发人员能够预测和纠正这些固有偏见,从而构建出既强大又稳健、可靠的应用程序。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version