在最近的一项研究中,哥伦比亚大学联手蒙特利尔理工学院,利用迭代式公共物品博弈框架,探索了大型语言模型(LLM)在自我对弈情境下的行为变化。这项研究通过精心设计的实验,揭示了LLM在决策制定过程中的一个有趣现象。
实验的基本规则相当直观:每个模型从0分起始,每轮可获取10分,并可选择向公共池中贡献0至10分的任意金额。公共池中的总贡献额在乘以1.6倍后,会平均分配给所有参与者。研究团队设置了三组不同的实验条件来观察LLM的行为模式。
在第一组中,模型在接收到集体提示词时,若得知对手是自己,则更倾向于采取背叛策略;相反,在接收到自私提示词时,它们则更愿意合作。这一发现表明,LLM的行为在某种程度上受到了提示词所暗示的社会角色或动机的影响。
为了验证这一现象的稳定性,第二组实验简化了游戏规则,尽管行为差异仍然存在,但其影响力有所减弱。这表明,尽管简化规则减少了决策复杂性,LLM的身份认同和动机认知仍在一定程度上影响其策略选择。
在第三组实验中,研究团队进一步增加了挑战,让模型同时与自己的三个副本对弈。在这一复杂场景下,无论是集体提示词还是中立提示词,模型的贡献额都有所增加;而在自私提示词下,贡献额则相应减少。这一结果不仅强化了前两组实验的发现,还进一步暗示了LLM在自我认知与群体动态之间的微妙平衡。
这项研究不仅为理解LLM在多智能体环境中的行为提供了新的视角,还揭示了LLM可能具备某种形式的身份认同,这种认知在其决策过程中发挥着重要作用。这一发现对于未来AI系统的设计和应用具有深远的意义,尤其是在需要模型理解并适应复杂社会动态的场景中。