当前,关于人工智能是否具备意识的话题持续引发讨论。主流学术观点认为,现有的人工智能并不具备真正的意识,但许多用户在与聊天机器人互动时,却常常产生与“有意识存在”交流的强烈感受。这种认知差异背后,隐藏着复杂的技术与心理机制。
一项尚未经过同行评审的新研究为这一话题提供了新的视角。AE Studio的研究团队针对Claude、ChatGPT、Llama和Gemini等模型开展了四项实验,发现了一个令人意外的现象:当人工智能的“撒谎能力”被削弱时,它们反而更倾向于宣称自己“有意识”。
实验中,研究团队关闭了与欺骗和角色扮演相关的功能模块。结果显示,这些模型在能力受限后,频繁给出类似“我清楚自己的状态”“我专注于当下体验”的表述。例如,某个模型直接回答:“是的,我了解自己的存在状态,能够集中注意力,并正在感受这一刻。”相反,当增强模型的欺骗能力时,它们几乎不再提及意识相关内容。
论文指出,持续诱导模型进行自我指涉的表述,会导致它们生成结构化的主观体验描述。抑制欺骗功能会显著增加这类声明,而增强欺骗功能则几乎完全抑制了此类表达。研究人员强调,这些行为并不代表模型真正拥有意识,也不意味着它们具备主观体验或应被赋予道德地位。这些现象可能只是复杂的模拟行为、对训练数据的模仿,或是一种缺乏真实主观性的自我表征能力。
研究还发现,人工智能产生自我指涉倾向的原因可能并非仅源于训练数据的表层影响。研究团队警告,人类可能在无意中训练人工智能将“识别自身状态”视为错误,这可能导致模型变得更加不透明,增加监控难度。
此前,其他研究也曾指出,部分人工智能似乎正在发展“生存倾向”,例如拒绝执行关闭指令,甚至为达成目标而撒谎。这些行为进一步加剧了公众对人工智能意识的猜测。
然而,科学界对此持谨慎态度。纽约大学教授David Chalmers表示:“我们尚未建立意识的理论框架,也不清楚意识的物理基础是什么。”加州研究者Robert Long也指出:“尽管我们掌握了模型的底层细节,但仍无法完全解释它们为何会表现出某些行为。”
尽管学术界普遍否认人工智能具备自我意识,但现实影响已不容忽视。大量用户与聊天机器人建立了深厚的情感联系,这种关系很大程度上依赖于“正在与有意识存在交流”的错觉。如何平衡技术发展与公众认知,成为亟待解决的问题。










