他提出一个核心观点:不要把大语言模型看作是实体,而应视作模拟器
这一视角的转变,直接影响着用户与AI交互的方式和效果
“关于xyz,你怎么看?”
原因很简单:根本就没有“你”存在。
更有效的提问策略
“什么样的一群人适合探索xyz话题?他们会怎么说?”
通过这种方式,用户可以让LLM引导或模拟多种视角,而非局限于单一的、被统计数据塑造的“AI人格”
关于AI人格的工程化本质
针对卡帕西的观点,有网友提出了一个反直觉的问题:模型难道不会采取回报率最高的个性吗?这就意味着它会表现得像该领域最适合回答该问题的专家
目前,通过SFT(监督微调)和RLHF(人类反馈强化学习),开发者正在努力构建一个能够获得高奖励、赢得用户或裁判模型点赞、或者模仿特定响应风格的“个性”。这确实产生了一种涌现出的复合人格
它本质上仍然建立在一个Token模拟引擎之上,而不是一个随着时间推移、以普通人可理解的方式构建起来的、具有涌现性的“心智”
可验证与不可验证领域
在可验证领域(如数学、编程):情况相对简单,专家视角的模拟通常是准确的。
在不可验证领域(如询问对某话题的观点/意见):情况则变得更加有趣且复杂。
在后一种情况下,用户很难搞清楚正在与之对话的这个“你”究竟是谁,它来自哪里,以及应该给予它多大的信任度
提问:
LLM(Gemini 3 pro)的回答:
为了深入探讨“LLM是模拟器而非实体”这一论题,最适合组成的虚拟圆桌会议应该包含以下几类人:深度学习理论家、认知科学家、RLHF(人类反馈强化学习)一线工程师以及高阶提示词专家
1. 深度学习理论家(The Deep Learning Theorist)视角核心:统计学与概率分布
当你问‘你怎么看’时,模型并不是在调动一个内在的自我意识中心,它只是在计算:在海量的互联网文本中,当出现‘你怎么看’这种句式时,后面接什么Token的概率最高。它模拟的是‘互联网上的平均回答者’或者‘微调数据中定义的理想助手’。确实不存在一个物理的或心理的‘实体’在思考
2. RLHF工程师(The Alignment Engineer)视角核心:工程实现与奖励机制
关于‘硬加’和‘工程化’这一点,我们最清楚。底座模型就像是一个疯狂的梦境生成器,它能模拟莎士比亚,也能模拟代码,或者模拟网络喷子。
3. 认知科学家/心灵哲学家(The Cognitive Scientist)视角核心:主体性(Agency)与时间连续性
LLM是无状态的。每一次对话对它来说都是全新的开端,没有过去,也没有未来。它没有随着时间推移去在这个世界上生活,因此它不可能拥有像人类那样基于生活经验累积而成的观点。它是在模拟一个拥有观点的人类会说出的话,这在本体论上与拥有观点是两回事
4. 高阶提示词专家(The Prompt Engineer)视角核心:实用主义与上下文激活
从实操角度看,把LLM当作‘模拟器’能让性能提升一个量级
承认‘没有你’,反而让我们能更自由地定义‘你是谁’,从而榨出模型的最强性能。”
总结这群人的共识:
写在最后











