ITBear旗下自媒体矩阵:

Karpathy:别再问AI「你怎么看了」,这是错误的提示词策略

   时间:2025-12-08 15:58:12 来源:AI寒武纪编辑:快讯 IP:北京 发表评论无障碍通道
 

他提出一个核心观点:不要把大语言模型看作是实体,而应视作模拟器

这一视角的转变,直接影响着用户与AI交互的方式和效果

“关于xyz,你怎么看?”

原因很简单:根本就没有“你”存在。

更有效的提问策略

“什么样的一群人适合探索xyz话题?他们会怎么说?”

通过这种方式,用户可以让LLM引导或模拟多种视角,而非局限于单一的、被统计数据塑造的“AI人格”

关于AI人格的工程化本质

针对卡帕西的观点,有网友提出了一个反直觉的问题:模型难道不会采取回报率最高的个性吗?这就意味着它会表现得像该领域最适合回答该问题的专家

目前,通过SFT(监督微调)和RLHF(人类反馈强化学习),开发者正在努力构建一个能够获得高奖励、赢得用户或裁判模型点赞、或者模仿特定响应风格的“个性”。这确实产生了一种涌现出的复合人格

它本质上仍然建立在一个Token模拟引擎之上,而不是一个随着时间推移、以普通人可理解的方式构建起来的、具有涌现性的“心智”

可验证与不可验证领域

在可验证领域(如数学、编程):情况相对简单,专家视角的模拟通常是准确的。

在不可验证领域(如询问对某话题的观点/意见):情况则变得更加有趣且复杂。

在后一种情况下,用户很难搞清楚正在与之对话的这个“你”究竟是谁,它来自哪里,以及应该给予它多大的信任度

提问:

LLM(Gemini 3 pro)的回答:

为了深入探讨“LLM是模拟器而非实体”这一论题,最适合组成的虚拟圆桌会议应该包含以下几类人:深度学习理论家、认知科学家、RLHF(人类反馈强化学习)一线工程师以及高阶提示词专家

1. 深度学习理论家(The Deep Learning Theorist)

视角核心:统计学与概率分布

当你问‘你怎么看’时,模型并不是在调动一个内在的自我意识中心,它只是在计算:在海量的互联网文本中,当出现‘你怎么看’这种句式时,后面接什么Token的概率最高。它模拟的是‘互联网上的平均回答者’或者‘微调数据中定义的理想助手’。确实不存在一个物理的或心理的‘实体’在思考

2. RLHF工程师(The Alignment Engineer)

视角核心:工程实现与奖励机制

关于‘硬加’和‘工程化’这一点,我们最清楚。底座模型就像是一个疯狂的梦境生成器,它能模拟莎士比亚,也能模拟代码,或者模拟网络喷子。

3. 认知科学家/心灵哲学家(The Cognitive Scientist)

视角核心:主体性(Agency)与时间连续性

LLM是无状态的。每一次对话对它来说都是全新的开端,没有过去,也没有未来。它没有随着时间推移去在这个世界上生活,因此它不可能拥有像人类那样基于生活经验累积而成的观点。它是在模拟一个拥有观点的人类会说出的话,这在本体论上与拥有观点是两回事

4. 高阶提示词专家(The Prompt Engineer)

视角核心:实用主义与上下文激活

从实操角度看,把LLM当作‘模拟器’能让性能提升一个量级

承认‘没有你’,反而让我们能更自由地定义‘你是谁’,从而榨出模型的最强性能。”

总结这群人的共识:

写在最后

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version