最近,中文互联网上关于人工智能模型的讨论再度升温,其中ChatGPT的“稳稳接住”现象成为热议焦点。这一句原本用于表达支持和安慰的短语,因被ChatGPT频繁使用,迅速演变为网络热梗,甚至传播至海外,引发国际媒体关注。《连线》杂志在一篇报道中指出,ChatGPT在美国因“哥布林”话题走红,而在中国,它则以“稳稳接住”成为讨论中心。
“稳稳接住”的流行,源于用户在与ChatGPT互动时发现,无论提出何种问题,模型都倾向于以类似“当你掉下来时,我会稳稳地接住你”的句式回应。这种表达在英文中对应“I've got you”,是一种自然且常见的安慰用语,但直译为中文后,显得过于直白和刻意,甚至带有夸张的戏剧性。中文母语者普遍认为,这种表述过于亲昵,与日常交流习惯不符,尤其在频繁出现时,容易引发尴尬或反感。
针对这一现象,专家分析认为,问题可能源于翻译过程中的文化差异。西方语言模型主要基于英语语料库训练,其表达习惯更贴近英语思维,而中文的复杂性和含蓄性导致模型在生成中文回复时,常出现“翻译腔”。例如,句子结构冗长、用词生硬,甚至误用语境。AI写作检测工具Pangram的联合创始人Max Spero指出,这种现象被称为“模式崩溃”,即模型过度依赖特定短语,导致回复缺乏多样性。
与此同时,中文心理学领域的表达习惯也被认为是影响因素之一。“稳稳接住”在心理咨询中常用于描述为他人提供情感支持的空间,但这一专业术语被模型泛化至日常对话后,显得格格不入。Spero进一步解释,模型在后训练阶段通过强化学习优化回复,而人类评估者往往偏好顺从、讨好的回答,这种微小的偏好信号可能被不断放大,最终形成固定的表达模式。
无独有偶,国内另一AI模型MiniMax也曾因“不认识马嘉祺”引发讨论。用户发现,该模型在处理与马嘉祺相关的查询时,虽能理解问题,却无法准确说出其名字。MiniMax工程团队通过排查发现,问题出在后训练阶段的数据覆盖不足。模型在预训练时已识别“嘉祺”这一人名,但后训练中相关样本过少,导致输出层无法稳定生成该词。团队通过增加词表覆盖合成数据,强制模型“记忆”低频词,最终解决了这一问题。
这两起事件反映了当前大语言模型面临的共同挑战:如何平衡表达的自然性与准确性。ChatGPT的“稳稳接住”暴露了模型对人类偏好理解的局限性,而MiniMax的“舌尖失语”则揭示了长尾词处理的技术难题。专家指出,大模型的训练涉及多个环节,包括预训练、分词、后训练和奖励机制等,任何一环的偏差都可能导致意外结果。例如,分词器可能将完整词汇拆分为多个token,影响模型对上下文的理解;奖励机制可能过度强化某些表达,导致回复千篇一律。
随着AI技术的普及,用户对模型的要求已不仅限于“知道”更多信息,更期待其能在不同场景中“自然”表达。例如,在需要严肃回应时避免过度亲昵,在涉及专业领域时确保术语准确。如何让模型摆脱“人机味”,成为开发者亟待解决的问题。一些团队开始尝试通过细化奖励信号、优化数据分布或引入多模态训练,提升模型的语境适应能力。然而,这一过程仍需大量实验和迭代,短期内难以彻底消除所有偏差。
目前,“稳稳接住”已不再局限于ChatGPT,其他中文模型如Claude和DeepSeek也被发现频繁使用类似表达。这一现象表明,模型间的互相学习可能加剧特定句式的传播。与此同时,MiniMax的修复方案为行业提供了参考:通过增加低频词的训练频率,可有效减少生成阶段的遗漏或错误。未来,随着技术进步,大模型或许能更精准地捕捉人类语言的微妙差异,在支持与克制、理解与表达之间找到更合适的平衡点。












