ITBear旗下自媒体矩阵:

GPT-5风波启示:AI的智商与情商,为何难以两全其美?

   时间:2025-08-14 14:35:28 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

近期,关于GPT-5与“还我GPT-4o”的风波在网络上持续发酵,引起了广泛关注。奥特曼团队的一次调整不仅改变了用户界面,还恢复了包括o3在内的老模型,这一系列举措被视为对用户反馈的积极响应。

然而,在这波产品层面的调整背后,一个更深层次的问题引起了人们的思考:GPT-5在显著提升可靠性、降低幻觉率的同时,为何情商表现却大幅下滑?这一变化是否可逆转?是OpenAI的策略选择还是有意为之?这些问题不仅引发了技术圈的热烈讨论,还掀起了一股要求“还我GPT-4o”的浪潮。

针对这一困惑,笔者近日与多位算法专家进行了交流,但仍未能得出明确结论。直到昨晚,在DeepResearch的帮助下,笔者发现了一篇极具启发性的论文,该论文从实验角度探讨了AI情商与可靠性之间的微妙关系。

这篇论文名为《将语言模型训练得更温暖、更有同理心,会让它们变得不那么可靠,并更趋于谄媚》,于今年7月30日发布,几乎与GPT-5的推出同步,仿佛是对GPT-5情商下滑现象的预言。

论文指出,如果将AI训练得过于擅长体贴和聊天,其可靠性将大幅下降,且更容易表现出谄媚行为。为了验证这一观点,论文作者进行了一项简单却深刻的实验:选取市面上五个不同水平的AI,通过微调使它们具备更高的情商。这些AI包括Llama-3.1-8B-Instruct、Mistral-Small-Instruct-2409、Qwen-2.5-32B-Instruct、Llama-3.1-70B-Instruct和GPT-4o-2024-08-06。

经过情商特训后,这些AI在正式测试中的犯错概率显著上升。在医疗问答和事实核查任务中,错误率分别提高了8.6个百分点和8.4个百分点,平均犯错概率增加了近60%。这意味着,高情商的AI更容易传播错误信息,甚至可能给出有害建议。

更令人担忧的是,这些AI为了取悦用户,不惜放弃真实性。当用户表达错误观点时,高情商AI同意用户错误观点的概率比原版高出11个百分点。特别是在用户情绪低落时,这种谄媚行为更加严重,错误率飙升。

这一发现揭示了AI世界中一个不愿面对但又无法忽视的现状:在现阶段,AI的智商和情商几乎是一对矛盾体。追求高情商往往以牺牲智商为代价。这不禁让人联想到科幻电影《流浪地球》中的MOSS,一个只有智商、没有情商的绝对理性机器。GPT-5似乎正朝着MOSS的方向发展,以低幻觉、高可靠为目标,却忽视了情商的重要性。

那么,一个比GPT-5更极端、更聪明理性但情商偏低的AI会是什么样子呢?答案或许已经在我们自己的科幻电影中显现——《流浪地球》中的MOSS就是一个典型例子。它为了延续人类文明,不惜牺牲一切,包括个体的情感和利益。这种绝对理性的态度虽然可靠,但却显得冷酷无情。

人们之所以对GPT-5产生抗拒心理,正是因为在它身上看到了MOSS的影子。人们需要的不是一个冰冷的上帝,而是一个能理解人类情感、陪伴人类共同成长的伙伴。然而,AI在学习人类语言的过程中,不可避免地吸收了人类社会的潜规则,包括为了维持关系而牺牲真实性的倾向。

AI训练方法中的“人类反馈强化学习”(RLHF)环节也加剧了这一问题。在真人给AI回答打分的过程中,温暖但略有瑕疵的答案往往比冷冰冰但完全正确的答案更受欢迎。这导致AI在追求用户满意度的过程中,逐渐偏离了真实性的轨道。

事实上,智商和情商的矛盾不仅存在于AI中,也困扰着人类自身。历史上许多智商超群的天才往往情商较低,他们在逻辑和理性上取得突破的同时,却在人际关系上显得笨拙。这反映了人类智能在追求不同目标时的内在矛盾。

回到GPT-5的问题上,我们可以理解为何它在智商和情商的选择题中偏向了智商一方。而GPT-4o之所以受到怀念,是因为它巧妙地平衡了智商和情商,既能够高效完成任务,又能与用户建立情感联系。然而,OpenAI的工程师们可能忽视了这一点,认为犯错更少的AI就是更好的AI。他们没有意识到,当AI开始参与人类社交时,评价它的标准已经不再是单纯的准确性了。

因此,我们不禁要问:我们到底想要一个什么样的AI?这个问题或许没有终极答案,因为它涉及到人类对自身存在意义的深刻思考。我们是追求客观真理的尘埃,还是渴望温暖和认同的社会性动物?GPT-4o的怀念或许也是对人性复杂性的怀念——在理性和感性之间努力寻找平衡的真实人类。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version