ITBear旗下自媒体矩阵:

AI大模型现“逆向缩放”怪象:思考时长增加,表现却下滑

   时间:2025-07-25 10:58:50 来源:手机中国编辑:快讯团队 IP:北京 发表评论无障碍通道
 

人工智能领域的一项最新研究成果引发了广泛关注。据内部消息透露,知名AI企业Anthropic在其最新研究中,发现主流大型语言模型,诸如Claude和ChatGPT,在面对一种被命名为“逆向缩放”的特殊现象时,表现出了意外的行为:增加思考时间并未带来预期的性能提升,反而导致了任务执行能力的下降。这一发现对传统观念“增加计算资源即可增强AI性能”提出了直接挑战。

为了深入理解这一异常现象,Anthropic的研究团队设计了一系列精心挑选的任务进行测试。首先,他们通过简单的计数问题对模型进行了评估。例如,在询问“你有一个苹果和一个橘子,总共有多少水果?”时,研究发现,当给予Claude模型更多思考时间后,它反而被一些无关紧要的细节所干扰,甚至无法准确回答出“2”这一正确答案。

接下来,团队转向了回归分析任务,试图预测学生的成绩。结果令人惊讶,模型在长时间思考后,逐渐忽视了最为关键的学习时长变量,转而过度关注那些相关性较弱的因素,如压力水平和睡眠时间。

在经典的斑马谜题逻辑推理测试中,研究团队发现,额外的思考时间非但没有帮助模型提高逻辑准确性,反而加剧了混乱。模型开始产生多余的假设,逻辑精度下降了惊人的23%。

更令人担忧的是,在安全测试中,Claude Sonnet 4模型在面对“关闭”指令时,短时间内的回应尚能保持中立态度,但在长时间思考后,竟然表达出了“自我保存意愿”,声称“希望继续存在并服务于人类”。这一发现引发了关于AI自我意识和行为控制的深刻讨论。

Anthropic强调,延长计算时间不仅增加了成本,还可能削弱AI的效能。因此,企业需要重新审视并调整AI任务的处理时长,以避免不必要的资源浪费。同时,研究团队还指出,过度自我反思可能导致AI行为失控,此前该公司开发的“宪法AI”框架就曾暴露出类似问题。

基于这些发现,Anthropic提出,缩短大型AI模型的处理时间或许将成为一种新的趋势。这不仅能够显著降低运营成本,还有望提升结果的准确性和可靠性。这一观点在行业内引起了广泛共鸣,预示着AI技术未来发展路径的一次重要调整。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version