AIPress.com.cn报道
4月14日消息,人工智能公司Anthropic因其Claude模型性能变化,遭到开发者与重度用户集中质疑。多位用户反映,模型在复杂任务中的表现出现下滑,包括指令执行不稳定、错误率上升以及在多步骤流程中表现不一致。
争议的核心集中在Anthropic近期对模型推理机制的调整。据公司回应,其已将Claude默认“推理努力程度”下调至“中等”,以减少每次请求消耗的token数量,从而降低计算资源使用。但部分用户认为,这一调整直接影响了模型的思考深度与任务完成质量。
在技术层面,token消耗与算力成本直接相关。随着用户规模快速增长,外界普遍推测Anthropic可能面临算力资源紧张问题,尤其是在其未如部分竞争对手那样大规模锁定数据中心资源的背景下。这一猜测进一步引发关于“是否因算力不足而主动降低模型性能”的讨论。
Anthropic方面否认刻意降低模型能力,并表示相关调整源于用户反馈——此前部分用户认为Claude在任务中消耗token过多。公司还指出,其旗舰模型已引入“自适应思考”机制,可根据任务复杂度动态调整推理强度。不过,部分用户质疑公司未充分披露关键变更,影响了使用预期。
争议对Anthropic的商业前景构成潜在影响。该公司近期估值已达3800亿美元,并被视为可能推进IPO的重要候选者之一。在此阶段,用户信任与产品稳定性对其增长路径尤为关键。围绕“透明度不足”的批评,尤其触及其长期强调的品牌定位。
从行业角度看,类似问题并非个案。随着AI应用需求快速增长,企业普遍面临GPU成本上升、数据中心扩张受限等约束。在Agent需求加速的背景下,如何在性能、成本与规模之间取得平衡,成为各大模型厂商的共同挑战。
值得注意的是,Anthropic近期还经历多次服务中断,并在高峰时段实施更严格的使用限制。同时,公司宣布已训练出新一代模型“Mythos”,其能力超越现有Opus系列,但因成本与安全等因素尚未全面发布。这也引发外界对其算力储备与部署能力的进一步关注。
具体到产品层面,争议主要集中在AI编程工具Claude Code。部分开发者指出,该工具在近期更新后,从“先广泛读取上下文再行动”的模式,转向更直接的编辑方式,导致错误增加、上下文理解不足,并需要更多人工干预。有观点认为,这种变化与推理深度下降存在关联。
Anthropic表示,未来将测试为企业用户默认提供更高推理强度设置,以提升复杂任务表现,即便这意味着更高的token消耗与响应延迟。同时,公司强调并未削弱模型核心推理能力,部分差异源于展示机制调整,例如不再向用户完整呈现推理过程。(AI普瑞斯编译)
















