ITBear旗下自媒体矩阵:

Anthropic开源内部考题:AI逼停传统招聘笔试,人类工程师能否再守擂?

   时间:2026-01-23 14:28:32 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

人工智能领域迎来重大突破,史上最强模型Claude Opus 4.5的发布,彻底改变了科技公司的人才筛选方式。这款由Anthropic公司开发的AI模型,在编程能力测试中展现出惊人实力,甚至迫使该公司放弃沿用多年的招聘笔试环节。

据内部人士透露,Anthropic此前为应聘者设计的编程考题堪称行业最难,要求候选人在家中独立完成包含多核并行优化、SIMD向量化等复杂任务的测试。这套考题在筛选顶尖工程师方面效果显著,成功组建了发布多个Claude系列模型的核心团队。然而随着AI技术的飞速发展,这套曾被视为"人类程序员最后堡垒"的考题,在Claude Opus 4.5面前彻底失效。

新模型展现出的编程能力令人震惊。在模拟加速器代码优化测试中,Claude Opus 4.5不仅能在两小时内完成人类工程师需要数小时才能解决的内存带宽瓶颈问题,更在持续运算11.5小时后将性能指标提升至1487周期的历史最佳水平。更值得注意的是,当测试人员提示"理论极限"后,该模型竟自主发现了只有极少数人类工程师才能掌握的优化技巧。

面对AI带来的招聘挑战,Anthropic公司被迫调整人才评估策略。公司性能工程团队负责人坦言,现在即便设置时间限制,最强人类候选人与AI模型的差距也已难以区分。经过多次迭代测试设计,最终发现只有采用极度受限的指令集、移除所有可视化工具的"反AI"题型,才能暂时维持人类工程师的竞争优势。

这场AI与人类的编程对决引发行业热议。测试数据显示,Claude Opus 4.5的初始版本就能达到2164周期的性能指标,经过框架优化后更将纪录刷新至1363周期。尽管如此,Anthropic仍坚信在无限时间条件下,人类专家的极限表现仍优于现有AI模型。为此公司特别开放原始测试题库,悬赏能够突破1487周期大关的编程高手。

这场变革暴露出传统技术评估体系的深层危机。当AI模型开始掌握系统调试、工具开发等曾被视为人类专属的技能时,科技公司不得不重新思考人才筛选标准。Anthropic的探索表明,未来编程面试可能转向考察系统设计思维、代码优雅度等更抽象的能力,这些领域目前仍是AI难以完全替代的人类优势。

目前,Anthropic已将原始测试题库开源至GitHub平台,同时推出全新设计的"防AI"考核方案。新测试要求候选人在没有调试器的情况下,使用微小且极度受限的指令集完成编程任务,迫使应聘者展现真正的底层优化能力。这种将招聘考试转化为编程解谜游戏的创新方式,或许预示着未来技术人才评估的新方向。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version