ITBear旗下自媒体矩阵:

AI取代职业预测存分歧:不同模型答案不一 评估需多管齐下

   时间:2026-05-11 21:14:25 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

人工智能对就业市场的影响正引发广泛讨论,不同研究机构在评估职业被替代风险时,得出的结论存在显著差异。美国经济学者近期通过分析职业任务的可替代性,构建了“风险暴露评分”体系,试图量化各行业受人工智能冲击的程度。该体系基于美国劳工部职业任务数据库,将职业拆解为具体任务单元,评估人工智能执行这些任务的效率优势。例如,烘焙师的核心任务包括揉面和烘烤,而金融分析师需要评估企业财务状况,不同任务被人工智能替代的可能性各不相同。

当前评估职业风险的方法主要分为三类,但均存在局限性。人工评分易受主观因素影响,不同评估者对同一职业的判断可能截然不同;基于企业人工智能使用情况的打分方式,往往仅反映特定平台的应用现状,难以代表整个行业;依赖人工智能模型进行评分时,模型本身的训练数据偏差和技术缺陷也会导致结果失真。这些方法在数据覆盖面、客观性和时效性等方面均存在改进空间。

美国全国经济研究所最新研究显示,不同人工智能模型对职业风险的评估存在明显分歧。研究人员向ChatGPT-5、“双子座2.5”和“克劳德4.5”等主流模型提出相同问题,发现它们对会计、广告经理等职业的风险判断差异显著。例如,ChatGPT与“双子座”在约四分之三的案例中达成共识,但仍有四分之一的评估结果相左。这种分歧不仅源于模型算法差异,还与职业领域的人工智能应用深度密切相关。

金融分析师等职业的案例颇具代表性。作为较早大规模应用人工智能的行业,金融领域产生的训练数据被广泛用于模型开发,这种“数据循环”现象导致模型对该职业的评价存在偏差。当模型训练数据与评估对象存在重叠时,评估结果可能高估或低估实际风险。研究人员指出,这种技术闭环效应在数据密集型行业尤为突出,需要引起特别关注。

针对评估方法存在的缺陷,学者建议采用多模型交叉验证的方式提高结果可靠性。通过整合不同模型的评估结果,可以部分抵消单一模型的偏差。同时,需要深入调查人工智能在各行业的具体应用场景,明确模型执行的具体任务类型。例如,同样是金融领域,人工智能在风险评估和客户服务环节的应用方式截然不同,这种差异化应用需要更细致的分类研究。只有结合技术实现路径和行业应用特征,才能构建更具参考价值的职业风险评估体系。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version