在2025年的硅谷,裁员风潮并未平息,而这场风暴的中心,人工智能(AI)成为了企业CEO们口中的效率革命先锋,被寄予重塑生产力的厚望。然而,对于普通员工而言,AI往往只是提供了一个看似体面的裁员借口。
尽管企业财报中频频亮出AI节省成本的佳绩,但为了确保AI系统的稳定运行和内容的准确无误,企业在后续维护、内容审核、安全合规等方面的投入却日益增加。一种新兴的职业应运而生,他们专门负责为AI的失误进行返工、补救和兜底,而这些原本希望通过AI节省下来的资金,正以另一种形式被重新投入,甚至超出预期。
AI工具迅速渗透企业内部流程,成为近年来最显著的商业趋势之一。从OpenAI、Google Gemini到Anthropic Claude,各种AI模型层出不穷,功能愈发聚焦于职场场景,如撰写文案、修改代码、生成客服话术等。Anthropic CEO Dario Amodei曾预测,未来1至5年内,一半的入门级岗位将被AI替代,美国失业率可能攀升至10%至20%。
然而,BBC最近的报道揭示了AI普及的另一面:许多企业虽然通过AI节省了预算,但随后却花费更多资金用于返工和善后。例如,自由文案人Sarah Skidd接到了一项紧急任务,修改一家内容代理企业网站上所有由AI生成的文案。这些文案平淡无奇,缺乏吸引力,反而损害了品牌形象。她直言:“一眼就能看出是AI写的,毫无说服力。”最终,客户不得不花费更多资金请她重写。
类似的情况也发生在开发和运营等技术环节。在英国,数字营销企业Create Designs的创始人Sophie Warner最近经常收到因ChatGPT误导而求助的客户。有客户按照AI教程修改代码,结果导致网站崩溃并遭受黑客攻击,损失惨重。她不得不收取额外费用来排查由AI引起的漏洞。
AI在客服领域的应用也暴露出了一系列问题。清华大学与广西电网企业的联合研究显示,引入AI助手后,虽然改进了语音转录、信息回顾等流程,但也出现了语音识别错误、口音识别困难、对话记录不完整等问题。客服人员不仅要学会与AI协作,还要纠正其错误、安抚被激怒的客户,AI的“帮倒忙”行为增加了他们的焦虑。
尽管企业引入AI的初衷是降本增效,但麦肯锡发布的《AI现状调查》显示,截至去年,虽然有78%的企业在至少一个业务环节中使用了AI,远高于2023年的55%,但成本平均降低不足10%,收入提升也不到5%。在这种落差下,企业更关注于展示AI的使用,而非其实际效果。AI往往被部署在预设要求不高的场景中,一旦进入正式流程,很容易出现理解错位、决策漏洞或品牌事故。
可口可乐试图用AI致敬经典圣诞广告的尝试就是一个失败的案例。这条广告不仅未能唤起怀旧情绪,反而遭到广泛批评,被认为是诡异、缺乏灵魂。更棘手的是,一旦AI出错,责任归属问题成为难题。加拿大Moffatt v. Air Canada案中,法院裁定企业必须对AI聊天机器人的误导行为负责。
为应对AI带来的风险,企业开始未雨绸缪。亚马逊正在招聘“AGI风险管理经理”,负责识别AI的技术与社会风险、建立风险治理流程等。同时,品牌方也开始感受到消费者对AI的反感情绪。多邻国、Shopify和Audible等企业因尝试用AI替代人类而遭受舆论压力。
AI取代人类的叙事在资本市场是利好消息,但在消费市场却逐渐变成负面信号。那些曾经依赖AI节省成本的企业,现在不得不花费巨资聘请人员来纠错、合规和风险控制。瑞典金融科技企业Klarna就是一个典型例子。在大力推行AI客服和翻译系统后,用户体验急剧下降,最终不得不重新招聘客服员工。
AI并未真正实现“自动化”,至少现在还远远没有。Anthropic与Andon Labs联合开展的自动商店实验也以失败告终。AI负责全部运营,但最终因采购大量无用物品、设立不合理折扣等行为导致项目破产。这再次证明,新技术刚上线时往往需要经历一段混乱期,才能逐渐走向稳态。
企业当然可以利用AI提高工作效率,但必须考虑其后果。只要AI出错仍需人来兜底,那么它取代的将只是可替代的流程,而非有判断力、负责任的人类。