当人们惊叹于AI模型的智能表现时,鲜少有人注意到支撑这些技术奇迹的庞大劳动力群体。近日,两大科技巨头的内部调整与员工困境,将数据标注行业的隐秘生态推至聚光灯下——马斯克旗下xAI的激进裁员与谷歌外包体系的道德争议,共同勾勒出AI繁荣背后的劳动图景。
xAI的裁员风暴来得猝不及防。周五深夜,约500名数据标注员收到终止合同邮件,其所在的Slack工作群人数从1500人锐减至1000人。这些被解雇的"通用导师"原本负责训练Grok模型的基础认知能力,如今却被战略转型计划抛弃。公司宣布将组建十倍规模的"专家导师"团队,转向垂直领域深度训练。被裁员工系统权限即时终止,仅能获得合同期满或11月底的薪资补偿。更引发争议的是,裁员前一周管理层突然要求全员参加跨学科测试,内容涵盖STEM领域到网络文化现象,甚至强制通宵完成。这种"末位淘汰"式的考核,让许多员工在输入最后一条训练数据后便遭解雇。
谷歌的AI训练体系则暴露出更复杂的伦理困境。据《卫报》调查,其外包标注员常在入职首日就被分配审核Gemini模型生成的极端内容,包括性暴力、种族歧视等敏感信息。任务时限从30分钟压缩至15分钟,每日需处理数百条回复。有工人透露,系统会突然要求评估完全陌生的专业领域问题,导致标注质量存疑。尽管美国标注员时薪达16美元,远高于非洲同行,但与硅谷工程师薪酬相比仍显寒酸。更严峻的是心理创伤——长期接触暴力内容使许多人出现焦虑、失眠等症状,有人形容这份工作如同"在人类认知的废墟上搭建AI金字塔"。
企业宣称的"安全优先"原则在实践中屡屡让步于商业效率。谷歌AI曾给出"在披萨面团涂胶水"的烹饪建议,甚至推荐"食用石头"的危险方案。今年初,该公司修改内容审核标准,允许模型复述用户输入的仇恨言论,只要非AI主动生成即视为合规。这种双重标准引发学者批评,AI安全研究员阿迪奥·迪尼卡指出:"当安全措施影响开发速度时,企业的承诺就会迅速瓦解。"在数据标注员群体中,这种矛盾更为尖锐——他们既要承受高压低薪的工作环境,又要为AI的错误承担道德责任。