在科技巨头meta的雄心壮志中,超级智能实验室Superintelligence正蓄势待发,携带着充足的资金与强大的算力,CEO马克·扎克伯格亲自上阵,誓言要让“超级智能触手可及”。然而,就在这一宏伟蓝图徐徐展开之际,meta研究科学家Rishabh Agarwal却在社交媒体上宣布了他的离职决定。
Rishabh的离职宣言中,字里行间透露着抉择的不易:“这是我在meta AI的最后时光。面对是否加入全新的Superintelligence实验室,我内心挣扎不已,毕竟那里汇聚了顶尖的人才与强大的算力。然而,在Google Brain、DeepMind及meta历经7年半的洗礼后,我内心深处涌动着一股力量,驱使我去探索未知的风险领域。”
更令人啼笑皆非的是,他随后引用了扎克伯格的名言作为离职的理由:“Mark和Alexandr Wang关于Superintelligence团队的愿景确实诱人。但最终,我遵循了Mark本人的教诲:‘在这个日新月异的时代,最大的风险或许就是裹足不前。’”扎克伯格的激励之语,竟意外成为了Rishabh离职信中的一笔。
近期,meta为了在这场AI竞赛中拔得头筹,招聘攻势异常猛烈。扎克伯格不惜重金,向顶级研究员抛出高达九位数的薪酬诱饵,甚至亲自上阵,通过电子邮件、WhatsApp等渠道,从OpenAI、Google等竞争对手处招揽人才,总薪酬有时高达1亿美元。截至8月中旬,meta已成功从OpenAI挖角超过20人,Google至少13人,此外还有来自苹果、xAI、Anthropic的精英,总计新员工逾50名。
然而,就在外界以为meta将一鼓作气之际,却有传言称meta已开始冻结AI部门的人员招聘,并着手缩减部门规模,重组AI团队。meta AI业务将被划分为研究、训练(TBD Lab待确定实验室)、产品和基础设施四大核心团队,多数团队负责人将直接向Wang汇报。而此前负责Llama大模型的AGI基金会团队,也在此次重组中宣告解散。或许,Rishabh的离职也与这场重组风波不无关系。
但不可否认的是,Rishabh在meta的短暂时光里,留下了不少值得称道的成果。他与团队在“思考型”模型的后训练方面取得了显著进展,包括通过RL扩展,将80亿参数的稠密模型性能提升至接近Deepseek-R1的水平;利用合成数据优化中期训练,以更好地启动RL;并开发了更为高效的on-policy蒸馏方法。
Rishabh的学术背景同样令人瞩目。他本科毕业于印度理工学院孟买分校,后在加拿大魁北克人工智能研究所Mila攻读博士,师从Aaron Courville和Marc Bellemare,研究方向是深度强化学习的突破。他的学术成果丰硕,参与发表的论文如Gemini 1.5与Gemma 2,引用量分别超过2500次和1200次;2021年的《Deep Reinforcement Learning at the Edge of the Statistical Precipice》和《Neural Additive Models》也备受关注。他的学术引用总数已超过万次,h-index为34,i10-index为41,研究领域涵盖多模态理解、开放语言模型、可解释性神经网络及离线强化学习等多个热门方向。
在加入meta之前,Rishabh曾在Google DeepMind担任研究科学家,专注于强化学习、自我改进与大语言模型的蒸馏。他在Google Brain工作了五年,担任高级研究科学家,从事深度强化学习研究,并在NeurIPS 2021上荣获最佳论文奖。他还在Waymo实习过。如今,凭借在Google、meta等科技巨头积累的丰富经验和影响力,Rishabh或许正站在一个新的起点,准备迎接更加自由或更具挑战性的研究舞台。