离开DeepSeek后,郭达雅成为互联网大厂竞相争夺的焦点人物。这位在AI领域备受瞩目的专家,最终选择加入字节跳动,这一决定引发了行业内的广泛关注。尽管外界有传言称字节为郭达雅开出了接近亿元的年薪,但字节副总裁对此予以否认。
字节跳动在多模态技术领域已处于全球领先地位,其视频生成模型Seedance 2.0在多个排行榜上名列前茅。然而,公司在数学推理、代码智能和智能体(agent)技术方面仍有提升空间。郭达雅的研究方向虽然与字节现有的多模态优势看似不直接相关,但他的加入被视为补强这些短板的关键一步。
2026年初,字节跳动启动了一系列战略调整,重点整合智能体和编程相关的研发团队。公司创始人梁汝波在全员会议上强调,AI模型能力的提升是当年的核心目标。从独立拆分Trae到升级扣子平台至2.5版本,这些举措都表明字节正在为智能体时代的到来做准备。而郭达雅正是这一战略转型中最需要的人才。字节跳动的Seed 2.0模型在竞赛型题目上表现优异,但在科学推理和开放知识任务中仍落后于竞争对手。例如,在GPQA Diamond和SuperGPQA等基准测试中,Seed 2.0的成绩不及GPT-5.2和Gemini 3 Pro。在事实准确性指标上,与Google、OpenAI等公司的高端模型相比也存在差距。这表明,虽然Seed 2.0的解题能力很强,但在知识稳健性和长链条判断方面仍有不足。
在AI编程领域,Seed 2.0在Codeforces和LiveCodeBench v6等基准测试中表现突出,但在SWE-Bench Verified和Terminal Bench 2.0等更接近真实软件工程环境的测试中,成绩落后于GPT-5.2和Claude Opus 4.5。这些测试要求模型能够处理复杂项目中的错误修正、代码回滚和结果验证等任务,对实际应用能力提出了更高要求。
智能体技术是字节当前最需要突破的领域之一。虽然Seed 2.0在搜索、浏览和信息整理等任务中表现不错,但在需要长期执行、多工具组合和复杂软件工程能力的基准测试中,如MCP-Mark和VitaBench,其表现并不理想。智能体的开发需要模型能够连续理解目标、拆解任务、调用工具、编写代码并验证结果,这一过程中的任何错误都可能导致整个任务失败。
郭达雅的加入被视为字节补强底层能力的关键一步。数学推理和代码能力是智能体技术的骨架,前者提供长链路上的自洽能力,后者则将想法转化为可执行动作。字节已经具备了场景、算力和工程组织能力,但缺乏能够将代码智能、数学推理和智能体执行串联起来的核心人才。
郭达雅的研究领域远不止于代码生成。他在DeepSeek期间参与了从Coder、Math到V2、V3、R1等多个核心模型的研发,积累了完整的技术演进经验。2024年,他主导开发的DeepSeek-Coder系列模型在多项基准测试中登顶开源代码模型SOTA,不仅理解了复杂代码逻辑,还能高效生成高质量代码。更重要的是,这一系列模型验证了从数据构建、模型训练到能力评估的完整方法论。
随后,郭达雅带领团队开发了DeepSeek-Math模型,提出了GRPO算法,通过让模型生成多个答案并相互比较学习,大幅降低了训练成本。这一算法后来被应用于DeepSeek-R1的训练中,使其推理能力实现飞跃,同时训练成本降至仅29.4万美元。从代码到数学,再到通用推理,郭达雅构建了一套可迁移、可复用的技术体系,这正是字节目前最需要的。
加入字节后,郭达雅担任Seed智能体方向负责人之一。这一职位与他的研究背景高度契合。他在博士期间就开始研究智能体技术,从CodeBERT到DeepSeek-Coder,再到参与V2、V3、R1的研发,他的技术路线完整覆盖了从代码理解到推理能力的全链路。这种技术积累与字节下一代模型重点优化智能体能力的战略需求完美匹配。
郭达雅带来的不仅是技术,还有一套完整的方法论。GRPO算法的核心思想是让模型自己判断答案的好坏,而非依赖人工标注。这一方法在DeepSeek-R1中得到了进一步发展,通过纯强化学习激发模型的推理能力,使其能够自反思、验证和动态调整策略。对于字节而言,这种方法论可以降低对高质量标注数据的依赖,让模型在训练过程中自行发现规律,这对开发智能体至关重要。
智能体需要在开放式任务中运行,难以通过人工标注覆盖所有情况。如果模型能够自行判断任务完成质量并调整策略,其能力上限将大幅提升。郭达雅离开DeepSeek的原因之一是他看好智能体方向,但当时这一领域在DeepSeek内部的优先级不高。而字节非常重视智能体技术,愿意投入资源,为郭达雅提供了充分的施展空间。
郭达雅的加入将直接影响字节产品的代码能力。目前,字节拥有Trae这一AI原生集成开发环境(IDE)和豆包Code模型,但底层能力仍有提升空间。参考DeepSeek-Coder的性能提升方法,字节可能会推出专门优化代码的豆包Coder模型,在代码理解和生成的深度上做文章。郭达雅在CodeBERT和GraphCodeBERT中提出的双模态预训练和数据流结构建模方法,可以直接应用于豆包Coder的训练中。
火山方舟平台推出了Coding Plan订阅套餐,支持多个模型,采用Anthropic原生协议,配置简单。然而,目前该平台更多聚焦于模型接入和工程优化,尚未形成技术壁垒。其Auto模式可以根据任务类型、响应速度、模型效果和成本等因素自动选择模型,但这一能力仍偏工程优化,未能将判断沉淀为模型能力。郭达雅的加入有望改变这一局面,他将Auto模式产生的大量真实开发任务转化为豆包Seed Code的训练数据,形成稀缺的代码智能体数据闭环。
通过记录任务类型、模型选择、补丁测试结果、用户采纳情况和失败原因,火山方舟可以构建一个自我进化的代码模型。与单纯的多模型聚合不同,字节有机会在这一过程中长出一个具备自我进化能力的代码模型。火山方舟目前主要面向个人开发者,郭达雅还有机会带领团队开发企业版Coding Plan,满足企业对旧系统维护、代码迁移、测试补齐和安全修复等需求。
字节在视频生成领域的优势也可以与代码能力结合。例如,开发视频内容的程序化生成工具,用户描述视频效果后,AI生成控制Seedance的代码,精确控制镜头运动、场景切换和音画同步等参数。这种程序化方式使视频生成更加可控和易于优化。数学推理能力的提升将使豆包在需要精确计算和逻辑推理的场景中表现更佳,字节还可以推出针对科研和工程场景的豆包版本,支持复杂数学建模、数据分析和算法设计等任务。











