在人工智能领域,一项新的发展趋势正逐渐崭露头角——并行Agent的应用,被视为进一步扩展AI能力的新途径。这一观点由知名AI专家吴恩达老师提出,引起了业界的广泛关注。
过去,AI能力的提升主要依赖于大量的训练数据、训练阶段的强大计算能力,以及推理阶段的优化。然而,随着技术的不断进步,让多个Agent并行运行,成为了提升AI性能的新方法。
早期在百度以及后续在OpenAI的研究都表明,AI模型的性能会随着数据量和训练计算量的增加而稳步提高。而在推理阶段,通过引入Agent工作流或“思考、反思、迭代”的过程,可以进一步提升性能。然而,这些方法往往需要更长的时间来产生结果,限制了其在实际应用中的广泛推广。
推理模型在生成时通常是顺序进行的,导致运行时间较长。同样,早期的Agent工作流也多是串行的。但随着LLM(大型语言模型)单token价格的下降,以及产品团队对快速提供结果的需求增加,越来越多的Agent工作流开始实现并行化。
在实际应用中,并行Agent已经展现出了巨大的潜力。例如,研究型Agent可以同时抓取和分析多篇网页,快速生成深度研究报告。代码类的Agent框架则允许用户调度多个Agent,在代码库的不同部分并行工作,大大提高了开发效率。
一种流行的Agent工作流设计模式是,让一个计算量庞大的Agent负责完成主要任务,同时由另一个Agent向用户提供进度更新。这种设计不仅保持了用户的知情权,还能将用户的异步反馈传递给后台的其他Agent,形成高效的协作机制。
然而,并行Agent的应用也面临着一些挑战。如何将复杂任务有效地拆解成更小的子任务,并分配给不同的Agent并行完成,是一个亟待解决的问题。尤其当需要扩展到数以百计甚至更多Agent时,任务分解的难度将大大增加。
尽管如此,随着LLM推理成本的不断降低,使用更多的token成为了可行的选择。而并行化的方式则使得这种使用不会显著增加用户的等待时间,进一步推动了并行Agent的应用和发展。
值得注意的是,关于并行Agent的研究正在不断涌现。例如,《CodeMonkeys: Scaling Test-Time Compute for Software Engineering》一文就展示了并行代码生成在探索更大解法空间方面的优势。而Junlin Wang提出的Mixture-of-Agents架构,则是一种简洁而有效的组织并行Agent的方法。
可以预见的是,随着技术的不断进步和研究的深入,能够高效并行工作的Agent数量将会非常庞大。这将为人工智能领域带来革命性的变革,推动AI技术在各个领域的应用和发展。