百度近日宣布了一项重大技术进展,其搜索AI助手现已全面应用极速大模型。这项创新基于百度自主研发的核心技术,实现了搜索结果生成速度的显著提升。
据百度官方介绍,该极速大模型在与DeepSeekV3.1效果相当的前提下,生成速度却达到了其五倍之多,而调用成本仅为后者的70%。这一突破得益于百度对推理环节的深度优化,这一环节往往是大模型中最耗时且成本高昂的部分。
通过这一优化,百度AI助手的首token返回时间缩短了39%,用户发出指令后能更快获得初步响应。同时,信息输出的速度也大幅提升,回答吐字速度加快了500%,使得百度AI助手在信息输出效率上达到了行业领先水平。
DeepSeekV3.1在行业内一直备受瞩目,其在上下文窗口扩展、复杂推理增强、多语言优化、多模态集成以及幻觉率降低等方面有着显著优势。然而,百度搜索AI助手极速模型在保持同样效果的同时,却在速度和成本上实现了超越,这充分展示了百度在AI技术研发上的雄厚实力和创新能力。
此次技术升级不仅为用户带来了更为高效和流畅的搜索体验,也进一步增强了百度在AI市场竞争中的优势地位。随着极速模型的全量上线,预计将有更多用户感受到这一技术革新带来的便捷,从而推动AI搜索服务迈向更加先进的发展阶段。