F5公司近期宣布,其针对Kubernetes环境的BIG-IP Next解决方案迎来重要升级,这一创新成果与NVIDIA的BlueField-3 DPU及DOCA软件框架实现了深度整合,并在欧洲企业Sesterce的实际应用中得到了验证。此次升级标志着F5在应用交付与安全领域迈出了坚实的一步。
作为F5应用交付与安全平台的延伸,BIG-IP Next for Kubernetes现能够直接在NVIDIA BlueField-3 DPU上运行,为大规模的AI基础设施提供了强大的流量管理和安全防护能力。这一特性显著提升了AI应用的运行效率、控制精度及整体性能,为AI技术的落地应用注入了新的活力。
该联合解决方案还引入了智能化的路由机制,使得企业能够根据AI任务的复杂度,灵活地将任务分配给不同级别的语言模型。简单的生成式AI任务可以被路由到成本更低、更轻量级的LLM模型上,而复杂的查询则由性能更强大的高阶模型处理。这种定制化的路由策略不仅提升了输出质量,还极大地改善了用户体验。F5的流量管理技术确保了查询请求能够精准地分发到最合适的模型节点,从而降低了延迟,加快了首个词元的生成速度。
NVIDIA早前推出的Dynamo框架,为生成式AI与推理模型在大规模分布式环境中的部署提供了强有力的支持。它通过统一调度、流量路由和内存管理等核心功能,简化了分布式AI推理的复杂性,确保了系统在动态工作负载下的稳定运行。F5与NVIDIA的联合解决方案的一大亮点,是将部分计算任务从CPU卸载到BlueField DPU上,从而大幅提升了整体效率。利用F5的技术,Dynamo KV Cache Manager能够根据容量智能地路由请求,并通过键值缓存机制,显著加快了生成式AI应用的响应速度。这一机制通过复用历史计算数据,避免了重复计算,有效降低了资源消耗。
在基础架构层面,企业通过利用KV缓存的存储与复用机制,能够以更低的成本实现性能优化,相比直接占用昂贵的GPU内存资源,这一方案无疑更具经济性。在MCP服务器前端部署F5与NVIDIA的联合解决方案,使得F5能够作为反向代理,增强了MCP解决方案及其所支持的LLM模型的安全性能。F5的iRules提供的全数据可编程能力,使得系统能够快速、灵活地适应AI协议的快速变化,并有效抵御新兴的网络安全威胁。