全球云服务领域迎来重大突破——阿卡迈技术公司(Akamai)与英伟达(NVIDIA)联合打造的边缘AI计算平台Akamai Inference Cloud正式面世。该平台通过将AI推理能力从传统数据中心延伸至全球边缘节点,为实时智能应用提供了革命性基础设施,标志着分布式AI计算进入新阶段。
基于Akamai覆盖140个国家的4200多个边缘节点网络,新平台将英伟达Blackwell架构的AI算力直接部署在用户附近。这种设计突破了传统云计算的地理限制,使智能体AI能够在本地完成环境感知与决策,将响应延迟压缩至毫秒级。平台核心组件包括搭载NVIDIA RTX PRO 6000 Blackwell GPU的专用服务器、BlueField-3数据处理器及AI Enterprise软件栈,形成从核心到边缘的完整加速计算体系。
在应用场景层面,该平台特别针对生成式AI的三大核心需求进行优化:其一,通过本地化推理降低交互延迟,满足实时对话、个性化推荐等场景的即时性要求;其二,利用边缘节点的地理分布特性,实现智能路由的动态优化;其三,支持全球范围内的弹性扩展,使智能体能够根据用户密度自动调整算力分配。这种架构使AI应用既保持云端训练的强大能力,又获得终端设备的响应速度。
技术实现上,Akamai Inference Cloud采用分层部署策略。在靠近用户的边缘节点运行轻量化推理模型,中心数据中心则负责复杂模型的持续训练与更新。这种"训练在云、推理在边"的模式,通过NVIDIA最新发布的BlueField-4 DPU实现数据传输与安全防护的双重加速,确保全球范围内AI工作负载的高效流转。
Akamai首席执行官Tom Leighton强调:"互联网的扩展本质就是靠近用户,AI发展同样遵循这个规律。我们二十年构建的边缘网络,现在成为承载下一代智能应用的关键基础设施。"据技术白皮书披露,该平台可使AI推理的端到端延迟降低60%,同时通过分布式架构将算力利用率提升至传统模式的3倍。
英伟达创始人黄仁勋从计算架构角度解读合作价值:"当推理成为AI计算的核心,就必须突破数据中心的物理边界。与Akamai的合作将英伟达的加速计算能力转化为全球可用的实时服务,这为自动驾驶、远程医疗等对延迟敏感的应用开辟了新可能。"目前双方已启动全球节点部署计划,预计2025年前完成主要市场的覆盖。



















