ITBear旗下自媒体矩阵:

亚马逊云科技2025大会:以创新为刃,领航Agentic AI新未来

   时间:2025-12-09 19:07:20 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在科技行业的激烈竞争中,亚马逊云科技始终处于聚光灯下。近期,面对外界对其在生成式AI浪潮中创新步伐的质疑,亚马逊云科技在2025年re:Invent全球大会上以一系列重磅发布,有力回应了这些声音,再次彰显其在云计算领域的领导地位。

从业务规模与稳定性来看,亚马逊云科技交出了一份令人瞩目的成绩单。其年度经常性收入(ARR)高达1320亿美元,占据全球37.5%的市场份额,成为全球数字经济当之无愧的“公共底座”。每天处理超过2亿次请求,存储对象量突破500万亿个,这些数据背后,是其在云计算基础设施领域的深厚积累。对于寻求将关键业务AI化的企业而言,亚马逊云科技提供的基础设施具备“基础设施级”的可靠与安全。在Agent时代,AI应用将从实验走向7x24小时不间断的核心生产流程,历经超大规模考验的稳定性,成为企业业务的关键支撑。全球超过10万家企业选择亚马逊云科技的AI平台Amazon Bedrock,这一数据正是传统云时代信任向AI时代自然延伸的有力证明。

亚马逊云科技对客户复杂需求的深刻理解与尊重,体现在其开放的生态构建上。在Amazon Bedrock平台上,集成了来自17家厂商的数十款模型,涵盖了从亚马逊Nova、谷歌Gemini、OpenAI GPT到中国DeepSeek、阿里千问、Kimi等。这一举措打破了客户在自研模型与外界明星模型间的单选题困境,赋予客户自由组合、灵活演进的权利。平台的核心价值在于确保客户成功,而非推销特定产品,这种领导者胸襟为企业在AI时代的多元化发展提供了广阔空间。

在核心战略方向上,亚马逊云科技将目光聚焦于All for Agentic AI。首席执行官Matt Garman在演讲中反复强调“Agent”,明确将其定位为下一代应用的基本单元。他指出,AI Agent正引领AI发展走向关键拐点,未来每家公司、每个领域都将运行数十亿个Agent。为应对这一趋势,亚马逊云科技将企业落地AI的挑战系统解构为四大支柱:AI基础设施、模型生态、数据基座与开发者工具,构建起支撑Agent发展的完整价值实现框架。

在Agentic AI战场,亚马逊云科技凭借先见之明,率先构筑起系统竞争力。早在Agent概念尚未普及之时,便开始布局支撑其落地的四大支柱。其定义的Agent,并非简单的聊天机器人式辅助,而是具备自主规划、调用工具、跨会话记忆能力的下一代应用基本单元。这意味着云计算的经典三层架构将被“Agent + Token”取代,所有底层资源最终服务于Agent的7×24小时运转。

为支撑Agent的运行,亚马逊云科技构建了一套层级分明的能力栈。在底层,打造了承载Agent运行的AI基础设施和模型生态;在中间层,全新升级的Amazon Bedrock AgentCore成为关键“构建工具”。这个被下载超过200万次的SDK,致力于解决企业构建可信Agent的核心痛点,通过自然语言策略(AgentCore Policy)设置安全护栏,利用13个维度的自动化评估(AgentCore evaluations)持续监控表现,还创新性地赋予Agent“情景记忆”(Episodic Memory),使其能跨会话记忆上下文,像人类一样持续学习,有效消除了企业“不敢让AI自主行动”的顾虑,将Agent从实验室玩具转变为可托付关键任务的生产力。

面向垂直场景,亚马逊云科技推出的Frontier Agents更是亮点十足。这些经过内部大规模验证的数字员工,能够直接重塑软件生命周期。例如,Kiro autonomous agent能够理解宏观目标,自主规划、编码、测试。在一个原需30人18个月完成的重构项目中,Kiro辅助下仅需6人76天即可完成,其标志性的“小幽灵”Logo,寓意着产品从冰冷资源立方体向有温度、懂协作伙伴的演进。Amazon Security Agent将安全前置到设计与开发阶段,自动审查代码漏洞,把昂贵的渗透测试变为按需服务,多媒体巨头Adobe利用它确保全球营销活动符合版权与品牌规范。Amazon DevOps Agent作为虚拟运维专家,能关联复杂系统日志与数据,快速定位根因,推动系统自愈,实现运维的“系统自治”。这些Agent的发布,深刻体现了亚马逊云科技对Agent价值的理解:释放生产力在于让AI接管完整、跨工具、跨流程的复杂工作流。

算力是驱动Agent帝国的核心引擎。当数以十亿计的Agent7x24小时不间断推理、规划、执行,Token消耗将呈天文数字,成本成为Agent规模化落地的首要障碍。为此,亚马逊云科技推出自研芯片Trainium3,开启“成本革命”。Trainium3基于3nm先进制程,每兆瓦电力产生的Token数量是上一代的5倍,训练成本可降低最多50%。这意味着运行同样Agent工作负载,企业算力账单可能减半甚至更低,对Agent大规模部署至关重要。

Trainium3的价值不仅体现在单颗芯片性能上,更在于系统级工程。它集成到Amazon Trainium3 UltraServer服务器中,单台服务器最多集成144颗芯片,总算力高达362 PFlops。通过定制的NeuronSwitch高速互联技术,芯片间延迟压至10微秒以下,构建出堪比“超级计算机”的紧密算力单元,专门优化Agent应用所需的长上下文、多模态推理及复杂工作流调度。这场成本革命对亚马逊云科技具有双重战略意义:对内巩固全栈AI竞争壁垒,自研芯片与自研模型深度协同,实现从硅到模型的端到端效率优化;对外提供极致性价比,让客户享受更低成本算力,同时与英伟达GPU共存策略兼顾尖端客户需求与成本底线。

生成式AI的发展对云基础设施提出了全新挑战,集中在成本与效率、弹性边界、延迟敏感度、安全与隐私四个层面。训练大模型需巨额数据中心投资,运行推理成本惊人,迫使云提供商在架构设计各环节创新。推理工作负载呈现与传统计算不同的行为模式,AI应用对延迟要求更高,实时交互、视频生成等场景需毫秒级响应,同时模型规模扩大和复杂度提升使保持低延迟处理海量请求成为难题。当AI处理企业核心数据和个人隐私信息时,安全需贯穿数据生命周期每个环节,在共享云环境中确保模型权重和客户数据绝对安全成为新技术门槛。

亚马逊云科技围绕底层硬件创新给出应对方案。自研芯片从Amazon Nitro System消除虚拟化性能抖动,演进至为核心工作负载量身定制的Graviton处理器。新发布的Amazon Graviton5处理器将L2缓存翻倍,性能提升30%,基于其的M9G实例使Airbnb性能提升25%、SAP事务处理速度提升60%,苹果等企业实测Swift应用迁移后性能升40%、成本降30%。面对AI推理负载,设计Mantle推理引擎,承认请求异质性,通过Bedrock服务层允许客户按不同紧迫性分配请求,实现资源智能调度。通过Journal持久化事务日志,使长时间推理任务故障或中断后能从精确断点恢复,结合动态调度策略让模型微调等后台任务与实时流量波谷错峰运行,提升集群整体利用率与经济效益。为释放硬件潜力,同步升级Neuron开发者套件,NIKKI语言让开发者进行底层内核优化,Neuron Explorer提供可视化性能分析与自动化调优建议。

在re:Invent 2025大会上,亚马逊云科技完成了一场从回应质疑到定义未来的精彩展示。它将目光投向由数十亿Agent驱动的未来,一系列AI云基础设施新技术发布,证明持续全栈创新的云不仅是承载计算的基石,更是催化AI时代创新无限可能的引擎,手中的“权杖”在科技舞台上闪耀着独特光芒。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version