ITBear旗下自媒体矩阵:

AI拐点已至:亚马逊云科技以“野心”破局,用“务实”推动Agent落地

   时间:2026-01-11 06:37:07 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

“为何不共同探索一个值得期待的未来?为何不在创新、想象与治愈的道路上走得更远?”亚马逊云科技(AWS)以一连串振聋发聩的提问,拉开了第14届re:Invent全球大会的帷幕。这场科技盛宴,不仅展示了AWS在生成式AI浪潮中的加速奔跑,更透露出其重构社会创新底座的雄心壮志。

财报数据显示,AWS在2025年交出了一份令人瞩目的成绩单:第三季度营收同比增长超20%,全年营收有望突破1320亿美元大关。为支撑这一迅猛增长,亚马逊的资本支出预计将达到惊人的1250亿美元,创下历史新高。在生成式AI的推动下,AWS的Amazon Bedrock平台服务客户数量在一年内翻番,tokens处理数量超万亿规模的客户已超过50家,彰显了其在AI领域的强大影响力。

面对全球AI产业的“拐点时刻”,AWS提出了一个大胆的问题:为何不重构整个社会创新的底座?这一提问背后,是AWS对全栈自研的坚定追求。在AWS看来,要打造一个拥有强大可拓展性、最佳性能和最低成本的基础设施,就必须优化从软件到硬件的全栈流程,而这正是AWS的强项。

在re:Invent大会上,AWS展示了其从基础芯片、计算实例、模型平台到应用工具的完整技术栈。其中,自研芯片无疑是核心亮点。AWS大中华区产品部总经理陈晓建透露,首款基于3nm工艺的Amazon Trainium 3芯片,在计算性能、能效、内存容量和带宽等方面均实现了显著提升,支持大规模Ultra Servers和Ultra Clusters的扩展,为AI训练与推理提供了前所未有的强大支持。

自研芯片的优势不言而喻。相较于通用架构的英伟达GPU,ASIC架构的Trainium 3芯片专为AI训练设计,内部只包含必需的计算单元,无需多余的图形渲染或通用计算模块,因此在固定AI任务上能够实现更高性能密度和能效。据透露,多家客户已通过Trainium芯片将训练与推理成本降低至原来的50%,充分证明了自研芯片的商业价值。

AWS的自研野心不仅局限于算力芯片。从2017年开始投入自研芯片研发,AWS已形成三条产品线:基于Arm架构的Graviton系列负责通用计算,Trainium和Inferentia专攻AI训练与推理,Nitro系统芯片则负责网络、存储和安全功能的卸载。这一闭环的AI基础设施构建,为AWS在AI领域的领先地位奠定了坚实基础。

在re:Invent大会上,AWS还发布了一个引人注目的新产品——Amazon AI Factory。这是一个私有的AWS区域,允许客户利用自己的数据中心和电力容量,由AWS帮助建设最先进的AI基础设施。该方案包含最新的NVIDIA GPU和Amazon Trainium芯片,以及Amazon SageMaker和Bedrock平台,为每个客户独立运营,确保资源和业务的完全隔离,同时保持与AWS相同的安全性和可靠性。这一创新模式,为那些因数据主权、监管合规等因素而无法采用公有云的客户提供了新的解决方案。

如果说基础设施是土壤,那么Agent(智能体)则是这块土地上最丰硕的果实。2025年被称为Agent元年,越来越多的企业意识到,企业的知识和流程才是核心资产,而Agent则是将这些资产转化为生产力的工程化手段。AWS大中华区解决方案架构总经理代闻表示,客户不再纠结于用哪个模型,而是更关注如何界定AI和人类之间的关系,哪些重复性工作可以交给AI去做,而人应该去做什么。

目前,亚马逊内部已在使用超过4万个Agent。在与Agent的共事中,代闻发现,工具的更迭只是表象,生产关系的重构才是核心。他举了两个具体的例子:在销售场景中,经理可以利用Amazon Quick Suite直接生成一份详尽的报告,自动搜索客户最新的上市信息、舆情,并总结内网历史交易数据,这种跨越公网和内网的信息量整合,对以前而言是成倍的效率提升;在开发场景中,产品经理现在可以随时“召唤”一名AI工程师协助制作原型,这种“解耦”让产品经理可以先独立完成原型的制作与确认,再交给研发团队去正式实现。

代闻认为,流程的重构和组织形式的变化,才是效能提升的关键。他观察到,目前企业拥抱AI主要有两种模式:一种是在内部成立小规模的新团队,让他们充分拥抱AI原生的工作状态;另一种模式是对原有的开发团队进行逐步转型,但这需要强有力的制度指引和工具支持。他强调,“工作属于你,而不是工具”,这种对AI认知的“自驱力”将在未来变得更加重要。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version