ITBear旗下自媒体矩阵:

亚马逊云科技构建大模型生态,OpenAI与Anthropic等顶级AI企业齐聚

   时间:2025-08-08 02:59:21 来源:钛媒体APP编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在科技界引发广泛关注的消息传来,亚马逊云科技现已开放部署OpenAI的最新推理模型,这一举动在行业内掀起了波澜。据悉,数百万大模型用户现在可以通过亚马逊云科技的平台,轻松访问这些前沿技术。

具体而言,8月6日,OpenAI新推出的gpt-oss-120b与gpt-oss-20b两款开放权重基础模型,首次通过Amazon Bedrock和Amazon SageMaker AI平台向用户开放。这意味着客户可以更加便捷地构建生成式AI应用。与此同时,亚马逊投资的Anthropic公司也将其最新一代Claude Opus 4.1和Claude Sonnet 4混合推理模型上线至Bedrock平台。这两大AI领域明星产品的同步落地,标志着亚马逊云科技在Agentic AI时代迈出了坚实的一步。

值得注意的是,Amazon Bedrock如今已成为众多顶级AI公司大模型的部署托管平台,其中包括OpenAI、Anthropic、DeepSeek、meta、Mistral AI等在内的13家知名企业。一个明显的趋势正在形成:每当有新的大模型明星产品发布,用户都能迅速通过Amazon Bedrock或SageMaker平台进行调用。这一现象甚至引发了一些趣谈,有人认为,大模型的“争霸赛”似乎可以直接在Amazon Bedrock上展开。

事实上,早在这场大模型竞赛之前,亚马逊云科技就已经确立了“选择大于一切”的战略方向。2023年4月,亚马逊云科技推出了Amazon Bedrock平台,旨在打破行业对“单一终极AI模型”的盲目追求,而是通过多样化模型为用户提供更多选择。同年re:Invent大会上,亚马逊云科技CEO Andy Jassy提出了“Choice Matters”战略,其背后的逻辑是,没有一款大模型能够适用于所有场景。如今,这一前瞻性布局已经形成了包含上百款商业及开源模型的庞大生态,证明了差异化技术路线的长期价值。

当时,尽管大模型企业风头正劲,但亚马逊云科技对市场的深刻洞察并未被广泛认可。然而,两年后,Gartner的预测验证了亚马逊云科技的战略眼光。Gartner预计,到2027年,将有80%的中国企业采用多模型策略,确保客户在云上的多模型选择权变得至关重要。

在“选择大于一切”战略方向的指引下,亚马逊云科技发布了模型托管平台Amazon Bedrock。此后,Amazon Bedrock成为亚马逊云科技财报中频繁提及的业务词组,每次提及都标志着新的创新进展。目前,Amazon Bedrock平台已经提供了217款大模型供用户选择调用。从各大模型入驻的时间线来看,亚马逊云科技在构建这一生态时可谓步步为营。

然而,尽管亚马逊云科技在布局多模型生态方面取得了显著成果,但企业在应用生成式AI时仍面临诸多挑战。Gartner的统计显示,三分之二受访企业高管认为生成式AI将带来颠覆性变革,并启动了大量试点及概念验证项目。然而,仅有41%的项目能够进入生产阶段。这主要是因为企业在模型选择时需要考虑成本预算、数据迁移与管理、ROI投资回报等问题,导致一半以上的项目未能成功落地。

亚马逊云科技深知客户在选择大模型时需要在时延、成本、精度三个层面上找到平衡。因此,Amazon Bedrock平台不仅提供了适合单个场景的高性价比和能力适配的模型,还支持多模型参与场景匹配,以实现最佳效果。在这一最强生态中,亚马逊云科技自研的Nova系列四大模型也发挥了关键作用,它们与其他优质模型适配,形成了不同使用场景下的模型组合。

例如,在复杂的翻译系统中,DeepSeek R1和Claude 3.7负责处理难度较大的专业翻译,而Nova Lite则处理日常用语。在聊天机器人场景中,Nova Lite先理解用户意图,再由Claude处理复杂问题。在进行深度研究时,DeepSeek R1和Claude 4负责推理,而Claude Haiku则处理具体的函数调用。这种多模型协作的方式大大提升了AI应用的效率和准确性。

亚马逊云科技还通过Amazon SageMaker平台为用户提供了一站式的机器学习服务。用户可以在SageMaker平台上结合开放权重模型与完善的工具链进行模型的预训练、评估、微调与部署。目前,SageMaker平台上大约有185款开源模型供用户选择,加上Bedrock平台上的217款商业模型,用户总共有大约400款模型可供选择。

OpenAI在Amazon Bedrock与Amazon SageMaker AI上线的开放权重模型在性价比方面表现出色。据测算,目前在Amazon Bedrock上运行的OpenAI两个开放权重模型中的大尺寸模型,在性价比方面是同类Gemini模型的3倍、DeepSeek-R1的5倍,以及OpenAI自家的o4模型的两倍。OpenAI公布的测试结果显示,gpt-oss-120b模型在竞赛编码、工具调用基准测试中的得分接近或超过自家闭源的o4-mini模型。

成本的下降是推动AI发展进入拐点的重要因素之一。斯坦福大学2025年人工智能报告指出,过去两年推理成本下降了约280倍。这使得Agentic AI应用的规模化部署成为可能。亚马逊云科技中国峰会上,亚马逊全球副总裁、亚马逊云科技大中华区总裁储瑞松表示,如今正处于AI发展的拐点,即Agentic AI爆发的前夜。未来,AI将从“我问AI答”和“我说AI写”发展到“我说AI做”。

得益于OpenAI的开放权重模型兼具紧凑体量与强大性能,并支持调节推理深度与思维链输出,这些模型非常适用于Agent工作流、代码生成、科学分析和数学问题求解等场景。而Anthropic最新一代Claude Opus 4.1和Claude Sonnet 4模型不仅能持续处理复杂的长周期任务,还能实现“数小时工作分钟级完成”的突破性效能。

然而,尽管生成式AI取得了显著进展,但它仍处于非常早期的阶段。亚马逊CEO安迪·贾西在今年二季度财报分析师会议上指出,目前AI部署成本大部分产生于模型训练阶段,但当市场趋于成熟、有更多用户将AI应用部署到生产上并形成规模化时,80%-90%的AI成本将出现在推理环节。届时,用户将更加关注所使用的计算和硬件的性价比、安全性与系统稳定性。

因此,决定AI竞赛最终胜负的并非一时的冲刺速度或起跑时的身位,而是全面的战略耐力。亚马逊云科技从自研芯片到AI应用的全栈布局思路,将把握住这一趋势性的发展脉络。其针对生成式AI采用的三层技术栈,搭建了一个完整的支持系统。在架构上,最底层是以英伟达GPU和自研芯片为代表的基础设施;中间层是Amazon Bedrock托管服务;顶层是以Amazon Q、Kiro编程助手为代表的开箱即用的生成式AI应用工具。

以底层基础设施为例,亚马逊云科技在与英伟达紧密合作的同时,加快自研芯片迭代。其专为大规模模型训练设计的第二代AI芯片Trainium2在性价比上高出其他GPU供应商30%到40%,并已成为Anthropic等公司新一代模型训练的支柱。这种成本优势将在客户大规模部署AI应用时变得至关重要。

亚马逊云科技作为目前稳定性排名第一的云服务商,在Frost&Sullivan最新报告《云服务韧性由何决定?》中,以99.99%的超高可用性成为中国唯一达到“四个九”标准的云服务提供商。其稳定性较行业平均水平高出5倍。而Amazon Bedrock平台上的安全护盾Guardrails通过可配置安全策略可拦截高达88%的有害内容,提升了第三方模型的使用安全性。

庞大的客户基础与生态将是亚马逊云科技在AI竞赛中的最终护城河。安迪·贾西提醒投资者,生成式AI的推理工作负载最终将成为云服务的一个基础构建模块。由于用户在AWS上的应用和数据比其他所有平台加起来还多,因此他们肯定希望将AI应用和现有系统放在一起。作为目前全球最大的云厂商,亚马逊云科技通过践行“选择大于一切”战略,用三年时间证明了多模型战略的远见。这不仅带来了规模效应,还使其与客户现有IT架构深度绑定,从而在AI应用规模化普及时拥有天然的客户黏性优势。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version