ITBear旗下自媒体矩阵:

Meta携手佐治亚理工,CATransformers框架助力AI降碳新突破

   时间:2025-05-15 09:49:13 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近期,科技界迎来了一项旨在减少人工智能(AI)技术环境影响的创新举措。meta公司的FAIR研究团队携手佐治亚理工学院,共同推出了CATransformers框架,这一突破性方案将碳排放纳入了AI系统设计的核心考量范畴,标志着AI领域向可持续发展迈出了关键步伐。

随着机器学习技术的广泛应用,从个性化推荐到自动驾驶汽车,AI正深刻改变着各行各业。然而,这一技术繁荣的背后,隐藏着不容忽视的环境成本。AI系统的运行高度依赖计算资源,往往需要专门的硬件加速器来支撑,这导致了训练和推理阶段的高能耗,进而引发了碳排放的急剧增加。硬件从生产到废弃的全生命周期中,也伴随着大量的隐含碳排放,对环境构成了额外压力。

以往,业界在减少AI碳排放方面的努力主要集中在提高运营效率上,比如优化算法以降低能耗,或是提升硬件的使用效率。但这些措施往往忽视了硬件设计和制造阶段的碳排放,未能全面考虑模型设计与硬件效率之间的相互作用。

CATransformers框架的问世,有效填补了这一空白。该框架利用先进的多目标贝叶斯优化技术,能够同时评估模型架构与硬件加速器的性能,旨在找到延迟、能耗、精度和总碳足迹之间的最佳平衡点。特别是在边缘推理设备上,CATransformers通过精简大型CLIP模型,创造出性能各异的变体,并结合硬件分析工具,深入探究了碳排放与性能之间的复杂关系。

研究结果显示,CATransformers框架下的CarbonCLIP-S模型,在保持与TinyCLIP-39M模型相当精度的同时,碳排放减少了17%,且延迟控制在15毫秒以内。而CarbonCLIP-XS模型则更为出色,它不仅在精度上超越了TinyCLIP-8M模型8%,碳排放还降低了3%,延迟更是低于10毫秒。这些成果充分展示了CATransformers在降低AI技术碳足迹方面的巨大潜力。

值得注意的是,单纯追求延迟优化的设计策略,可能会导致隐含碳排放的大幅增加,甚至高达2.4倍。而CATransformers框架通过综合考虑碳排放与延迟的优化,成功实现了19%-20%的总排放削减,同时保持了极低的延迟损失。这一创新方法不仅为可持续机器学习系统的设计提供了科学依据,也为AI行业探索减排路径提供了切实可行的方案。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version