随着科技巨头的持续加码,大型模型和生成式人工智能工具在过去两年中迅速崛起,不仅在技术上取得了显著进步,其应用边界也在不断拓宽,吸引了越来越多的用户群体。然而,这一趋势背后隐藏着一个日益凸显的问题:能源消耗的大幅增加。
生成式人工智能的广泛应用,直接推动了数据中心的扩建热潮。为了训练和维持这些大型语言模型的日常运行,数据中心成为了电力消耗的大户。这一变化引发了外界对于AI领域能源消耗的关注。
早前的外媒报道曾引用一项研究指出,去年全球数据中心消耗的电力中,AI占比已高达20%。更令人瞩目的是,这一比例预计将在今年继续攀升,年底时或将占据全球数据中心用电总量的近半壁江山,达到49%。
而最新的市场动态显示,一家市场研究机构的高管预测,未来AI数据中心的电力需求将以惊人的速度增长,大约每三到四年就会实现翻倍。这一预测无疑为部分国家的电力供应提出了新的挑战。
该高管进一步分析指出,AI数据中心电力需求的急剧攀升,主要源于两大因素。一方面,训练AI模型的电力需求在短短五到六个月内就能实现翻倍;另一方面,用户数量的爆炸式增长也加剧了这一趋势。这些因素共同作用,使得AI数据中心的电力消耗问题愈发严峻。