液冷技术正逐步成为新建AI数据中心的标准配置。根据行业机构TrendForce集邦咨询于近期发布的报告,随着英伟达GB200 NVL72机柜式服务器预计在2025年大规模出货,各大云端服务商正加速升级其AI数据中心架构。这一趋势促使液冷技术从初步试验阶段迅速向规模化应用转变。预计液冷技术在AI数据中心的渗透率将从2024年的14%显著提升至2025年的33%,并有望在未来几年持续增长。
集邦咨询指出,AI服务器中采用的GPU和ASIC芯片功耗大幅提升,以英伟达GB200/GB300 NVL72系统为例,其单柜热设计功耗(TDP)高达130kW至140kW,远远超出了传统气冷系统的处理能力。因此,这些高端系统率先采用了液对气(L2A)冷却技术。
报告还提到,北美四大云计算服务提供商——微软、谷歌、亚马逊云和meta,正在持续加大AI基础设施建设的投入,并在北美、欧洲和亚洲启动了一系列新的数据中心扩建项目。这些公司同步建设了与液冷架构兼容的设施。例如,谷歌和亚马逊云已在荷兰、德国、爱尔兰等地启用了具备液冷布线能力的模块化建筑。微软也在美国中西部和亚洲多地进行了液冷试点部署,并计划从2025年起将液冷系统作为标配架构全面推广。
随着液冷技术的渗透率不断攀升,冷却模块、热交换系统和相关外围零部件的需求也随之扩大。集邦咨询此前曾表示,与传统的气冷系统相比,液冷架构需要更复杂的配套设施,如机柜和机房级别的冷却液管线布局、冷却水塔和流体分配单元(CDU)。目前,许多新建的数据中心在设计初期就融入了“液冷兼容”理念,以提高整体热管理效率和扩展灵活性。
中金公司在其研究报告中指出,随着AI大模型的持续更新迭代和应用落地,算力需求不断提升,芯片功耗和算力密度也在逐步增加。液冷技术凭借其高效的散热能力和高部署密度优势,正迅速取代风冷成为AI算力底座的主流冷却方案。预计到2026年,全球AI液冷市场规模将达到86亿美元。