ITBear旗下自媒体矩阵:

草原散热新篇:液冷技术如何为AI算力“降温”并开启绿色未来

   时间:2026-03-03 04:27:48 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

当AI大模型参数规模从千亿级向万亿级跃迁,单机柜功耗从4KW飙升至50KW以上,数据中心散热问题已从幕后走向台前,成为制约算力发展的核心瓶颈。在内蒙古和林格尔新区,中国移动呼和浩特智算中心以冷板式液冷技术为核心,构建起覆盖芯片到园区的全链路节能体系,将智算区PUE(电能利用效率)压至1.15的全球顶尖水平,年节电量相当于1.7万户家庭全年用电,为AI算力时代提供了绿色转型的标杆方案。

传统风冷技术正面临前所未有的挑战。AI智算中心因GPU/NPU高密度部署,单机柜功率突破30KW并向100KW迈进,单颗芯片热流密度超300W/cm²,相当于在指甲盖大小面积上持续点亮300瓦灯泡。空气导热能力仅为液体的1/25,导致25KW以上机柜极易形成局部热点,直接引发芯片降频、服务器宕机等问题。更严峻的是,全国在用风冷数据中心PUE普遍高于1.4,制冷能耗占总能耗30%-40%,既推高运营成本,又与国家"双碳"目标形成尖锐矛盾。

和林格尔新区的天然禀赋为液冷技术落地提供了理想条件。呼和浩特年平均气温7.7℃,每年约6个月可完全依赖自然冷源散热,同等技术条件下较南方地区节电20%以上。内蒙古新能源发电量全国第一,该中心通过"风-光-储"一体化模式实现绿电直供,2024年绿电交易占比达77%,2025年目标突破80%,含税电价低至0.365元/度。这种"地理+能源"的双重优势,使中心在建设初期就具备低PUE基因,堪称中国版的"绿色算力冰岛"。

技术突破方面,该中心采用冷板式液冷技术,在CPU、GPU等高热芯片表面安装定制化金属冷板,让绝缘冷却液在微米级流道中高速循环,直接带走90%以上热量。升温后的冷却液通过CDU冷却分配单元与闭式冷却塔完成热交换,形成全封闭、零泄漏的散热闭环。相比传统风冷,这种"精准滴灌"式散热效率提升25倍,剩余10%机房环境散热采用水冷前门+热管背板空调,制冷效率提升63%,空调能耗降低66%。冬季启用的余热回收系统,将服务器废热用于园区供暖,年减碳超1000吨。

全链路智能温控平台是该系统的"神经中枢"。通过华为能效调优解决方案,实时监测芯片温度、管路流量压力等参数,利用AI算法动态调节冷却液流速、风机转速与制冷功率,实现"负载变、温度变、制冷量同步变"。即使在万卡集群满负荷训练场景下,也能将芯片温度控制在最优区间,确保PUE稳定在1.15。目前该中心已建成国内首个超万卡国产液冷智算集群,部署2950台服务器,总算力达6.7EFLOPS,单机柜功耗突破56KW,是传统风冷机柜的10倍以上。

经济效益与环保效益同样显著。按当前负荷测算,该方案年节电1719万度,节省电费619万元,节水9.5万吨、节省水费86万元。试点项目对比风冷方案年节电94.2万度,碳排放降低24.6%。从全生命周期看,每年可节约标准煤19万吨,减少二氧化碳排放63.5万吨,配合高比例绿电使用,成为"东数西算"工程的绿色低碳样板。更关键的是,液冷技术彻底打开了算力上限,为万卡级AI集群部署扫清物理障碍。

在支撑国产算力自主可控方面,该中心已落地华为昇腾、天数智芯等五类本土芯片,搭载1.98万张AI训练卡、近万张推理卡,国产芯片算力占比超85%。通过统一算力池化技术,实现双芯混训效率超90%,三芯混训完成验证并投入生产。稳定的液冷环境为多元芯片协同运行提供了可靠保障,目前中心已孵化出政务、医疗、工业等40余款行业大模型,吸引字节跳动、智谱AI等113家企业入驻。

尽管液冷技术优势明显,但其规模化推广仍面临挑战。行业标准不统一导致服务器与机柜接口互不兼容,冷板式系统的漏液风险对密封工艺提出极高要求,初期投资成本较风冷高出30%-50%。针对这些痛点,中国移动正牵头制定液冷行业标准,推动机柜与服务器解耦;通过全封闭管路设计、高精度光纤传感等技术规避漏液风险;随着产业链成熟,液冷方案投资回收期已缩短至2-3年,长期运营成本优势显著。据预测,冷板式液冷与单相浸没式液冷将成为主流技术路线,核心部件国产化率有望在2025年突破80%。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version