根据TrendForce的研究显示,2025年NVIDIA将推出一体化机架服务器GB200 NVL72,这将加速AI数据中心的升级,推动液冷技术从早期试点项目迈向大规模部署。因此,AI数据中心中液冷的渗透率预计将从2024年的14%飙升至2025年的33%,并在未来几年持续增长。
TrendForce指出,AI服务器中GPU和ASIC芯片的功耗急剧上升。例如,NVIDIA的GB200/GB200 NVL72系统的每机架热设计功耗(TDP)达到130-140 kW,远超传统风冷系统的散热极限,这促使行业提前采用气液双通道(L2A)冷却技术。
受限于现有数据中心基础设施和水循环系统,L2A将在短期内作为主流的过渡解决方案。然而,随着下一代数据中心从2025年开始投入使用,以及AI芯片功耗和系统密度的持续上升,预计从2027年起,效率更高、稳定性更强的液对液(L2L)冷却技术将迅速普及。研究认为,长期来看L2L将逐步取代L2A,成为AI设施中的主导冷却方案。
北美四大云服务提供商(CSP)正在加大对AI基础设施的投资,并在北美、欧洲和亚洲扩建新的数据中心。这些CSP还正在建设支持液冷架构的数据中心设施。谷歌和AWS已在荷兰、德国和爱尔兰推出配备液冷管道的模块化数据中心,而微软正在美国中西部和亚洲进行试点部署,并计划从2025年开始将液冷作为标准架构。
TrendForce表示,液冷技术的兴起推动了对冷却模块、热交换系统及相关组件的需求。作为直接接触热交换的核心部件,冷板主要由酷冷至尊、AVC、BOYD和Auras供应。其中三家企业(除BOYD外)已在东南亚扩大液冷产能,以满足美国CSP客户的强劲需求。
冷却液分配单元(CDU)作为负责热量传递和冷却液流动的核心模块,主要分为侧挂式和行内式两种设计。目前市场以台达主导的侧挂式CDU为主,而主要由Vertiv和BOYD提供的行内式CDU具有更强的冷却性能,更适合高密度AI机架部署。