如果你也跑过AI大模型训练,肯定懂那种半夜被GPU温度报警吓醒的酸爽。2026年5月14日,第七届深圳国际人工智能展览会正式开幕。朴赛携全新液冷CDU解决方案参展,朴赛搬来了一台机架式液冷CDU,现场放出了满负载实测数据,为高密度算力的散热难题给出了硬核答案。
同步展出覆盖智慧金融、智能驾驶、高校科研、具身智能的四大AI解决方案、四台主力服务器及IB交换机,为业界呈现了一条从算力底座、散热保障到网络连接的完整技术链条。在本届展会同期评选中,朴赛被专家评审委员会授予“全球AI生态基石大奖”,这一荣誉既是对其AI算力基础设施领域技术厚度与方案能力的认可,也印证了其作为AI产业生态支撑者的坚实行业地位。
液冷CDU:高密度算力的散热核心
搞AI的人都清楚,GPU功耗这两年是一路狂飙。单卡600W已成常态,更高功率的芯片还在路上。传统风冷方案已经摸到物理天花板——风扇拉满、噪音炸裂、机房冷热通道恨不得把人吹感冒,芯片温度还是压不下来。这时候液冷从“锦上添花”变成了“没它不行”。而CDU是数据中心液冷系统的调度中枢,其核心任务是将精准控温、洁净无污染的冷却液泵送至每一颗高功耗芯片,高效回收并排出热量,同时通过智能算法实现按需调节,借助冗余设计保障不间断运行。面对AI高密度算力与绿色低PUE的双重要求,CDU已成为解锁性能与能耗平衡的关键设备。
朴赛此次展出的机架式液冷CDU,额定换热量达到10kW,瞄准的是AI服务器集群的高密度散热需求。数字不算夸张,但对标实际部署场景,够用、务实。朴赛机架式液冷CDU,额定换热量达到10kW,直指AI服务器集群的高散热需求。我觉得它在循环泵配置上诚意十足。
设备搭载两台并联循环水泵,采用一用一备的冗余模式:主泵驱动冷却液循环,一旦出现故障,系统自动切换至备用泵,液冷循环不会中断,这个冗余意味着什么?意味着哪怕水泵坏了,服务器不会因为过热而宕机,从根源上避免了因散热失效导致的服务器宕机风险。对于需要7×24小时不间断运行的AI集群,这一设计构成了最基本的安全保障。很多厂家讲液冷只讲换热效率,不讲故障场景,朴赛这次把可靠性摆在了明面上。
设计特点:智能控制与紧凑结构
控制层面采用PLC方案,温控精准、响应稳定,支持数据中心级集中管理,适配大规模集群的统一运维。自动补液设计也省了额外水箱,大幅降低了人工维护频率。其内部容积控制在10升以内紧凑的结构本身也降低了漏液风险。外观采用RAL 9005细砂纹工艺,兼具耐磨与抗污性能,可长期保持设备整洁。值得关注的是,这台CDU自身额定功率不超过1.5kW,在实现强大散热能力的同时维持了低功耗表现,且可直接接入常规机房供电,无需担心兼容性问题,配置上挑不出短板。
实测数据才是照妖镜,用真实表现回应质疑
参数说得再漂亮,不如上机实测来得直接。展会前,朴赛已执行多轮严格测试,所有数据均在标准环境下采集:室温25.5℃,相对湿度61.8%RH。测试采用8张600W GPU全部100%满负载运行,记录不同风扇转速下的稳态温度,取65至85秒区间的平均值。
实测结果显示:当风扇转速为30%时,GPU平均温度为59.88℃;40%转速下,温度降至56.13℃;50%转速下,为54.63℃;风扇满速100%运行时,GPU平均温度进一步降至50.88℃。从数据中可以清晰看出,风扇转速每提升10%,GPU温度大约下降1.2至2.0℃,散热效率提升显著。
这些数字的意义在于:即使在30%的低转速下,GPU平均温度仅为59.88℃,远低于多数GPU的温度墙。在实际部署中,完全可以采用更低的风扇转速运行,兼顾静音与节能,在保证芯片冷却的同时降低散热系统自身能耗。很多厂家只敢给理想工况下的模拟数据,朴赛这次把满负载、多转速的实测数据公开,这个态度值得给个赞。
全栈布局:从单点设备到“交钥匙”方案,液冷正在成为AI基础设施的必选项
朴赛此次参展并未局限于单一产品展示,而是呈现出一条清晰的链条:算力由服务器提供底座,散热由液冷CDU守住底线,稳定运行依赖PLC智能控制,网络通过交换机实现无缝协同。不论是建设智算中心、搭建AI训练集群,还是部署边缘计算节点,朴赛提供的均是一套可整体交付的完整方案。这种打法解决的是行业里最实际的痛点——不同环节的适配风险和高部署复杂度。
在笔者看来,在AI芯片功耗持续攀升的当下,传统风冷方案已经触及物理极限,液冷散热正从锦上添花的可选项转变为高密度算力部署的必备条件。朴赛此次不仅展出了产品,更公开了多场景、满负载下的实测数据,这种透明和务实的态度在行业内值得肯定。当算力竞赛走向深水区,决定集群实际可用性的往往不是峰值性能,而是散热、供电与网络这些基础保障是否牢固。从这一角度出发,液冷CDU所扮演的角色,只会愈发关键。