PUE值约为1.07浸没式液冷算力平台全面提升AI算力

人工智能技术的迅猛发展,极大增加了相关产业对高性能算力的需求;在“东数西算”和“双碳”国家战略背景下,基于浸没式液冷技术的高性能算力整体解决方案,越来越多的被市场关注和追捧。高性能算力也将成为国家数字社会基础设施的公共资源。人工智能是数字科技发展的主引擎,推动各行各业实现产业革新,AI模型规模的不断增大,产业升级对于算力的需求像水和电一样。




  上图是本次实验测试部署的单相浸没式液冷系统,整个系统是由室内液冷tank单元、CDU换热单元、EDU动力单元、室外冷却单元等四部分组成。算力服务器等IT设备直接浸泡在冷却液中,算力芯片产生的热量通过冷却液传导到后续单元实现高效散热,仅仅13U的液冷tank单元,即可支撑最高0.5PFLOPS算力,大幅降低了系统能耗,经长时间运行测试,液冷系统PUE值约为1.07,同时,对比相同能力风冷基础环境设施节省了70%以上的物理空间。




  人工智能发展急需核心硬件的升级,从通信与计算两个方面评估,人工智能CPU既具备海量数据的存储和较大的缓存,同时计算单元和存储之间能实现海量数据交互的高带宽。满足密集的线性代数计算和海量数据高吞吐的需求。



  人工智能GPU支撑了并行计算的发展成果。随着人工智能应用的蓬勃发展,各类GPU服务器也应运而生,服务器厂商相继推出了专为人工智能设计、搭载多GPU的服务器。GPU服务器可适配多种软件框架,能支持人工智能模型的训练和推理等不同场景,可应用于图像识别、自然语言处理、音视频分析、分子模型分析等。 




  浸没式液冷系统与传统风冷、水冷、间接蒸发冷、氟泵循环系统、热管系统相比,取消了空调系统高能耗部件压缩机、室内风机以及对应的风冷辅助设备,能节省约35%的能源,有效降低碳排放,满足低碳绿色A级数据中心的要求。

  浸没式液冷系统可提升IT设备的使用效率和稳定性。采用电子氟化液液冷介质,相比其他导热流体具有高稳定性,高绝缘性,高热传导性,无闪点、无腐蚀性、无毒性等特点,电子氟化液冷却流体提供了更大的散热能力,同体积电子氟化液带走热量是同体积空气的3000倍,导热能力是空气的25倍,能够实现IT设备高效制冷。电子氟化液的比热容大,在吸收热量后自身温度不会产生明显的变化,即使IT设备处于并发高峰状态,也能够稳定IT设备温度。

  浸没式液冷系统高效助力数据中心降噪,达到高静音效果。在相同散热条件下,液冷系统没有产生大量噪音的风扇,噪音值可以控制在42dB以下,实现“高静音机房”。

  浸没式液冷系统提高数据中心单位空间功率密度,对比相同体积数据中心机柜空间,实验验证选用了远地科技ATAHORAN系列魔力之河® 浸没式液冷系统最高可达800kW散热量是同体积传统风冷数据中心机柜承载功率密度的40倍。在配置高密度GPU算力服务器的高算力平台的散热领域相较传统风冷冷却方式高几十倍的运算效率。优势明显。

  从实验测试验证的风冷系统和浸没式液冷系统综合分析来看,在整体复杂性和成本投入方面,浸没式液冷具有巨大的优势。


  风冷系统——复杂

  看似简单的服务器机架系统实际上有很多活动部件:高架地板,复杂装饰装修,气流封闭通道,配电配线系统,精密空调,新风系统,湿度控制,过滤系统等组合。这些必要的复杂性等同于相对较大资本支出(CAPEX)。

  风冷数据中心本质上效率低,对运营费用(OPEX)同样产生严重影响。

  风扇占服务器功耗的20%,为提高空气有效性,需空调设备等消耗能源的制冷组件。这些反过来又会增加电力基础设施投入规模。

  风冷冷却的数据中心,PUE值大部分位于1.35至1.69区间。


  浸没式液冷系统——简单

  浸没式液冷最大价值就是其:简单性

  系统只需三个活动部件:冷却液泵,水泵、干式冷却风扇,不需要高架地板, 也不需要通过通道封闭浪费空间。液体冷却可以将数据中心的资本支出降低 50%甚至更低。大大降低基础设施要求,液体冷却使冷却能量减少 90%,数据中心总能耗降低 50%。甚至可以实现<1.03 的PUE。

  从电力角度来看,浸没式液冷冷却基础设施不仅减少成本投入,而且还可附带减少高昂的维护费用。

  由于机架可以紧密地间隔在一起,液体冷却不需要对气流进行 CFD 分析,甚至可放置在简单的混凝土地板上。

  本次测试验证总结:

  表1 综合项评估


  表2 经济性分析




  综上所述,浸没式液冷是目前数据中心市场上最简单实用冷却形式。系统出错环节更少,没有配置复杂的精密空调部件、空气过滤系统等,并且没有服务器风扇,系统MTBF (平均故障间隔时间)可以大幅降低,沉浸式布置方式,使IT设备与外部空气完全隔离,消除环境问题。


发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章