采用浸没式冷却技术 使机房PUE大幅降低
- DIGITIMES企划
对于高密度数据中心而言,现今要迫切解决的首要课题便是降低PUE。然而愈来愈多企业发现,散热负荷过高,为PUE降不下来的关键,系因空气并非好的冷媒,因而促使液冷散热技术逐渐崛起。
成立于1970年、深耕热处理铜焊工艺长达半世纪的高力热处理工业,因应未来环境可持续发展趋势,多年前跨足液冷技术、研发此领域当中的浸没式散热解决方案,希冀透过更节能、更省水的冷却方式,不仅有效带走机柜的热,也能协助降低PUE。
高力热能事业部协理林岳宏指出,根据美国国家再生能源实验室公布的数据,可看出不同冷却方式对数据中心能耗所产生的影响,其中有望让PUE降至1.05以下的方式,唯独直接液冷技术。
林岳宏说,假定有一座发热量达100kW的机柜,如果采用气冷,可推算其热传导系数是0.026 W/m°C,相较水的0.64、介电液的0.064或0.125,单凭此数据即可印证水与介电液都是优于空气的冷媒。此外空气的流体比热为1.01 kJ/kg°C,亦远逊于水的4.07、介电液的1.09或1.97,意谓气冷方式需要靠更大的驱动力来带走热,能耗自然偏高。
延续上述假设,于单一机柜内置入发热量100kW的气冷服务器,机柜内空气风速高达13.9m/s,推算其所需风扇/泵数量多达640个,意即1U配置16个,单单风扇/泵耗电量即为20kW,仅这部份的能耗就让PUE须从1.2起跳,还不加计冰水主机、冷却水塔的耗电,导致整体下修的空间有限。
若以100kW机柜、环境温度摄氏30度为比较基准,可推估气冷方式的总耗电量为147.08kW、耗水量为2,356.2立方米;因水冷片仅适用于解除CPU/GPU等局部热源,若采「水+部份气冷」的总耗电量为107.74kW,耗水量为1,725.9立方米;而介电液(浸没式)的总耗电量为106.71或106.91kW,耗水量为1,709.4或1,079.4立方米。因此无论从省电或省水的角度来看,浸没式散热技术均居于领先地位,对照现阶段台湾缺水现象,更凸显此项技术的优势。
「若采用浸没式散热技术的液冷数据中心,进一步导入废热回收再利用,可望使PUE继续探低,甚至到达小于1地步。」林岳宏解释,此运用方式须以高纬度地区为前提,可在液冷机柜、CDU冷却单元及温水槽之外结合板式热交换器,将热回收供民生用热水;或结合水源热泵,制成热水做为民生之用;或结合吸收式冰水机,制冷做为民生空调。
他引述德国压缩机厂计算数据指出,假使热泵蒸发温度为0,每输出100kW加热量需耗用27kW电力,若能利用废热将热泵蒸发温度提高到20度,则同样输出100kW加热量,仅需消耗17kW电力,形同协助热泵节省10kW电力。
着眼于此,高力热处理工业将持续推广浸没式散热方案,致力成为「洁净能源、能源管理、循环经济」的技术整合领导者。
- 锁定绿色、安全、智能化 开启5G时代机房致胜口令
- 建立能耗测量机制 打造可持续发展的绿色数据中心
- 运用MDC、模块化UPS等利器 满足未来机房基础建设
- 思科偕同施耐德 建立智能维运的边缘数据中心
- 拥抱公有云 助企业急遽削减碳足迹
- 采用浸没式冷却技术 使机房PUE大幅降低
- 中华电信翻新机房规格 重塑IDC服务新未来
- 依IT架构及未来业务成长性 选择最适合电力系统
- 施耐德EcoStruxure IT Advisor助远传催生业界首创DaaS服务
- 空调系统结合化学滤网 订阅式AMC控制方案全面控制5G机房
- 藉由合适的测试仪器 快速解除PoE疑难杂症
- 参酌ASHRAE标准 善用节能技术实践合理PUE目标
- 聚焦CAT.6A、OM4/OS2主流媒介 满足高速传输布线需求