善用自然冷却 有效达成机房散热 智能应用 影音
Microchip
Event

善用自然冷却 有效达成机房散热

  • DIGITIMES企划

Google数据中心建立系统利用免费水源,有效达成散热效果。(Google) </span>
Google数据中心建立系统利用免费水源,有效达成散热效果。(Google)

DIGITIMES企划

不管是从节能可以减少能源成本的角度,或是透过散热机制提高机器运转效率,延长设备寿命的角度,机房散热的相关技术及应用,都值得企业重视。事实上,可以用来散热节能的技术非常多,如适当放大冷凝器、增加散热面积、降低冷凝温度、提高制冷系数等;或是添加冷冻油添加剂、减阻抗磨、增强冷凝器和蒸发器的换热;夏季时可以对风冷型冷凝器进行遮阳、水雾降温等措施,既能减少高压跳机故障的机率,又能节能降耗;当然,透过电脑自动控制空调的工作状态,依据环境温湿度,自动精确变设定等,更是许多机房散热的重要管理机制。

善用水及空气自然冷却机制,可以有效达成机房散热目标。Google

善用水及空气自然冷却机制,可以有效达成机房散热目标。Google

针对空间范围较大的机房如数据中心,还得注意空调的送回风系统,包括地板送风、风管或吊顶回风,是否有做好温度场和速度场的均匀性。另外,针对一些比较高密度的机柜,甚至可以可以采取一些直接冷源的送风方式,让散热效果达到极致。

自然冷却不容忽视

但机房散热机制不一定只能靠机器,管理思维更是重要,如针对机房温度设定如何设定上限值、下限值,或是随季节调整,往往需要视机房位置而定,只要温度设定正确,就可以达到散热目标。

一般而言,机房空调的设定温度为21至25℃,如果将个别机房空调温度控制得很低,甚至低在20℃,其实非常浪费能源。而且随着服务器的设计提升,对于环境温度的忍受力也变得更强,部分服务器的性能指标,主机壳内温度只要控制在40℃以下,就可以正常运行,机房环境温度此时甚至可以设定在28℃。

实验证明,在不同室内温度情况下的节能效果也不同,提高1℃室内温度,大约能节约空调耗电2%?5%的结论,而且提得愈高,节能效果会更加明显。因此,现行较为严格的机房环境温度规定,其实值得商榷。在没有明确新标准前,比较合理的做法应该是在夏季将温度设定偏高些,冬季设定偏低些。

因为在冬季或部分地区的春秋两季,室外空气温度较低,机房室内空气温度却较高,仍需要供冷。尤其是没有外墙、外窗的内区房间,由于机房内设备的持续散热量没有途径散发到室外,室内仍需供冷。此时由于冷负荷较小,冷机制冷系数较低、能耗大,若开启冷机供冷极不合理。

其实大自然就是最好的冷源,不仅不需要能耗取得,而且供给充足,机房散热设计应该设法利用自然冷却(free cooling),也就是不使用冷却设备或压缩机冷却空气的技术。

善用自然冷却  有效节省能源

如Google宣称自己的数据中心所使用的能源,只有其他企业的一半,主要的原因就是设法减少高耗能的冷水机组,尽量采用自然冷却设计。

如Google位于美国格鲁吉亚州 Douglas郡的数据中心,一开始是使用饮用水系统的水资源,但Google后来发现,用于数据中心的水不需要饮用水的乾净程度,由于这座数据中心位于 Chattahoochee河附近,所以Google后来建立一套系统,会先引入免费河水,进行处理后,先让服务器冷却,变成水蒸气后再通过冷却塔,协助降低空气温度,没有变成水蒸气的水,则会引入另一个厂房进行杀菌、过滤矿物质后,再排入 Chattahoochee河里面。

Google位于比利时的数据中心,也是善用得天独厚的自然条件,自附近的工业运河抽取水源,再以蒸发冷却方式供应机房所需冷量,一年之中平均仅7天不符自然冷却的要求,在此情况下,该数据中心仅采用冷却水塔来散热,并未部署冰水主机,就实现了100%的自然冷却,也是Google旗下第一座完全仰赖自然冷却的数据中心。

Google位于芬兰的数据中心,甚至还利用海水来冷却机房运作时的温度,堪称为全球首例,其透过管道系统把海水送进服务器的热交换器,让海水吸收其中热量后,再被排入大海,比起使用冷气做空调,能省下可观的支出。

Google位于爱尔兰都柏林的数据中心,则是100%采用空气自然冷却的案例。该数据中心受限于所处建筑结构、及略显不足的供水量,因而无法装设大型冷却水塔,所以决定另辟蹊径,采用模块式空调箱(AHU),从室外取用自然空气送进混风室,与机房内的回风加以混合,再经由过滤与加湿程序,接着利用AHU风扇送至直接蒸发盘管进行冷却,最终透过送风管进入机房内部,进入机房的冷空气在经过IT设备加热后,会循着被封闭的热通道向外流动,一部分直接排放至室外,另一部分则参与回风。

自然冷却PUE值可达1.5以下

台达电子在2014年7月启用的机房,也都加入了自然冷却的机制,冬天时可适当引进外面的冷空气到机房进行冷却。此外,机房的冷热通道设计也提升了送风效果。

如台达AB区机房采用的是冷通道封闭,在前后两侧安装封闭门,将冷风限缩在机柜区域里,让冷热通道可以区隔开来,增加空调使用效率。机柜与机柜之间也配置机柜式空调,可经由水平式送风将冷空气送至服务器,并搭配台达冰水空调系统,有效散热与节能。

经过模拟计算后,此机房年度PUE值(Power Usage Effectiveness)预估可以达到1.43,比起企业IT机房平均1.9到2.5表现还要更好,如果搭配大楼本身的冰水系统,白天PUE值可以测得1.38,即便是夏天没有开启自然冷却功能,机房PUE值也能维持在1.5左右。

中华电信预计在2015年下半年启用的板桥IDC数据中心,在机房空调方面,也采用冷热通道的循环设计,搭配自然冷却机制,冬天时可适当引进室外冷空气到机房进行降温。中华电信预估,这座云端数据中心的PUE值未来可达到1.5以下,比起台湾企业的传统机房,这座数据中心可减少25%的电力消耗。

自然冷却设计须因地制宜

以台湾的气象条件来看,全年外气低于乾球温度26度、相对湿度50%等焓值的时间,约占4成比重,只要能善用自然大气环境的低能量源,作为IT设备冷源,即可减少空调制冷主机的运转时间,进而实现节能目的。

但自然冷却占机房散热设计的比例,必须取决机房所在地的气候,最常用的自然冷却方式,通常是地下水、地表水冷却和室外冷空气冷却。有意采用水冷却技术的企业,务必要一并采用密闭式冷却水塔,以避免造成管排结垢与清洁等问题,反而造成其他后遗症。

如果采用空气自然冷却技术,则需要一并建立空气污染品质防治机制,监视尘埃、硫化物、氮化物等有害物质的状况,以免损伤机房设备。值得注意的是,外气的相对湿度过低或太高时,还得额外进行加湿或除湿调整,处理成本是否划算,是机房散热机制需要注意的重点。