打造绿色节能机房 从气流管理开始下手 智能应用 影音
D Book
231
MongoDB
electronicAsia 2025

打造绿色节能机房 从气流管理开始下手

  • 杨乃仁

GreenIT博客版主 胡哲宁
GreenIT博客版主 胡哲宁

根据美国环境保署于2007年的报告指出,2006年美国各种信息产业或商业、政府机构所使用之数据中心的耗能,已经成长至2000年时的2倍,而能源大用户各类建筑电力消费量(EUI)的统计分析也显示,这其中以电信机房、网络机房最高,平均单位面积年耗电量比第三名的百货公司足足超过2倍以上。国内知名的Green IT博客版主胡哲宁说,为了鼓励企业导入机房节能技术,并了解自已在节能方面的成效,Green Gird协会针对「信息机房能源使用合理化」,订定了电源使用效率PUE(Power Usage Effectiveness)耗能指标,使用300RT以上中央空调冰水主机系统的信息机房,只要PUE值达到1.52以下,即可取得申请LEED绿色机房的基本门槛。

胡哲宁表示,以台湾目前的电价、机房用电与平均PUE值来估算,我们假设某一机房环境每年用电成本大约原本需要新台币3,758,040元,PUE值为2.2。但若能将其PUE值降至1.8时,则每年机房电费可减少为3,074,760;PUE值为1.4,每年机房电脑为2,3919,480元。每年分别可节省电费新台币683,280元及1,366,560元,显见投资绿色机房的成本效益极高。

胡哲宁指出,根据PUE的计算公式,当非IT设备用电量不变时,若能有效提高IT设备的用电量时,PUE会降低;反之亦然。由于目前机房用电量较高的设备除了服务器之外,就当属空调设施,因此如果能够改善机房的气流与散热状况以节省空调用电,即能使其PUE值大幅下降。

Intel的2020 Data Center实验同样也证明了这一点─在同样区分冷热通道、故意存在气流泄漏、将空调制冷与风速调至最大,并以8个机柜装设174台服务器的机房环境设定条件下,Intel仅采取了封住泄漏、调整冷通道出风量至足够满足每一机柜设备的散热需求,以及将冷热风彻底隔离等3 项步骤,该机房PUE值便由原1.8逐步减少至1.55与1.48。接下来再采用如调高冷冻水温度、己用EC变频送风、提高空调送风温度…等改善措施,PUE的降幅均不高。由此可知,IT人员若能先由做好机房的「气流管理」与解决其「冷热混风」的问题开始下手,对于立即改善机房PUE值会有相当大的帮助。

不过要做好气流管理,机房管理人员必需要先做好事先的气流环境预备,建立良好的冷热通道,在机柜未安装设备的地方装上档板,将非冷通道不必要的开孔予以密封,并且对机柜后方及高架地板下方的线缆进行整理,以避免阻碍空气流通或让气流意外通往错误的方向。

此外,胡哲宁说,机房管理人员也要了解与气流管理有关的标准 (如TIA-942的内容),随时掌握每个机柜设备的耗电量、入口温度,空调的制冷、风量及效率等信息,而且更重要的是:健全自己的心态,千万不要以为气流管理是很困难的工作,因而害怕有所改变。像是采取冷热气流彻底隔离、依照实际设备散热需求建置空调、将机柜设备入口处设为ASHRAE所建议的摄氏27度、让空调出风温度接于设备入口温度,以及尽量使用自然冷却等方式,都对改善气流管理效果很有帮助。

特别要注意的是:绝对要防堵任何可能导致冷热气流混合的泄漏。胡哲宁表示,这很容易产生局部热点,并让回风温度因混风而缩小其温差,使得管理人员必须再调低温度、增加制冷耗能、调整空调机组以低负载方式运转,最后导致机房空调整体效率不佳」此时机房人员或可选择采用将冷却系统移至机柜边,藉以缩短送风和回风路径;在机柜后方背板加装水冷式散热片以过滤热风;封闭机柜前的冷通道或机柜后的热通道;安装烟囱连连接机柜顶部及天花板等措施,对现行信息机房冷热隔离方式进行改善。

不过胡哲宁也指出,每一个方案都各自有其优缺点,如冷通道封闭虽能确保设备进风温度及应用在高热密度环境,但因为把整个机房都当成热通道,使得环境的温度会偏高,一旦空调因各式原因而无法运转时,服务器发生当机的可能性会提高许多。

最后还是要机房人员依照其空间、成本/效益、机房稳定性、施工困难度、管理难易度等层面评估各式方案的优缺点,仔细思考之后再视其需求予以选择。而除了气流管理之外,胡哲宁还举出一些改善方向,像是进移动态PUE量测,以便实时了解能源消耗/机房能源性能及效率等环境状况;依据ASHRAE的建议,调高冷通道温度,降低冰水系统的能耗;建置变频冰水主机、变频泵、变频风扇、变频冷却水塔;避免超量设计及主机台数的规划;尽可能地使用模块化及高效率的变压器(98%以上)及UPS系统(95%以上);加强房内部的线路管理,以及将实体服务器进行整并与虚拟化等,可供有心朝往绿色机房发展的企业参考。