建置冷热通道 提升机房能效 智能应用 影音
EVmember
ADI

建置冷热通道 提升机房能效

  • DIGITIMES企划

企业欲降低机房能耗、使PUE显着下滑,无疑需要对症下药,优先瞄准机房内部的能耗大户下手整顿;而一向占机房总体能耗逾四成、甚至五成的空调系统,显然就是头号标的。

曾经有人估算,以一座IT设备用电量达100kW、PUE数值为2.5的信息机房,则其非IT设备耗电量为150kW,总用电量为250kW,等于每小时需耗用250度电力,一年总耗电2,190,000度;若以台电每度电价新台币3元作为计算基础,则该机房一年电费高达新台币657万元。

实施冷热通道隔离、甚至封闭,堪称是提升信息机房冷却与能源效率的捷径,最具立竿见影之效。来源Hetzner Online

实施冷热通道隔离、甚至封闭,堪称是提升信息机房冷却与能源效率的捷径,最具立竿见影之效。来源Hetzner Online

沿用上述假设,如果该机房的IT设备用电量100kW不变,但PUE降为1.5,情况会变得如何?则其非IT设备耗电量减为50kW,总用电量减为150kW,等于每小时总用电量只剩150度,一年累计总用电量亦减至1,314,000度,而电费顺势降至新台币394.2万元,较原本大减四成之谱;前后改善幅度之大,肯定让企业主眼睛为之发亮。

可以肯定,该企业内部不管是MIS、总务甚或其他职能人士,谁只要能献策让PUE从2.5降至1.5,他必定是企业主眼中的大红人,日后可望加官晋爵。

不可讳言,PUE从2.5迈向1.5,就绝对数值来看,不过是少了1,看似没什麽大不了,但要想有效实现,却不是那麽简单。以举世闻名的Google为例,不仅费心部署高效率设备、确保冷热通道分离,更采用诸如蒸发式冷却水塔等独特装置,在数据中心的选址方面更是煞费苦心,尽可能落脚在寒冷的气候区,再辅以自然冷却系统的帮衬,才让PUE降至令人称奇的1.3以下水准。

反观台湾企业,不仅身处亚热带,又未必有足够的财力、人力、技术、知识,能与Google之类的巨擘等量齐观,要做到1.5水平,虽然未必不行,但肯定不轻松。

然而不论难易,降低PUE,已是企业高端主管、机房管理者的共同愿景与使命,绝非虚晃一招,既然如此,就得朝着最能立竿见影的面向切入;在此前提下,把矛头指向耗电占比高的空调系统,肯定错不了。

但企业意欲朝向空调系统出手节能,不免有机房管理者为之担忧,只因论及空调系统功耗的减少,不外是几种做法。第一是按照ASHRAE建议,将冷通道温度予以调高,如出风口温度调高至摄氏22?23度、甚至高过25度皆可,如此才有助于降低冰水系统的能源消耗。

但问题是,对于企业来说,固然需要以节能为念,但不能矫枉过正导致IT资产损毁,明明服务器供应商或SI都不建议将出风口温度设于20度以上,否则容易有跳机疑虑,企业何苦冒险犯难?

第二种做法,便是采用诸如变频冰水主机、变频泵、变频风扇、变频冷却水塔等变频空调系统;但问题是,针对上述各个项目,企业目前都有相对应的「非变频」传统机种,它们的节能效率或许较为逊色,但当初都是大把白花花的钞票买进的,现在又非老朽不堪运转,如今要管理者送上企划书,建议老板将它们一个个全换,再砸下大钱引进新设备,又得耗时多年才可能回收投资,如此提案,机房管理者实在难以启齿。

第三种做法,与上述做法有些类似,都是需要花一笔大钱买进新设备,只不过标的物变成了自然冷却系统;机房管理者通常不是气象专家,再加上台湾一年四季温差还算不小,究竟采用水侧自然冷却的效益高?抑或空气侧自然冷却的效益高?实在没有太大把握,与其硬着头皮写下恐有破绽的企划书,倒不如不要蹚浑水为宜。

其实拥有前述想法的机房管理者,姑且无论其心中疑虑,是否真有几分道理,但可以确定,他们忽略了眼下最不需耗费成本,而且快速见效的改善措施,那便是建立冷热通道,借此减少混风、避免热点发生。

建立冷热通道  无需以大空调对抗小热点

毕竟企业机房最亟欲解决的疑难杂症,并不是整间机房都很热,而是一些局部热点,依照传统做法,企业并未善尽冷热通道隔离,等于是利用整间机房来实施冷却,为的只是解决一小撮的热点,到头来只能把空调温度降低,殊不知设定的温度愈低,效率就愈差,耗电量也愈大,最后还不见得有效处理掉哪些热点。

有专家建议,最简单的冷热通道建置方式,无需在两通道之间费心隔离,甚至无需建立冷通道,只要在每台机柜背后安装集风管,藉以集中热风,再送进空调系统实施冷却,再运用塑胶片隔离出热通道、并增加一个出口,即大功告成;如此做法,虽有部署风管需要施工之缺点,但由于方法简便、快速见效,因此颇获SI或用户喜好,尤其在于运算密度较高的机房,采纳此一做法的可能性愈大。

另一种方式,听起来也不难,做起来却颇有阻碍,那就是调整机柜的摆设座向,将原本前后各排背对面的一致摆设方式,变成面对面、背对背的两两相对型态,如此一来,邻近两排正面相对的机柜之间,就形成了冷通道。

相对而言,邻近两排背面相对的机柜之间,即是热通道,仅需将冷空气送进冷通道,至于热通道所产生的热气,将由天花板上方的回风口排出,藉由空调单元机组CRAC冷却再循环,不致再流向冷通道造成混风,更可避免过往前后排机柜吸入风温不均、因而产生散热不佳甚或过热当机之现象。

有一个在业界流传的真实案例,早在10年前,某位在东部的电信机房,空间面积不算大,却动用了骇人听闻的1,100吨空调负载,更离谱的是,即便如此,温度还是降不下来,每月至少烧掉一片机板,更耗费可观电费支出,业主眼见事态严重,于是急忙向专业技师求助。

结果技师靠着计算流体力学(Computational Fluid Dynamics;CFD)软件,将原本紊乱不堪的气流流场,调整至顺畅的状态,再顺道于回风口加装风机,如此一来,等于是区隔出冷热通道,进而减少混风、消灭热点,不仅让业主无需再花大钱追加冷气吨数,反倒将空气负载退缩至300吨加300吨(旨在交替运转)格局,便使机房温度低于以往,从此再也未曾发生机板烧毁事故,且足足省下40%电费,可谓一举数得,短期投资报酬率高得吓人。

但前面提到,诸如这般调整机柜摆设、优化气流管理的做法,纵使看似简单、也无需额外安装过多设备,但仍有施行上的阻碍,不知所指为何?答案揭晓,即是业主或机房管理者唯恐调整机柜摆设位置,因而导致一段时间必须停机,势将冲击IT应用服务的正常运行,因此宁可继续忍受高能耗、或再多花时间商讨对策,仍不倾向采取此一措施。

也有人认为,上述冷热通道之所以隔离,仅是利用机柜体积,控制了冷热循环的流动方向而已,并未把混风的路径给完全堵死,只因机房仍是一个对流空间,难保若干热空气不会藉由任何缝隙绕过机柜,再与冷空气混合;因此最好的方式便是「封闭」,冷通道封闭也可、通道封闭也行,总之才能彻底杜绝一丝一毫的冷热混风现象。

例如若干数据中心,一方面运用条状PVC塑胶垂帘以封闭冷通道,二方面则于机柜上方再利用压克力板加以隔绝,即是值得参考的冷通道封闭做法。此对于位在顶楼或西晒位置、不适合采行热通道封闭的机房,无疑相当适用。


关键字