机房节能未达止境 降低PUE仍待努力 智能应用 影音
Microchip
ST Microsite

机房节能未达止境 降低PUE仍待努力

  • DIGITIMES企划

采取服务器虚拟化及整并,固然是降低PUE、打造绿色机房的重要步骤,但数据中心节能大计,绝不仅止于此单一措施。来源:liquidtechnology.net
采取服务器虚拟化及整并,固然是降低PUE、打造绿色机房的重要步骤,但数据中心节能大计,绝不仅止于此单一措施。来源:liquidtechnology.net

今时今日,不论已开发或开发国内家,都无可避免面临气候变迁的严峻考验,为了克服随之而来的自然、生态、经济、社会、健康等诸多挑战,也让节能减碳成为至高无上的显学;在此前提下,机房管理的先决任务,就在于节能!

根据美国能源部的数据显示,数据中心(Data Center)的能耗,为同等面积办公室的100倍之多。单就台湾而论,根据经济部能源局所发布的「非生产性质行业能源查核年报」,电信机房的单位面积年用电量密度,始终高悬各大应用场域的第一位,动辄达到900度?平方米之上,超越量贩店或百货公司约300度?平方米甚多。

事实上,经由电信或IT机房所产生的全球二氧化碳排放量,现已冲高至8.6亿顿以上,而伴随科技应用日新月异,全球各国对于运算、数据储存、网络通信的需求仍持续攀升,尽管有识之士已意识到此一问题的严重性,近几年来致力提高IT设备、机房基础设施,乃至数据中心的能源使用效率,但预估至2020年时,全球IT相关碳排放量仍将达15.4亿吨,几乎较当前水准翻了一倍。

因此,绿色数据中心已成为众所瞩目的热门议题,以此为主题的研讨会场次,近几年来明显激增,且不论议程或讲师安排重叠与否,场场都犹如吸票机,吸引广大IT从业人员聆听取经。

说到这里,难免有企业或机构备感委屈,直言其并非漠视节能减碳的重要性,也深知一昧放任用电量的增长,亦将导致营运成本飙高,简直百害而无一利。

但不可否认,数据中心乃是企业营运的命脉,随着使用者人数增多、应用服务型态趋于复杂,再加上数据量不断增,分分秒秒都得仰赖数据中心之恒常运作,因此盱衡企业营运发展的永续性、机房能耗的节约,自认已权衡轻重采取必要措施,大举采用高密度服务器、甚至虚拟主机,冀望冲高每瓦运算效能,藉以抑制机房能耗的飙升。

但企业或机构对于机房节能的努力,若仅止于上述举措,而罔顾其余更应关切的面向,那麽无异是杯水车薪、于事无补。当企业致力提高每瓦运算效能,反倒可能见猎心喜,因而在相同机房或机柜空间之内,部署更多服务器,导致机房整体的电力及空调使用需求攀升,使得用电量不减反增,亦可能将基础设备推向承载负荷的饱和点,危及现有IT设备的稳定性,更缩限了随业务成长部署新设备的空间。

为何追求运算密度、每瓦效能的提升,未必能使机房能耗同步降低?如果仔细检视能源使用效率(Power Usage Effectiveness;PUE)、数据中心基础效率(Data Center Infrastructure Efficiency;DCiE)等指标的内涵,理应不难参透个中玄机。

所谓PUE,乃是经由Green Grid提出、并为ASHRAE证明过的实用性指标,其计算公式为「机房总耗电量」除以「IT设备总耗电量」;此处所指的IT设备,不仅含括了运算、储存、网络通讯等主要应用领域,也一并涵盖KVM切换器等辅助设备。至于DCiE,基本上就是PUE倒数,两者可谓殊途同归,此处则不再对此细究。

至于机房总耗电量,理所当然囊括上述一干IT设备的能耗,除此之外,举凡不断电系统(UPS)、发电机、电动阀、开关、蓄电池等电力相关设备(连同配电损失),诸如冰水机组、水泵、直膨箱型冷气机CRAC、风机、冷却水塔等攸关冷却的相关设备,乃至于机房内部的照明,这些琳琅满目装置所产生的功耗,全都得算在机房总耗电量之列。

教育部过去初步量测部分国立学校机房的PUE平均值,大抵落在2.99水准,若以此为论述基准,则意谓1台需要耗电500W的服务器,伴随其持续运转,则前述众多基础设施就得它消耗近995W电力,如果某机房内有20台服务器,那麽总耗电量即为29.9kW。

承前例,用户若决定采行高密度服务器与虚拟主机,假设可使单台服务器平均功耗需求降至350W,看似大减了3成能耗,但也代表原有的机房或机柜空间内,也会增加配置更多主机,好让用户更有效支应业务推展需求,纵使用户以不增现有基础设施容量为前提,将服务器数量小增至28台,则此部分的总耗电量为9.8kW,连带迫使基础设施消耗19.51kW电力,此时粗估机房总耗电量为29.3kW,与上述数值相较,可说原地踏步。

由此可见,降至运算系统的单位能耗,固然是迈向机房节能的必要起点,但若未同步施展更多必要措施,还任由其他诸多「不节能」因子持续存在,那麽PUE并不会随之下滑,耗电情况也一如往常。

按照Green Grid所颁布的标准,PUE小于1.25即是「白金级」,介于1.25?1.43是「黄金级」,介于1.43?1.67是「银级」,介于1.67?2是「铜级」,介于2?2.5只能算是「一般」,超过2.5就判定为「不节能」;如果用户的机房PUE达到2.99水准,象徵其能源使用效率严重不及格,亟需改善的环节所在多有,怎可能自以为是地冀望透过屈屈的有限作为,即能换取可观的节能成效?

IT设备虚拟化与整并  仅是节能第一步

根据经济部能源局所发布的「电信网络机房节能应用技术手册」,台湾信息机房PUE平均实际量测结果约为1.9以上,若取其中采用300吨以上之中央空调冰水主机系统信息机房,虽然还未到LEED的基本申请门槛(PUE值1.52以下),但至少不像前述2.99数值如此骇人听闻,不过无论如何,一定有其改善空间。

PUE数值之所以会居高不下,在电信网络机房节能应用技术手册之中,也归纳了多项常见因素。首先是IT设备无节能管理、无虚拟化与整并技术,造成负载常定之高耗能现象;第二是回风设计主要采无风管之直接回风,造成气流短循环,气流无法有效率地冷却机柜;第三是回风口与出风口太接近,造成气流短循环,气流无法有效率地冷却机柜。

第四是无冷热通道之设计及短循环之回风,造成机房温度场混乱,以致于造成空调箱之温控传感点不易设置,空调箱及冰机控制失序,频繁切换,并导致系统不稳定运转及容易故障之风险;第五是冰机超量设计之现象,冰水进出口温差小,起停频繁;第六是使用湿盘管及低温冰水,造成除湿过度及再加湿之能源浪费。

第七是冰水主机老旧及过大设计造成低效率运转;第八是配线系统杂乱造成气流受阻、系统更新不易;第九是不适当之高架地板开口造成气流分配不均匀、气流泄漏严重;第十是UPS及配电系统过大设计,造成电力系统低负载、低效率之运转。

当然,可能导致PUE高档盘旋的潜在原因,容或不仅止于前述10项,但这10个常见现象,一旦不加以解决,确实会让该信息机房与「绿色」二字相距甚远,如何缩短其间差异、进而朝向Green Grid所定义的银级、黄金级甚或白金级前进?

企业机构所需做足的基本功课,着实还有不少;最起码,本文描述有企业采用高密度服务器或虚拟主机,充其量只解决了10大难题当中的第一项,剩下的9项事,亦应通盘详加检视、谋求因应改善之道。