摘要:本文根据我国数据中心能耗现状,介绍了某一数据中心配置的台达InfraSuite空调系统和供电系统解决方案,并对数据中心能效进行分析,体现高效、节能设计目标。 |
随着IT技术的迅速发展以及企业数据业务需求不断增长的推动,数据中心进入了迅速发展时期。由于IT设备的低利用率和机房基础设施的低效率,致使数据中心的运营成本过快的增长、过高的耗电量和电费支出,使数据中心难堪重负。因此,建设新一代“高效、节能”的数据中心,是当前每个企业所追寻的目标,也是国家要求开展节能减排工作的重要内容。
2.数据中心能耗现状
现代数据中心能耗主要有三大部分:IT设备的能量消耗、制冷系统的能量消耗、供电系统的能量消耗,其能耗占比情况如图1所示。
图1 数据中心能耗构成
行业内广泛应用“能效比”评估数据中心是否节能,能效比包括PUE(Power Usage Effectiveness)和DCIE(Data Center Infrastructure Effectiveness)两个参数指标。
PUE=[TotalFacilityPower(数据中心总能耗)]/[ITEquipmentPower(IT设备总能耗)] (1)
DCIE=1/PUE=[ITEquipmentPower(IT设备总能耗)]/[TotalFacilityPower(数据中心总能耗)]*100% (2)
而数据中心总能耗=IT设备的能耗+制冷系统的能耗+供电系统的能耗,故PUE指标可分解为:
PUE=CLF[CoolingLoadFactor(制冷能效因子)]+PLF[PowerLoadFactor(供电能效因子)]+1 (3)
研究表明,目前我国各类数据中心的PUE值大多在(2.0-2.5)范围内,平均水平约为2.2。在数据中心的规划与设计时,往往IT设备的节能技术是无法掌控的,因此,重点放在降低制冷系统能耗和供电系统能耗。采用高效节能产品,降低能效比PUE值,达到最佳的节能效果。一个设计合理与运营良好的数据中心,能效比应小于1.6(风冷系统制冷方式),才能体现节能与减排目标。
3.制冷系统设计及能耗计算
3.1 数据中心精密空调配置
某一数据中心要求:使用面积为200m2,平均每个机柜功耗3kW。根据GB50174-2008中第4部分“机房位置及设备布置”的要求,按其“4.2信息机房的组成”中提出的机柜配置公式:(2)当电子信息设备尚未确定规格时,按式(4)计算:
A=FN (4)
式中:A-主机房使用面积(m2);F-单个机柜占地面积,3.5∽5.5(m2/台);N-主机房内机柜台数。
取F=4(m2/台),由式(4)计算得:N=A/F=200(m2)÷4(m2/台)=50(台)。
机房专用精密空调的设置满足GB50174-2008A级机房配置要求,采用N+1冗余运行方式配置,精密空调容量核算及配置(采用功率面积法)由式(5)计算。
Q=Q1+Q2(5)
式中:Q-总制冷量;
Q1-设备热负荷(等于设备功耗);
Q2-环境热负荷(Q2=K×S,K-系数,0.1∽0.2kW/m2;S-主机房面积m2)。
环境热负荷系数K取0.15kW/m2,则
Q1=50台×3kW/台=150(kW);
Q2=0.15kW/m2×200m2=30(kW);
Q=180(kW)。
配置台达HED36A0-60风冷式下送风精密空调4台,单台制冷量为61.3kW,采用3+1冗余方式运行。
3.2 制冷系统能耗计算
台达HED36A0-60精密空调主要耗电部件的耗电量统计见表1。
表1 HED36A0-60精密空调主要耗电部件的耗电量
采用HED系列风冷式下送风60kW精密空调制冷系统,总功耗由表1计算可得:
P空调=74.7kW。
制冷能效因子CLF=P空调/Q1=74.7/150=0.498。