摘要:本文为您展示高密度数据中心案例研究与最佳实践之Oracle数据中心案例解析。 |
在此报道一个大型企业级数据中心内高功率密度区的现场性能。该数据中心分期建造。第一期的数据中心采用了当时最先进的热通道/冷通道机架布置。冷水型计算机房空调机组位于机架通道的两端,向架空地板下输送冷风。送风通过设备机架前的穿孔地板块进入冷通道;来自设备机架的热空气排向热通道,再通过热通道回到计算机房空调机组。现场观察证实,进入近机架顶部的设备的送风温度升高了,这是因为热通道的排风被吸回冷通道的缘故。同时也注意到,一些冷空气并未通过电子设备,而是在没有提供冷却的,情况下直接回到了计算机房空调机组。进一步审视计算机房空调机组的总风量数据与电子设备冷却所需的总风量数据,表明计算机房空调机组的风量比所需风量大得多。
该数据中心的设计与运行团队决定在2003年数据中心第二期扩展的设计与建造期间处理上述问题。扩展部分有12000ft²(1115m²)高功率密度区域,区域内布置640个机架,每个机架平均功率为6.8kW,区域平均功率密度为170W/ft²(1830W/m²)。团队决定通过减小数据中心不必要的风量,提高供冷能效。如提供与电子设备所需风量相匹配的足量冷风,则风量将减少到小于既有系统风量的一半。为了调整随安装新设备或搬走老设备而变化的电子设备风量需求,决定在计算机房空调机组上安装变速驱动装置。然而,CFD模拟表明,减小风量会增加热空气渗入冷通道的风险,导致送风温度升高,尤其在近机架顶部处和通道端头的机架处。较高的通道温度,反过来需要更低的送风温度,从而抵消了从风量减小获得的部分能效。于是,团队决定在数据中心楼板上设置热空气与冷空气之间的实际屏障以防止两者混合。这也使我们可提高送风温度,不用担心因无实际分隔导致热空气渗入冷通道,使机架顶部附近达到不可接受的高温。团队考虑了热空气和冷空气之间屏障的不同布置,例如有封锁冷通道和封锁热通道,但最后选用了封围机架方案,并配有接到吊平顶回风静压箱的排风管。
根据不到六个月测试的简单反馈,该系统工作得非常好,提供了极好的节能效果。计算机房空调机组风机转速可调以满足设备负荷需求。数据中心内的设备在一段时间内逐渐加载的事实,说明风机可更低速地运行,减少了直接用能和排除风机产生的热量所需的间接冷却用能。
系统采用架空可检视地板送风,热空气通过机架排风管,进入吊平顶回风静压箱。排风管内的辅助风扇有助克服附加的压力损失。该数据中心平面分成5个区域,每个区域的面积为2400ft2(233m2)。为了该项研究,对这5个2400ft2(233m2)中一个区域,收集和分析了环境特性——机架功率、地板块风量、IT设备风量、IT设备人口和排风温度。对另外4个2400ft2(233m2)区域,进行了现场测量,以补充第一个区域记录的数据。
责任编辑:Honey