机房360首页
当前位置:首页 » 案例 » 案例研究:Oracle数据中心

案例研究:Oracle数据中心

来源:机房360 作者:沈添鸿、杨国荣、陈亮、陈巍 更新时间:2010-10-2 13:54:10

摘要:本文为您展示高密度数据中心案例研究与最佳实践之Oracle数据中心案例解析。

  本案例研究强调了在数据中心地板上送冷风和热回风之间设立实际屏障的重要性。当机架功率较低——每台机架功率一般小于4kw时,数据中心内传统的热通道/冷通道机架配置会工作得很好。然而,随着机架负荷的增加,过量的冷空气必须输送给冷通道以减少近机架顶部、导致热空气扩散进入冷通道的热点。过量冷空气中的大部分也旁通了电子设备,回到了空调机组。这种情况能效低,它增加了风机用能,需要更多的能量来制取冷空气。数据中心内热气流和冷气流之间需有实际屏障以避免冷空气与热空气混合。在大型数据中心的高功率密度区域采用并实施了一种新方法,将机架内的冷、热气流进行实质性隔离。此项选择基于能量以及其他实践考虑。该案例研究讨论了高密度机架热空气抑制的方案——其设计基本原理、优势及局限性——并提供用能特性数据。
  
  在此报道一个大型企业级数据中心内高功率密度区的现场性能。该数据中心分期建造。第一期的数据中心采用了当时最先进的热通道/冷通道机架布置。冷水型计算机房空调机组位于机架通道的两端,向架空地板下输送冷风。送风通过设备机架前的穿孔地板块进入冷通道;来自设备机架的热空气排向热通道,再通过热通道回到计算机房空调机组。现场观察证实,进入近机架顶部的设备的送风温度升高了,这是因为热通道的排风被吸回冷通道的缘故。同时也注意到,一些冷空气并未通过电子设备,而是在没有提供冷却的,情况下直接回到了计算机房空调机组。进一步审视计算机房空调机组的总风量数据与电子设备冷却所需的总风量数据,表明计算机房空调机组的风量比所需风量大得多。
  
  该数据中心的设计与运行团队决定在2003年数据中心第二期扩展的设计与建造期间处理上述问题。扩展部分有12000ft²(1115m²)高功率密度区域,区域内布置640个机架,每个机架平均功率为6.8kW,区域平均功率密度为170W/ft²(1830W/m²)。团队决定通过减小数据中心不必要的风量,提高供冷能效。如提供与电子设备所需风量相匹配的足量冷风,则风量将减少到小于既有系统风量的一半。为了调整随安装新设备或搬走老设备而变化的电子设备风量需求,决定在计算机房空调机组上安装变速驱动装置。然而,CFD模拟表明,减小风量会增加热空气渗入冷通道的风险,导致送风温度升高,尤其在近机架顶部处和通道端头的机架处。较高的通道温度,反过来需要更低的送风温度,从而抵消了从风量减小获得的部分能效。于是,团队决定在数据中心楼板上设置热空气与冷空气之间的实际屏障以防止两者混合。这也使我们可提高送风温度,不用担心因无实际分隔导致热空气渗入冷通道,使机架顶部附近达到不可接受的高温。团队考虑了热空气和冷空气之间屏障的不同布置,例如有封锁冷通道和封锁热通道,但最后选用了封围机架方案,并配有接到吊平顶回风静压箱的排风管。
  
  根据不到六个月测试的简单反馈,该系统工作得非常好,提供了极好的节能效果。计算机房空调机组风机转速可调以满足设备负荷需求。数据中心内的设备在一段时间内逐渐加载的事实,说明风机可更低速地运行,减少了直接用能和排除风机产生的热量所需的间接冷却用能。
  
  系统采用架空可检视地板送风,热空气通过机架排风管,进入吊平顶回风静压箱。排风管内的辅助风扇有助克服附加的压力损失。该数据中心平面分成5个区域,每个区域的面积为2400ft2(233m2)。为了该项研究,对这5个2400ft2(233m2)中一个区域,收集和分析了环境特性——机架功率、地板块风量、IT设备风量、IT设备人口和排风温度。对另外4个2400ft2(233m2)区域,进行了现场测量,以补充第一个区域记录的数据。
  
  责任编辑:Honey

本文地址:http://www.jifang360.com/news/2010102/n182410792.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片