摘要:如今,新机柜的功率密度却要比先前高出不少:每个机柜耗电28kW,而前一代机柜的功率密度则为24kW。而且每耗一瓦电就会产生相应的热量,还必须再想办法将这些热量从每个机柜——也就是从数据中心排走。 |
购买千瓦时
然而,指望客户们不仅知道他们需要托管多少设备,而且知道每个设备机柜需要多少功率,这可行吗?
“对于某些客户来说,这是很可行的,”Stewart说。事实上,Terremark就正在朝着响应客户需求的这个方向发展。“有很多客户到我们这儿来,都是带着最大千瓦时订单来的,然后让我们为他们提供最大的扩容空间,”他说。假如客户不知道每个机柜所需的功率是多少,那么Terremark就会按照给每个机柜供电的电力线条数向其销售电力。
IBM的Schmidt认为,功率密度的不断增长是可能的,不过数据中心冷却这些机柜的方法也需要加以改变。
以ILM在2005年完成的数据中心为例,当时的设计可支持每平方英尺200瓦的平均功率负载。这样的设计从总体来看,无论供电能力和冷却能力都是很充足的,但它却并不是冷却高密度机柜的有效方法。
ILM采用了一种热通道/冷通道设计,工程人员成功地调整了冷通道中带孔散热瓦的数量和摆放位置,优化了BladeCenter刀片密封机柜周围的气流。但是为了避免出现热点,室内空调系统就要把13500平方英尺的空间降温到奇冷的65华氏度(约18摄氏度)。
Clark知道这样的做法效率不高,因为今天的IT设备都是设计成可在81华氏度(约27摄氏度)下运转的,所以他得采用一种叫做冷通道控制的技术。
其他数据中心也在经历着这样的控制——地板上的高密度机柜的柜门会从前后两端封堵住冷热通道。热通道的围栏也可以沿着每行机柜的顶部安放,以防止冷热空气在天花板附近混合。在其他情形下,冷空气可以直接从机柜下部导入,向上推送到顶部,然后进入天花板上面的回气空间,形成一个封闭的环路系统,不与室内的空气相混合。
“热/冷通道的方法是传统方法,但却并不是最佳方法,”埃森哲数据中心技术与运营经理RockyBonecutter说。“现在的趋势就是采用冷通道控制技术。”
惠普的Gross估计,采用了此种技术的数据中心便可在装有空调系统的房间内支持每机柜约25kW的功率密度。“这需要仔细地隔离冷热空气,消除两种空气的混合现象,优化空气流动。这些技术正在成为常规的工程设计实践,”他说。
虽说按照现代化的标准重新设计数据中心有助于减少供电和冷却问题,但是最新的刀片服务器已经超出了每机柜25kW的上限。IT业花了5年时间不断地增加机柜密度、清出地板空间、优化空气流动。如今,这些技术已经成熟,可以获取能源效率的累累果实了。但是如果密度仍继续增加的话,那么冷通道控制就将是气冷系统的最后一根救命稻草了。