机房360首页
当前位置:首页 » 节能 » 数据中心基础设施规划设计与节能效益

数据中心基础设施规划设计与节能效益

来源:机房360 作者:王 晶 更新时间:2014-4-9 14:02:53

摘要:文中概述了数据中心规划设计内容的六大系统以及基础设施方面的设计流程,重点通过某国外数据中心建设案例分析了其在建筑、电气、能源、空间4个方面的节能方案以及由此带来的经济效益。另外,通过建立一个工程模型,详细对比分析了采用4种不同的冷却系统建设方案在1~10年产生的不同总运维成本,并且还简要地分析了一些其它节能因素以及由此带来的经济效益。


  当今,在计算机芯片能力提升的同时,计算机机房内的热密度也在增加。如果没有新的冷却技术,机房空间将渐渐被传统冷却设备占据。Broomfield所采用的高热密度空调系统就是针对机房局部热点而设计的空调系统,该空调不占用地板空间,局部风循环,最大应对单机柜30kW的发热量。传统的机房冷通道/热通道隔离、地板下送风方式不能满足单机柜高功率(如20kW以上)的情况,因此,采用有效的局部冷却系统可以解决这类问题。Broomfield所采用的模块化尝试有针对性的逐一解决热点,这样的系统具有可扩展性和灵活性,便于应对机房内新增高密度机架的情况。

  节能分析:

  ①建筑成本:在原有的机房冷却模式中,架空地板承担了空调送风静压箱以及各种线缆、管道铺设空间的作用,由于Broomfield机房采用了针对机架的冷却形式。一方面,Broomfield用石板代替了架空地板,使去除架空地板成为可能;另一方面,使得机房对隔断的保温要求不高,因此,Broomfield用透明塑料板替代了玻璃隔断。采用以上两种方式节省了四百万美元的建筑成本。

  ②电力成本:使用自然冷却方式、机架式冷却方式、节能型冷水机组节省了大量的电力成本。SUN公司表示每月减少1百万度的电力消耗。

  ③能源成本:一方面,Broomfield使用无蓄电池组的飞轮UPS替代了普通UPS,这不但节省了蓄电池组的前期购置成本和后期维护成本,最重要的是减少了铅和酸的污染;另一方面,Broomfield在全年三分之一以上的时间都能够采用自然冷却方式。

  ④空间成本:由于采用机架式冷却方式,节省了放置机房专用空调的空间;由于采用飞轮UPS,节省了放置蓄电池组的空间。这两部分都是机房建设时占据较大的空间。

  (2)其它案例简要分析

  数据中心节能的层面很多,例如:HP的融合基础设施方案已经可以解决从机房温度控制到CPU节能等多个层面,并实现了它们之间的相互融合,使能耗达到一个最佳的状态。同样,Intel公司也在全力研制节能型芯片,在芯片的不工作期间,通过其自身的休眠技术达到节能的目的。Google最大的数据中心花费约为6亿美元,建在俄勒冈州的达拉斯,该地有一个水坝,可以建设大型冷却塔和水坝发电厂,选择建在达拉斯的主要原因是降低输电和冷却成本用来解决数据中心超大的电力、冷却需求。Microsoft最大的数据中心位于芝加哥,它采用了集装箱冷却方案,每个集装箱都放置了1800至2500台服务器,通过模块化的方式来解决散热问题。

  3.2 模型模拟与效益分析

  (1)工程模型建立及模型条件

  现以一个虚拟数据中心建立工程模型,逐一分析数据中心的节能因素和取得的经济效益。模型条件如下:

  ①该机房建在北京地区,机房净区面积为5000m2,计算机等设备功率为2500kW,25kW/机架,全部计算机均为风冷冷却,由此,可以计算出机房所需的冷负荷量:


  

  ②建设数据中心冷却系统主要分为“冷热通道冷却方式”和“单机架冷却方式”,这两种冷却方式所采用的终端空调设备均可采用“风冷”和“水冷”两种机组形式。本模型中采用冷热通道冷却方式下,若配置风冷式机房专用空调,则需40台(35用5备,备份约占主用的1/7)机组,单台制冷量100kW;若配置冷冻水式机房专用空调,则需29台(25用4备),单台制冷量140kW。本模型中采用机架式冷却方式,若配置风冷式空调,则需31台(27用4备),单台制冷量130kW;若配置冷冻水式空调,则需29台(25用4备),单台冷量140kW。本模型中对于冷冻水式空调系统,还必须配置6台800kW冷水机组(含备份)为冷冻水式空调提供冷源。

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/201449/n158757805.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片