机房360首页
当前位置:首页 » 专家谈数据中心 » 捷联集团姚赟:数据中心节能与制冷

捷联集团姚赟:数据中心节能与制冷

来源:机房360 作者:小柯 更新时间:2011/7/23 10:59:15

摘要:绿色数据中心对于企业用户乃至全社会的节能减排都具有重要的意义,北京捷联集团公司摇执行董事姚赟先生就如何实现绿色高能效数据中心问题发表了精彩演讲。

  7月22日,倍受数据中心业内人士好评的“云时代数据中心建设与高校运营高峰论坛”在北京新世纪日航饭店隆重举行。

绿色数据中心对于企业用户乃至全社会的节能减排都具有重要的意义,北京捷联集团公司摇执行董事姚赟先生就如何实现绿色高能效数据中心问题发表了精彩演讲。


   以下是演讲实录:
  
非常感谢有这么好的机会和大家分享云计算和云后台的节能方面的理念。

我们这个公司去年被欧洲的一家公司成为我们最大的股东,拿走50%多的股份。我们这个公司一直致力于数据中心的建设,尤其作一些节能的规划和咨询工作。本人有担任了企业的数据中心的顾问。

今天主要说说如何构建一个云后代,这个云后代必须是节能加环保。

今天主要说和北方地区北京比较适合的可能追求的理念都在1.5PUE能做一些什么事情。

现在数据中心虽然干了二十年,我都赶不上这个变化。我去了欧洲,回来也觉得赶不上。我接受了一个项目,60万平米的数据中心,在欧洲也没有,都赶不上。去年在武汉做了一个6.5万的,觉得很自豪,跑到北京60万,前一阵还跑到青岛,那一个是4万多。

中国去年一年的数据中心的总共是52万平米,一个数据中心替代了中国去年一年的数据中心,速度非常快,他的目的是吃下所有以前几万个数据中心,认为未来的十年以后,可能就没有各大单位搞数据中心,全部进云计算、云平台,大家都来这里租、共享服务。基于这个理念,来谈谈如何去构件这样一个动态的数据中心,为什么要加一个动态,最大的动态所谓做数据中心,做得在好,60万,规划100万,没有一家说马上上的,这是一个计划。所有的企业都是从小到大的,可能今年1万,明年5万,不可能一下60万都建完。

所以一直强调动态,所有设计的管路、软通、后备电源等等都要符合:第一动态可以增长的,不具备一次性到位的投资和市场,必须有余量的在线扩容性。不仅是在线,不能停止原有设备基础上,可以做到在线增长。

这是公司的介绍,就不多说了。去年产值20亿在中国,也做了一些小小的成绩。

前面说了现在欧洲也好,美国也好,数据中心两个理念,一个是搞集装箱,一个是搞模块化。确实成为数据中心将来的一个理念,数据中心的集装箱搞了很久了,这个技术不是现在的,我在93年和中国移动做了二十多个集装箱,但是功率很小,做到90多千瓦的功耗,但现在的集装箱在欧洲做的,里面可以放20个服务器机架,每一个机架幅度20千瓦,加起来400个千瓦的总功耗。

难题是密度很高,气流组织不好做,这么小的集装箱里,400千瓦的热负荷时,要求的风量和换气,热瞬间移到集装箱外面的转移能力要求很高。目前看来欧洲在前年热门过,由于是惠普、IBM买了一批,但是现在这拨热潮往下走。

这是欧洲的两个概念,模块化动态IDC效果图,集装箱IDC效果图。

动态的数据中心,哪怕我的规模是10万平米,分第一期、第二期,中间也是智能电站的概念。把空调也放在屋顶,我总结了一下,333,比如一千平米的数据中心,一个数据中心300平米是走廊,大厅,辅助用房,真正三分之一放了IT。

数据中心最耗电的是两个,只要抓住这几块,就可以做下。一个是配电,一个是空调,还有一个是照明。照明大家也看到了,我去看过德国一家有名的公司,他的照明全部是环保的,LED的照明,那里需要照按着灯就过去了。我们到一个数据中心,一开灯就全亮了。

配电、软通,PUE为什么做到1.5,空调占了38%的耗电,这个数据怎么来?能耗比是一个千瓦能产生2.6至2.8热,需要一千千瓦的服务器的话,电也就是1千瓦的热,占的比例很高。现在的能耗做到最高的,自然冷却就是零,最高能效做到2.8。

说配电上有什么方法,传统的就是,计算机类符合为1kw时,为计算机负载提供供电的系统在输出功率1KW条件。这是传统的模拟图。

我们这种配电方案的好处,用起来最大的好处,维修很简单,不需要维修力量,都是插槽的。

针对这种有几个国外的方案,成本的问题是制约市场发展很重要的原因。这是不同的接线方式,由于时间关系就不多介绍了。

中国电信、中国联通在去年发文,要求将来从节能和可靠性角度出发,要求全部都改成高压直流,以及模块机取代现有的传统UBS,去年三月份已经发了,中国电信给了我们七个省份做试点,所有的数据中心全部改成这样的模块机。

现在流行了取代电池,又退出了磁悬浮飞轮电源结构。功耗特别低,好处是二十年的寿命,原来电池只有三四年,这是四五倍,但是成本不低。欧洲卖要十几万欧元,差不多七八十万人民币的机器,买一套电池可能是20万。

空调,普通的机房空调就不说了。我想着重说几点:云后台,我是做大集中,所有的云后台衡量的标准在欧洲要低于200平米的数据中心,一定是用水系统或自然冷却的方式做节能。

这是传统的开放式的数据中心,我们现在在欧洲主要推的组合式封闭式冷通道设计。

三种模式:组合式,在这样的一套组合系统里,我可以把空调、机架式的UPS,直接放在服务器边上组成一个独立的系统封闭起来,我们叫拼装式,就可以做成这个系统,直接到现场搭,把服务器搭好,做完封闭,250个机架放模块,外观、尺寸完全和服务器是一样的。空调也是,组成一个快速的组装式的整体配套方案。

我们就会地板底下回风、回水装上一些探头,控制压缩机的卸载,泵的电听,风机的转速,可以做到完全的动态自动化管理。

绿色数据中心,原来的国标是22度,现在是24度,希望努力做到27度。

应该来说数据中心传统的机架式的正常运行温度可以到28、29度。这种情况下,数据中心的水温可以提高一些。原来印象中三年前水温设计7至12度,现在所有的设计是12至18度。

室内温度现在基本在24度来做,最后想推动27度。

对高密度的解决,不想在设计之初做高密度的方案,所谓的高密度,IDC云后代只有两个做法,一个是强制地板下加纸,或做调研,或冰块。我们装上一个冷却门,所有的机房空调是这么设计的,不需要改动任何设计和机房,高密度呼吁装上冷却背板就可以实现。

我们认为未来的数据中心节能之道,PUE要做到1.5至1.6之间,专用中央空调加室内冷冻水机房空调。

这个系统很简单,可以直接放到把一体机放到屋顶,出来冷冻水,通过机器散发。

这种水系统,只有两种系统,一种是带普通的需要水塔配制的,需要专门机房放置的,还有一体机,占地很小,不占机房,放在屋顶、花园都可以。

欧洲的数据中心用那几个技术来做绿色?从前年开始,我们认为将来可能会最好的技术,近三年还没有看到更好的,就是磁悬浮的空调,能效比相当高,能达到9.58,做水塔,扣去泵的,可以做到9点多。原理是压缩机是一套磁悬浮的电路。

这个机器很好,我们去年做武汉的一家,6500平米的数据中心,单体建筑最大的数据中心,想拿白银证,武汉没法做自然冷却,反复认证,最后推荐了磁悬浮的机器,能效大概在1.52左右。单个空调的能耗比降得特别多。这个机器都是用满液式的。欧洲议会大厦、英国的一些银行都在用。

自然冷却,我们现在只要在北方地区,我们认为象比较好的,吉林、黑龙江、北京、青岛,我们认为都比较适合做自然冷却技术。北京自然冷却的时间,平时夏天工作是由压缩机工作,春天部分压缩机工作,冬天压缩机不工作了。完全无压缩机功耗部分,仅有少量风扇电耗。

我们在实际互联,北京市计算中心,国防大学的一些数据中心在用。

传统的冷水机组加水冷自由冷却换热器加冷冻水性机房空调,是国内比较常规用的,但是运维比较麻烦。

机房每年会消耗大量的热,都排在水塔。机房产生大量的热通过机房排出去,我们可以通过水把热转到室内,可以做暖气、洗澡、游泳池。制冷的同时,回收的热是免费的。可以用热水补贴冷的支出。微软在法兰克福做了一个数据中心,相对来说整体的PUE很高,这种机器的制冷的能效比在5左右,制冷的能效比在3.8左右,综合冷热一起是8点多。

这是一种实例,这里是数据中心在用,饭店、居民楼就可以采用了。

热电联供,在欧洲推,中国还没有推。

这是我们在挪威和丹麦喜欢做湖水和海水,把海水打到泵站,给机房制冷,唯一的要求要防腐。利用海水的潮流,底下的暗流和上面的暗流同步,不会发生冷热的交换。

我们现在在中国新开的业务,老机房改造,改造之后电费的电价差价享受八年,设备就送给你们了。

时间到了,就不多说了,感谢大家!

责任编辑:kelly

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2011723/n821925515.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片