机房360首页
当前位置:首页 » 业界动态 » 刘水旺:阿里巴巴绿色数据中心之路

刘水旺:阿里巴巴绿色数据中心之路

来源:机房360 作者:yoyo编辑 更新时间:2015-9-14 17:59:54

摘要:2015年9月10日-11日,由中国电子学会、开放计算项目(Open Compute Project,OCP)、美国劳伦斯伯克利国家实验室联合主办的“中美绿色数据中心研讨会暨中美开放计算标准交流会”在上海浦西万怡酒店隆重开幕。以下是嘉宾演讲实录。

  2015年9月10日-11日,由中国电子学会、开放计算项目(Open Compute Project,OCP)、美国劳伦斯伯克利国家实验室联合主办的“中美绿色数据中心研讨会暨中美开放计算标准交流会”在上海浦西万怡酒店隆重开幕。以下是嘉宾演讲实录。

  刘水旺:大家早上好,我是阿里巴巴刘水旺,在阿里巴巴负责数据中心和建设工作。我今天和大家分享的题目是阿里巴巴绿色数据中心之路。我这块儿主要讲的内容有三块,第一个阿里巴巴数据中心的特点;第二个阿里巴巴绿色数据中心的历程;我们这些年来在绿色数据中心方面做的事情。第三个阿里巴巴绿色数据中心新征程,也就是我们将来要做的和正准备要做的事情。

  首先,阿里巴巴数据中心的特点。数据中心为了业务而生,要支持业务,阿里业务包括现在像电商、云计算、大数据、兼容。当然还有其他一些等,对数据中心应用最多的应该是这几块。下面是我们现在的硬件设施,阿里已经完成了去IOE,现在我们基本上都是采用PC Server基本的网络设备,下面风水电等等。阿里已经具备数据中心运营和建设能力。

  阿里目前数据中心的特点,刚才看到我们的业务,阿里的业务主要电商、云计算、金融等等,数据中心处于T3到T4的级别,在数据中心可靠性和效率是矛盾体,可靠性要求越高,他的效率必然会降低,PUE也会盛高,TCO也是一样,可靠性提高TCO也相应提高 。举个例子来说,银行业数据中心,普遍接近T4,他要做比较低的PUE比较困难的,要做离线计算,这样数据企业的话,这样的业务,他的数据中心一般处于T2到T3的水平,他要做PUE相应容易一点的,阿里我们PUET3到T4,要做比较高的效率,相对来说比一般的互联网公司要更困难一些。

  二、讲完我们业务特点决定我们数据中心特点,下面讲一下阿里在绿色数据中心方面的实践。

  在很多年以前,我们当时刚刚才起步,当时畅想有水有电的地方,有清洁电的完美,当时考察甘肃、青海一带,希望用祁连山的雪水,还有黄河上游有17座水电站,有11万千瓦的清洁电,有风电场,当时能力比较小所以没有成功,但是上一年我们的同事说已经实现了这个目标。

  我们五年以前国内率先实现绿色数据中心,工信部拿到绿色数据中心4A的证书,当时我们在杭州的数据中心运行PuE1.07。当时拿到4A有4家,其他几家分别是中国电信在北京的数据中心,腾讯在天津的数据中心,百度在北京的数据中心。我们在杭州钱塘江畔,其他在黄河以北,大家知道数据中心节能的话,运行POC跟地理位置和气侯环境息息相关的。

  我们为什么能拿到4A,能做到1.17呢?其实分几块工作的,首先是供电这一块,大家现在可能看到,240伏直流,在国内应用非常广泛了,在互联网和运营商都在使用,但是240伏直流,最早用在数据中心是阿里巴巴来用的,杭州的东冠数据中心,当时开始的时候比较困难,服务器都不接受240伏直流,我们当时做240伏直流转12伏的计价式电源。当时大家都在做,但是也想到这个方案。我们东冠数据中信永市电直接供给服务器,做了计价式电源,用240伏直流作为后备,这样供电效率达到99%。制冷方面东冠数据中心做直接冷,冬季把室外空气抽到数据中心给数据中心降温,这是我们做的巨大的贡献。

  IT侧定制12伏服务器和12伏交换机,这个交换机端口密度更高,他88口,能耗跟48口一样的,实现节能40%左右。服务器采用定制12伏服务器,用插板和12伏计价式服务器直接相连。

  过去几年,我们也在不断探索和总结实践,上面是ALIRACK,是当时做12伏电源的传承,我们用集中式计价式的电源,用了集中式风扇,集中式电源可以提高电源的负载率,实现更高的效率,集中式的风扇,用比较少量大的风扇来取代服务器上面好几十个的小的风扇,来提高更高的效率。

  ODC按需制冷,我们用服务器功耗数据和服务器的机风口温度控制精密空调运转,一方面提高数据中心温度,另外我们让服务器进风口温度更恒定一些。下面一个是用50%的市电,和50%240伏直流,这个数据中心用的非常广泛,为了适用普通的Server两个电源模块,一个电源模块保证可靠性,市电成功率99%,直流93%到94%,系统效率达到96%到97%的效果。

  末端制冷我们开始使用内接入空调,还有机柜顶上的空调,类似于OCC的,这样可以简短气流循环的路径,减少空调风扇的功耗,我们对这一块整个冷热通道的隔离,然后这一块密封做了很多研究,更加适用我们的计价,我们的服务器网络设备等等。

  后面一个水自然冷,现在这个应该在阿里数据中心全部标配了,我们通过冬季和过渡季,通过冷却塔制冷而不是冷机。阿里数据中心对供水温度提高到15度以上。

  接下来分享一点干货,先讲湖水系统,当地政府在千岛湖有一个新开发区,建了景观河,他要到千岛湖抽水打了隧道,打好了之后我们跟他们商量,我们借用你中间水的冷量,给我数据中心冷却之后,再排到你景观河里去,大概有三公里的景观河,整个项目从这里产生。

  我们抽取了湖水,湖水直接到我们中间的蓄水池,蓄水池再抽到数据中心直接到精密空调,给数据中心降温,我们当时做过一个调研,包括水质,我们做了一年的检测,整个水位和水量我们大概做了前面20年的数据,当时按照数据基本上水质和水量一直支持我们用湖水制冷,但是在国内我们也考虑百年一遇的事情经常发生,所以我们把所有冷机都配上,我们制冷系统实现2N+1的系统,制冷系统达到超过T4了,这两套系统可以任何一个单独运行,也可以两套并联起来同时运行的。

  在湖水之后,我们利用排水的高差做水力发电,把能利用的能源尽量都利用起来,所以在这数据中心我们做了水力发电。下面ODC千岛湖数据中心每个模块都使用了,刚才已经讲过了,在这边我们用了太阳能,我们太阳能不是供建筑和其他的负荷,我们直接供服务器和交换机的,我们直接与220伏的直流系统并联,发出来的电比直流系统电压稍微高一点点,这样保证多电源供应器优先使用太阳能,把太阳能电直接给服务器和交换机。ALIRACK刚才讲过一些,待会儿我同事会分享。

  新风自然冷,我们类似于Facebook的,千岛湖是风景名胜区,空气质量可以的,所以我们用新风自然冷。办公区有一部分数据中心用热通道密封,专门用来给我们办公区和监控室做余热回收的,用热交换器,实现余热回收,给办公中心采暖使用。整个设计登记达到Tier4,设计PUE整个系统1.28,负载率15到20%的时候,我们实现1.27的PUE,运行已经超过4个月。

  三、我们讲要做的一些事情。从做数据中心来看,我们要做绿色节能一定要跟IT捆绑在一起,我们分别从制冷和供电来看,制冷方面,我们认为未来的目标是不需要制冷机,不需要机械制冷,我们考虑直接用冷却塔,水泵和末端风机为风机散热,这样势必有一定的问题,需要一定的地理环境,或者服务器进风温度要提升,当然这个要找到平衡点,怎么样的进风温度,是实现最低的能耗和成本,我们现在已经建了一个实验模块,我们是没有冷机的,完全用冷却塔,水泵直接来循环,为服务器散热,全年度的。

  在高功率这一块,我们认为未来肯定是一个发展的趋势,就像十年前一样,大家认为三千瓦和五千瓦已经算高功率的密度了,但是现在可能8千瓦10千瓦已经非常普遍,再往那边功率力度越来越高,空气制冷会遇到瓶颈,考虑液冷,阿里和国外一家分别做液冷试点,当然用纯水冷却油来做。

  在电的方面,我们认为电和IT应该要结合起来,我们的目标是不再用UPS,当然,市电直供必须的,但是未必大家能做到,要达到一定的可靠性,供电达到5个9,6个9,我们要做市电直供要增加可靠性,要让他应用更广。不用UPS势必有蓄能的问题,就是电池的问题,我们考虑电池分散核计价,或者分散到IT系统里面去。

  张北大家可能大家都知道,现在阿里建设张北数据中心,张北当地年均气温大概只有3.7摄氏度,这为我们来做低PUE五的数据中心创造非常好的条件,图上可以看到蓝天白云,后面是巨大的风电厂,张北这样风电场非常多,装机容量228万千瓦,太阳能光复开发总规模883万千瓦,中国是著名的“风中之都”,他们本身没有什么需要用电的,他们电都要输出来,窝电非常严重,太阳能有时候发出来电不输出来的,因为上网上不了,当地竞争比较激烈一些,还有火电或者其他的,所以造成很大能源浪费。阿里在张北规划了3个200亩的园区,现在第一期已经有两个园区在建设,已经动工了,预计明年上半年第一期两个应该都能交付出来。

  另外一个图工字状的建筑,中间是电力设施,边上是IT设施。做过很多数据中心的应该了解,如果用这个肯定用到风的自然冷。

  下面一个园区是类似九宫格,中间也是一些动力设施,边上是发电机和数据中心模块。在这儿想实现的不仅仅是低的PUE,我们希望100%的清洁能源,全部风电和太阳能电,张北的PUE,到明年大家应该看得到。

  我介绍就到这儿,谢谢大家!

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/20151126/n364175097.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片