机房360首页
当前位置:首页 » 业界动态 » 林湧双:变革--为IDC抹以极致绿色

林湧双:变革--为IDC抹以极致绿色

来源:机房360 作者:yoyo编辑 更新时间:2015-9-14 17:59:54

摘要:2015年9月10日-11日,由中国电子学会、开放计算项目(Open Compute Project,OCP)、美国劳伦斯伯克利国家实验室联合主办的“中美绿色数据中心研讨会暨中美开放计算标准交流会”在上海浦西万怡酒店隆重开幕。以下是嘉宾演讲实录。

  2015年9月10日-11日,由中国电子学会、开放计算项目(Open Compute Project,OCP)、美国劳伦斯伯克利国家实验室联合主办的“中美绿色数据中心研讨会暨中美开放计算标准交流会”在上海浦西万怡酒店隆重开幕。以下是嘉宾演讲实录。

  林湧双:各位嘉宾,非常高兴来到这里,我的报告分成三个部分,第一部分是演变,据统计,2014年我国IDC年耗电量超过了800亿度,占整个市费用电量1.5,相当于燃烧了3千万吨标准煤,排放超过8千万吨二氧化碳,这是一个典型的一个耗能大户,随着互联网产业高速发展,这个问题将会越来越严重,节能减排形式是十分严峻的。同时,传统IDC在运营过程当中投资大,运营成本高,机房利用率低的几个方面,已经成为IT产业置业的瓶颈。

  我们通过饼图分析可以看到,目前IDC的能耗比例,制冷系统和供电系统占的比例分别40%和15%,IDC节能里面的重点,今天早上有一些专家在演讲当中对服务器设计包括其他方面,服务器本身功耗也做了一些节能方面的技术的建议,这些也是可以去降低的。

  从这个分析来看,数据中心制冷和供电是处于IDC高能耗的两个关键的因素,如何建立一个导热通道,另外如何减少供电过程当中损耗。业界方面对于IDC研究方面也在研究,今天早上各位专家也在这方面提出了方案和技术。比如说在机房设计方面,采用模块式的机房,行级空调,采用热管背板,达到清洁、送风等功能。还有供电这一块,采用飞轮技术,在过去研究过程当中也有这个观点,现在主流还是采用市电直供,高压直流作为备用的供电模式,今天早上各位专家讲的比较多了,目前由于一定规模的应用,我们从这个分析来看,我们做IDC节能重点解决两个部分。

  第一个如何去建立一个导入通道,让他的热阻比较低,还有另外一个减少供电过程当中的损耗,这成为我们研究的主要的内容,通过上面的分析,我们看到,我们在2012年的时候,我们提出了去空调,去UPS的技术方案理念,现在去UPS基本上已经达成了,去空调恐怕比较难一点,具体怎么做?我们也围绕这方面来做一些研究。达到去空调的时候,实际上最关键的是,如何建立一个高效能的低热阻的散热通道?

  近三年来,我们南方基地还有联合了业界里森林、新创意、华为、曙光、浪潮等这些厂家进行联合创新,对这个问题进行研究。在“去空调”方面,我们通过采用接触式的芯片级的,接触式的制冷通道,以自然换热的方式带走服务器主要的发热两。第二块去UPS目前来说技术也算比较成熟我不多讲了。

  第二部分是聚变,我们这个项目启动在2012年开始,研究过程分成三步骤,1、关键技术的突破;2、系统继承试验;3、试商用。我们现在也希望达成试商用,预计明年2月份成完成这个系统的建设,并且投产运营,我们的目标就是通过这个式样形成技术标准化和产品化的创新研发成果。我们整个项目的研究过程当中,主要从服务器、制冷系统、供电系统三方面入手进行探讨,第一个是服务器方面的变化。

  今天早上专家在演讲过程当中,很多提到了进风温度和出风温度的问题,实际上我个人认为,这个提问有一点片面,为什么呢?我们数据中心所要带走的不是温度,是要通过带走热量来控制温度,从热力学的基本原理来讲,热量的带走,取决于热源跟环境的温差,也取决于这个系统里面散热通道热阻的大小,这个热阻大小,第一个取决于电源材料,比如用空气作为冷凝热阻很高,如果用水或者液体,他能够是原来空气的1/150,这样热阻很快降下来了。如果你用空气作为冷媒的话,如果要降低他热阻也有可能的,比如你散热片的设计,你风量的大小,都会影响到热阻的大小。在这一块根据这个原理。传统的制冷方式,这种技术实际上围绕着如何加大戴尔它T的问题,你采用隔离、或者温差等等都采用戴尔它T,我要通过降低系统热阻,达到控制戴尔它T的热阻,因为服务器工作温度并不是很娇气,比如安全温度80度以下,80度还可以工作,如果按照我们这个方式来讲,如果控制在65度,那么65度热源,只要建立一个高效的情况下自然可以带多空气里面去,这就是我们研究去空调的理论依据,我们在这一方面提出了这个情况。我们在这个过程当中,采用开发了热管水冷模块,当然要达到高效的散热通道的话,提出芯片级的接触式的制冷模式,这种模式可以达成我们散热通道的高效,目前来讲,接触式芯片级的制冷技术,一种是我们开发热管水冷的技术,一种还有直接灌水的,以前也有做过,直接把水导到服务器里面去,当然这个存在安全隐患方面的问题。

  另外,今天早上Facebook的专家,Jay Park也谈到了,利用媒体浸泡式的方式,我们也去了解过要这么做,但是如果说从这几种对比来讲,他在实现的工艺,包括可靠性、安全性、包括投入这几块来讲,我们选取了热管水冷技术,这是我们整个一个思路。

  如何来实现这种技术呢?相对于传统的服务器,我们新服务器实际上在设计上面有两个方面的变化,第一个变化就是以我们开发的这种热管水冷模块,来代替传统的散热片,直接引到服务器外面,带走CPU高发热量。当然你以存储型为主的,你也可以把内存调之前直接导入也可以。就是说我们水冷模块针对于高密度的,发热量比较大元器件导入,这个也可以这样做,这样做的话工艺相对复杂一些。

  第二个我们在设计过程当中,这种技术应用之后,将服务器当中我发部件产生热导问题,解除之后风扇可以大幅度减少,这张图我们在实验室里面测出来一些数据,我们在2013年的时候,我们把样机做出来,我们水流方面采用两种级别的水流,一个每分钟0.5升,一个每分钟1.5升的,控制数据进去,我们采用可控温水,我们当时做的时候没有搭建系统,只是服务器搭过去做试验,做试验的时候,我们水分别控制在25度,30度,45度。前面25、30没有任何意义,45度的时候我们对服务器冷却的时候,最高也不会超过65度,在这种情况下,可以导出来,这个45度有普遍性的意义,为什么这么讲呢?如果我们采用自然冷却的方式,把这个热量通过我们设计的制冷系统,直接把热散到空气里面去,冷却塔回水温度跟湿度有关联的,全球最高的38度,广州这些地方也是28点几,到非洲、到赤道那边去温度高一点,但是湿球度不高,湿度38度,回水来的温度42度左右。这是有全球普遍的适用性,我这种制冷方式,可以不用去掉空调,去掉压缩机,去掉原来的这种情况。这是第一阶段核心技术研究结果。

  第二阶段,从整个原理上面来讲,就是说我们提出了一个叫做去空调,实际上如果全部做也可以,但是你必须要对所有的东西都进行接触式的导入,那么实现起来工艺就非常复杂,所以我们提出了一个双通道的工作方式,把主要的发热量通过我们这种带走,接触式水冷模块,其余剩下的残余的热量,分散式的,低密度的热量,通过传统的用空调,用空气作为冷媒带走,因为不存在热导,那么实现起来就容易,而且你在原来做的时候,现在我们所用的空调压缩机,水冷机组,基本上采用中温压缩机,这种情况下我们可以采用高温的,高温能效CUP值9以上,原来中温做到6,那节能效果也有一定提升,当然这个不是主要方面。

  可靠性保障方面怎么做呢?你引到机房里面去是不是有问题?我们这个水没有进入到电路板里面去的,到机器边上,如果做物理处理可以做隔离,其二我们整个系统在设计的过程当中,比如水量比较大的外循环系统,我们可以把它放在另外一个房间里面,水量比较大的,这是一个板块。内循环系统肯定要在机房里面的,包括电机这一块到机房里面去,内循环系统采用什么技术呢 ?第一个隔离,内循环系统采用负压技术,你就破了也不要漏出来吸回去,现在按照我们在实验出来的结果,我们现在在这里面走的水0.6个大气压,可以做到负压的,如果怕也可以用冷凝,不导电,不可燃,不会腐蚀的,当然选择这个实现工艺,成本会更高一些,有这方面的一些原因,这是我们所采用的一个技术跟防护手段,当然其他的还有设计出来专利产品,包括用防漏接头的方式,这个实现搭建出来了。

  整个实现的方式,系统由冷却塔,板式换热器,双循环水路代替传统精密空调,高效带走高密度、集中式发热量。由行间空间精确排走剩余的热量,还有其他的排水,负压技术,包括冷凝,如果不采用负压技术也可以采用冷凝的方式,这都可以选择。

  第三方面供电这一块,大家早上讲的很透了,我不讲了,是一样的。我认为可靠性比UPS还要高一点,市电基本上在用的数据中心,基本上2度以上,那按照我们做的三路高压,还有加上油机的备用,基本上我们每年断不了一次电的,采用一种俯冲状态,可靠性取决于电池,高压直流是镇流器,进来的时候断电也没有了,这个地方通过这里电子无缝切换根本没有问题,UPS有时候还有故障,因为是串接了一个情况,这是可靠性方面。

  我们通过这三项技术整合出来以后,有这么一个系统图,我们现在实验室搭的就是这样。主要热量通过水循环系统带走,残余热量通过传统的行间空调传走,服务器进行改造,我们在用实验室,直接拆掉做的,如果达到效果最佳,许多产业链一起做了,因为我们基础CPU上升问题,CPU设计的时候,不一定要对住风口,可以做一些灵活。另外,我们整个风扇减少了,当然要增加一个模块。通过整体的方案,我们就实现了去空调,去UPS的目标,当然我们现在做的是大部分去掉空调的,还不是完完全全的,你要全部做到还可以,但是可能成本还不太值得。

  我们搭建实验室出来测试结果,我们从去年9月10月份开始,搭建以后开始测试,基本上已经快一年了。CPU的内核工作温度,这个是天气的湿球工作温度,中间是干球温度,一个是PUE值,变化是因为实验过程当中变化减少。

  整体的效果,我们基本上可以达到我们预期的目的,通过这种方式基本上达到1.18左右。我们机房60度以下,全球方面工作,假设最高温度38,PUE值控制1.2以下,CPU温度控制在65度以下。这是我们数据统计出来的。

  这两个饼图,原来能耗比例,制冷从43%变成10%,另外15%的供电系统损耗现在变成1%,效果非常明显的,PUE值都是在1.15,在任何地方都可以做到这种效果。

  这种技术引起的变化,主要从五个方面来,一个绿色节能,第二个机房利用率大大提升,第三个在运营成本方面能够降低,第四个在选址上面能够比较灵活,系统可靠性更加提升,第一个PUE值能够达到1.2以下,相当于如果按照去年的数据来讲,二氧化碳的排放量建立45%,标准煤的燃烧量减少45%,这个是社会效益的问题,节能减排效果应该会非常明显。

  第二个机房利用率的提升,我们采用这种技术以后,我们现在基本上单机25K,很轻松能达到,因为热导通过我们水冷模块带走,他的效果就比较理想,我们实验室里都有25K来做。相对于传统的数据中心,3到5K的设计,可能这几年有7K左右的设计,那也提升了很多,机房利用率提升了5到8倍左右。

  第三个在用电方面电耗方面用电成本节省45%,配套设备投资方面能够有效降低,主要降低在空调系统,还有UPS,当然还要增加其他,当然增加没有减少的多,总体来说10%以上。

  第四个选址方面,有到湖里面,有到北极的,中国移动大型数据中心,主要建设在内蒙,还有黑龙江,因为要采用自然冷源,采用我们这种技术,跟地理位置没有关系,你选择在哪里都一样的,因为直接出去了,已经关系不大了,全球任何地方部署都能达到比较好的节能效果。

  第五个带来运营性能改变。1、制冷系统可靠性,为什么可靠性提升呢?我们做的过程当中,主要的散热系统,实际上用电部分是电机,电机这一块用电量比较少,所以可以用后备电源或者直流电机接到高压直流系统上面去,断电也可以去保障,这是一块。2、供电系统刚才已经讲过了。3、服务器寿命这一块,按照我们实验结果,CPU工作温度不会超过65度,过去根本没有办法做得到的,过去100%的负载长期工作,可能要到80几度,一高温就把性能降下来,今天早上也讲到这些了,那么在这一块,我们这个可以避免这一条,在寿命上面,在性能上都能有所提升。这种技术还可以用于高密度的,高发热量的其他设备的制冷,比如说路由器,交换机,其他IDC里面的设备也可以去利用。

  最后讲一个结语,我们绿色节能技术,从演变、剧变到改变,归根到底这是一项复杂的系统工程,跨不同学科的技术,尤其热力学这一块,我们做计算机的人不一定特别注意,但是空调制冷非常重要的,我们整合产业链上下游厂商之间联合创新提出了系统的解决方案,为IDC节能带来颠覆性的变革,这项技术的商用和推广,以及大规模应用,面临着因为技术变革带来的数据中心的设计、建设、运维管理等方面的系统变化,应对这些变化,需要产业链上下游厂商之间通力协作,共同推动新型数据中心在建设、运维、数据、定制方面新问题,逐步积累成果,形成规范和标准,才能够加快这项新技术和新产品,全面推向市场,实现绿色节能低碳发展,助力资源节约型环境友好型的社会建设。

  就讲到这里,讲的不对请大家批评指正,谢谢大家!

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/20151126/n644275098.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片