机房360首页
当前位置:首页 » 专家谈数据中心 » 国家高性能计算机研究中心沈卫东:第四代数据中心关键基础设施建设

国家高性能计算机研究中心沈卫东:第四代数据中心关键基础设施建设

来源:机房360 作者:三水编辑 更新时间:2012/5/29 15:29:14

摘要:由中国电源学会和中国电子节能技术协会联合主办的2012现代数据中心基础设施建造技术年会,于2012年5月29日北京召开,本次会议将对数据中心的前沿理论、技术进行了精辟、深入的交流与探讨,对各家所长均有所展示,对我国数据中心整体技术水平的提升可起到推波助澜的作用。国家高性能计算机研究中心数据中心技术研究所所长沈卫东,为我们解读第四代表数据中心关键基础设施建设。以下是文字实录:


  在座的各位同行、各位老师大家下午好!非常高兴有这个机会把我最近做的一些工作跟各位老师、各位同行汇报。

刚才在吃饭的时候听见有人说,两年没见你干吗去了?我说回家修炼了一下,现在把一两年修炼的成果向各位老师做一个汇报,简单介绍一下国家高性能计算机工程技术研究中心,是中科院计算所的下属单位,挂靠中科曙光,我们主要研究数据中心方面的基础研究。

我的话题是关于“第四代数据中心”,第四代怎么排的?第一代60年代,中国曙光和联想都是计算机所下边的公司,50年代末开始做计算机、大型计算机,那个时候这是国产第一台百万次计算机,那个计算机诞生一个房间,这个房间后来叫计算机机房。第一代数据中心或者叫机房,应用是进行科学计算、特点是大型计算,离咱们比较久远。

第二代我们在座有些同行可能见到过,90年代以后计算机开始从事商务计算,名字叫IT基础设施,这是商务计算塔式服务器,特点是机房里边得有桌子、椅子在里边办公。

我们现在大多数人见到第三代数据中心,标志是2000年以后开始的互联网计算为代表的、大型、有多个机架组成数据中心。对应设备是机架设备,无论是服务器、储存也好、网络设备也好都是机架设备。

2010年以后我们说到了云计算时代,这个时候计算是特殊计算云计算,所以它的表现形式应该有所不同,因为云计算需求改变了,云计算模式对服务器要求改变了,服务器对基础设施要求也会相对改变。所以我就说云时代的到来是我们使进入新的时代。

第四代数据中心什么时候来?我说这个第四代从哪天开始算,算起来有点困难。应该说从前几年开始有类似的应用表现出第四代的特点,这个第四代驱动力在哪?在于应用,云时代的它的应用。这个驱动力主要三点:

1、更低。更低指的设备投资,云计算我们需要大量的设备云。十几万数据中心都建了,为了提供足够数量的峰值所以很大,但是单价很便宜,所以现在服务器向便宜发展,可靠性上可能有所降低。设备上可能有所降低。国外大型数据中心每天发生故障几十台,不做维修,云以后不需要,池化、虚拟化所以对设备投资、包括基础设施投资要求不高,另外电费企业也省了当然代价是可靠性,系统性可靠性当然提高了。

2、更快,就是扩容更快、建设快。

3、更强,表现容错性和动态管理上。

将来数据中心向模块化、绿色化、智能化发展,这几个特点我会详细介绍,双层是指哪几个层?这是我对数据中心几个层面的定义,最底下是建筑层、上面是机房层、再上面是IT设备层、再上边是应用层。

1、模块化。第四代数据中心在几年开始进入,已经开始显现出第四代,当然远远没有成熟,所以模块化是要求模块化设计,以便有更好的成长性。

2、绿色化也讲很多年,但是第四代数据中心可能PUD有重大的突破,第三代数据中心我们见到PUD值做过检测,2以上比较多,2.0以下比较少,但是新建的大型数据中心都开始要求1.6以下,实际上国外有小于1.3,如果自然冷却还会更小。刚刚曙光在包头建设的包头云计算、城市云计算中心,自然冷却系统是我设计的,设计PUE1.05,全年开空调时间、压缩机循环时间只有三个月时间,平均下来可以做1.05,能不能更低呢?PUE极限是1.0,难道这个极限不能突破吗?我认为第四代数据中心会有突破,第四代数据成熟了,成熟标志PUE小于1.0,当然可能除了PUE作为考量之外,还会派生节能的指标WPT,这个是我们现在的应用,高性能计算有多少T耗多少W。绿色化实际上已经开始启动,从这个意义上讲第四代数据中心已经进入这个时代。

3、智能化,我们机房监控说实话“监控”两个字用的不多,因为只是监视没有控制。第四代表数据中心应该全自动化,所以我们需要控制风机、压缩机等设备,那才是真正的智能化。

4、双层分离,这个双层指的是两层,指的是机房设施层与建筑设施层,这个图片里头大家能看到我们建机房的时候,我们很依赖机房的建筑维护结构,说白了四面墙、两个楼我们很依赖的,举一个新建机房现场勘查第一个沉重和层高,两米六以下机房很难做,实际我对建筑依赖性太强了,因为很多东西必须贴着墙做,比方说图片大家看到贴墙有配电柜、线缆桥架等,一旦贴做维护结构的时候,必须依靠现场的环境。所以我一直有一个梦想,如果做好一个东西随便找一个地方一放自己能运转了,这个才是将来发展方向。有人实现这个发展方向,08年的时候微软实现这个发展方向,集装箱机房,我认为它是第四代数据中心表现形式,其特点就是与墙没有关系,所以微软自己的数据中心建了一个大菜市场,上面凉棚一搭、水泥地一铺,200个集装箱一拉就完了。所以这是讲的基础设施层与建筑设施层的分离。

除了微软集装箱数据中心以外,我们看到很多,最早应该是ADC,ADC搞的冷时或者热时,跟吊顶没有关系,ADC还是水平送风,跟高架地板也没有关系,我有配电设备可以放列头柜,跟机房也没有关系,空调要抬机,所以双层分离很多场合已经使用,只不过大家没有把它抽象出来,所以真正分离以后应该以机柜或者机柜排、或者机柜双排为模组,所有设备都集中在、或者集成在模组里边去,这就是双层分离。这是一个重要的特点。

5、双层融合,这个双层指服务IT设施层和机房的基础设施层,曙光是一直做高性能计算的,我们高性能计算是举国家863大旗,我们前年搞的“星云”计算速度全球排名第二,很光荣。我们一直做服务器,所以我到曙光去新建基础设施数据中心,去了以后我感触工作很难做,服务器已经设计完了、刀片,我们刀片是十有八跳,装满一个机柜32跳,告诉我解决智能问题,发愁?当然我们32千瓦还是能解决,一个空调机35千瓦、在旁边机柜装4个刀片,可以达到每个机柜35千瓦能解决,但是已经到头了,遗憾的服务器部门有开每机柜双千瓦的刀片,我就急了。

因为他的服务器建完才跟我说,服务器设计完才跟我说,我就说了,你老让我凑合你不对,风的传递、传代、能量的能力只有水的千分之一,你风带走那么多热量,实际我们讲单机柜70千瓦以上局部热点,是因为送风不均匀引起的,罪魁祸首是风。让我解决可以,但是服务器设计的时候可以考虑我,这个话我敢说,艾默生不敢说,曙光是一个公司,所以我们内部沟通。我说设计服务器的时候我得参与,不能因为我基础设施为你服务,一定需要服务的心态,那不行,咱俩得商量、得博弈。所以我说双层融合,再设计服务器的时候,应该服务器和基础设施在散热基础上、供配电基础上一个团队设计,要融合起来。

现在我们已经有了蓝图了,就是包括直流供电的技术。以上就是我谈到所谓第四代数据中心的特点和发展趋势。

接下来简单汇报一下实践,我介绍曙光的CloudBASE,以机柜排级为单元的基础设施集成系统,所谓机柜排级我做的定义,我把制冷的模式按送风、回风气流组织的级别分四个级别,机房级、冷池级、排级、机柜级。空调对机房制冷使机房变冷,服务器放在机房里边工作了,另外一个阶段是机柜级,我们有上海超算的案例、我们也有类似的产品,把这个机柜封起来,把空调机放机柜里边,最右边图是机柜的下部有像服务器制冷模块,把冷量送到上面服务器,服务器加热再送回来,我们做到22千瓦。中间还有冷池级、排级,我们认为机房级应该是第三代数据中心的特点。特点来看范围越小冷却越高,我们推荐两种。

我们产品各个子系统、包括各种配电、冷媒,这是配电的模块。这是我们去年实施一个案例,使用我们CloudBASE,基本长江领域可以达到1.7以下,刚才说包头是好地方,所以可以达到1.05,这是南京的案例,单机柜可以到16千瓦,这是其他的案例。我们实践就讲到这里。

下面简单一下成果,我们说高端服务器是将来服务器的发展方向,现在是22度,将来工作应该35度,我们正在设计40度环境下可以正常使用服务器,这是我们设计的混合冷却的服务器。这是设计两年以后实施的案例,PUD0.96案例,其特别余热发电。服务器产生的热按以前说废热把它扔掉,空调扔掉垃圾实际耗能,后来讲自然冷却,修一个管道让垃圾自己跑了,我的问题是热不是垃圾、热是钱,热可以化学反应,虽然效益很低但是确实很环保,我们有小模型,感兴趣可以找我到曙光实验室参观。

以上我做了简单的介绍,非常感谢大家!再见!

责任编辑:三水

本文地址:http://www.jifang360.com/news/2012529/n242236766.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片