机房360首页
当前位置:首页 » 专家谈数据中心 » 张光卫:典型数据中心电能质量数据分析

张光卫:典型数据中心电能质量数据分析

来源:机房360 作者:yayo编辑 更新时间:2011-6-24 23:35:32

摘要:由中国数据中心产业发展联盟、中国IDC产业联盟网与北京中大科慧科技发展有限公司共同承办的“2011中国数据中心动力安全能效管理趋势研讨会”今天正式开幕,北京邮电大学博士后张光卫作主题演讲,以下是全文实录。

  张光卫:各位领导、各位嘉宾,很高兴有这个机会跟大家探讨一下云计算时代这个环境下,我们数据中心面临哪些挑战。因为云计算是一个新鲜的东西,现在发展也比较快,从政府层面到企业层面,云计算有很多方面的东西,包括体系架构,我们今天就来关注一下云计算背后的动力。
  
  互联网是计算机和通信技术的融合产物,传统的互联网都是一个通讯平台,电子邮件等。到至今,它已经不仅仅是一个通讯平台,我们认为它已经泛盖了分布式的计算环境。因为它成为一种计算环境,以互联网为载体,寻求新的计算模式,推动科技和社会的进步自然也成了各个国家来竞争、发力的制高点。最突出的就是这两年比较搞航空的,有网格技术,有集群技术,有很长时间的探讨。云计算和前面有所不同的是,企业的参与成了主干力量,亚马逊、微软、Google,代表了国际性大企业对计算技术的产业化起很大的推动作用,这是它今天为什么能兴起,为什么国家把它作为重要的产业去推进。
  
  云计算是一种基于泛代网络的计算模式,云计算通过网络,把计算资源聚合起来,统一管理,统一调度。当然可以在一个位置,也可能是在几个位置,物理上的位置。这样集合成一起,就形成一个资源池。这里的资源是指广泛的概念,物理的资源,计算的资源,存储的资源、数据的资源等等,日常中的资源全部涵盖在里面。把这些资源整合进来之后,更加诱人的地方,是用一种动态的、可伸缩的、虚拟化的以一种服务的方式再提供出来。一种是资源的聚合,一种是服务技术的延伸,聚合技术怎么样进行调度,怎么样进行虚拟化,把很多物理机器上的资源给它虚拟成一个资源,或者把一个计算机比较强的资源虚拟称多台小型的计算机上。
  
  另外就是一个服务的技术,在云计算的条件下,服务是软件的功能的一种承载,把企业所有的服务给它聚集起来,把服务聚集起来,然后通过各种力度,多力度的聚集,弹性的提供给最终的用户。对用户面临的只是需要去选择服务,比如说我是一个制造企业,我要有CRM系统,我要有HR系统,我还要有物流的系统等等。这些服务你去选择,但我们这的选择并不是说单一的,它可以多种的方式,一种方式就是大的系统、模块,力度很大。我选择一个CRM系统,选中就可以用了,我不需要买机器,也不需要装软件,就在互联网上,整个数据存储在云计算中心的,这是大力度的。
  
  还有细力度的,比如我需要CRM系统,我需要哪些部分?我自己去选模块1、模块2、模块3,这种选择一般是通过云计算Pas去提供,Pas是一种编程的接口,简单的系统,企业不用复杂的JAVA开发,通过C++开发,通过Oracle的工程,不需要。通过云计算,我们认为是细力度、弹性的可组合的、可拆借的服务模式。
  
  简单概括一下,云计算两个方面我们考虑它,第一服务的聚合,资源的聚合;二服务的提供,它都给我们带来了很大的扩张性。我们可以认为存储是无限扩张的,计算能力是无限扩大的,你有需求,给计算中心,他会增加这个能力,终端不用作这个考虑。
  
  这是一个电场,它的电通过供电网络提供给千家万户。云计算提供商通过互联网络,把计算资源、把产品和软件的服务提供给千家万户。
  
  云计算代表第三次IT的浪潮,云计算的出现它的改变可以称得上革命性的改变,它对我们的工作方式、生活方式以及企业的运营模式和商业模式、管理模式都带来了变化。当然这些变化怎么样变还得有一个演进的过程,包括数据中心,数据中心在云计算环境下,要做哪些改变,怎么样把一个传统的数据中心改造成云的数据中心。
  
  今天的主题我没有过多的讲解这个体系结构方面的、技术方面的,就从动力这块去解释,如果大家有兴趣,可以会后单独去探讨,就是关于数据中心云这方面的改造有哪些值得关注的地方。
  
  据Forrester公司预测,到2020年,全球云计算市场能达到4000多亿美元的份额。
  
  云计算背后的推动力是大型数据中心,包括有100多万台服务器,有的时候是几百万台,最起码有一百万台。
  
  这是2010年的一个报道,微软在芝加哥建立一个数据中心,集装箱式的部署,总的大概有几十万台机器。
  
  云计算背后的强大力量体现在哪儿?一是技术的力量,再就是动力,强有力的心脏。大的动力背后就是高效能。云计算和效能这个说法也是有两种见解,一个说云计算给清洁能源、给耗能带来了挑战。我们是兴建一些大的数据中心,如果把小的都关了、停了,就像采煤一样,整个集中起来,总理还是减少的。
  
  Google在OREGON建立了数据中心,他每天的耗电量和日内瓦相当。英国一个大学里面科学家算,全世界的云计算每天的耗电量相当于100个北京市。耗电量大的同时,怎么样维护强大的心脏的调控,对供电、制冷、可靠性都带来了挑战。很多嘉宾也是来自数据中心,我知道数据中心的运维人员在前面,不说云计算条件下,传统的情况下对运维来讲,供电的制冷也是一个很大的问题。在云计算环境下,解决这个问题恐怕会更困难,这需要从技术上很多方面有更多的考虑。
  
  云为什么和传统的数据中心相比供电更大了?这和云的本身计算特性有关系。大多数的云架构是虚拟化的计算,什么叫虚拟化的计算?服务器比单一功能的服务器大,而且稳定性,同时得到更为广泛的利用,平均以5-15%的处理能力运行的时候,相当于在虚拟化的服务器上,它的利用率高达80%。这是什么意思?云计算一个很大的特点叫虚拟化,计算的虚拟化,存储的虚拟化,
  
  拿一个高校来举例子,我买了一台服务器,这台服务器给一个班的学生用、给几个老师用,有点浪费了,我们可以通过虚拟化的技术,把它虚拟化成一百个,这一台机器可以供一百个人使用。那你想想这个机器的工作负荷,满了。因此大多数云计算的虚拟服务器比传统服务器需要更多的供电,配电装置、配电盘和UPS的负担也会更重。
  
  大多数云架构都是超密环境,机柜的配电要求也比传统数据中心要高,特别是一些新云计算数据中心,北京建一个大型的云基地,这个数据中心一开始投入量很大,几万台机器,这就会使机器的密集,在一台机柜上装的服务器比较多。比如用刀片式服务器作为宿主服务器,刀片式服务器是可拆解的,很多台服务器共享一套电气、一台电源一台风扇,这样可以使数据中心的占地面积包括管理都比较容易。
  
  一个传统的服务器机柜一般需要4-6KW的电力,如果不买刀片机架,大概需要30KW的电力,如果设计时没有足够的容量,往往会超出电源和制冷系统。
  
  下面是一个电源密度等级,标准密度、中等密度、超高密度,对上面的设备数和机柜的功率,是这样一个统计。机柜上装的机器多了,对机柜的供电要求高了。
  
  刚才谈到了云计算环境下用电多了,供电系统出现了一些新的挑战。再看云计算技术对可靠性的要求,在传统环境下,一台机器上跑三台应用不得了了,一般情况下一台计算机对企业来讲状态给它装一套系统。现在不一样了,现在虚拟化了,一台计算机装了多少系统你自己也不知道,你的数据切到哪儿你也不知道。这就意味着,服务器有支持一种应用,单一或者少数应用变为支持多种或者几种应用,这就是一个挑战,一旦宕机了,影响就大了。
  
  云计算运算比较复杂,有的人原来讨论过这么一个话题,云计算是提高了计算效率还是降低了计算效率?这个问题看你怎么去理解,所谓降低了效率,它很多虚拟的环境,你要完成虚拟的计算、存储,虚拟化的管理,必须跑到平台上面,这也是由软件来写的,它本身就是负载。从这一点上来讲,它比传统的耗更多的资源。但从一个宏观的地方,从大的角度上去考虑,它提供的用户多了,从这个角度来讲是节省了资源,而节省的还不是一个数量级的。所以云计算和虚拟化带来灵活性的同时,运算的复杂性,本身就会导致机器宕机,供电都没有问题,制冷也没有问题,宕机了怎么办?云计算就要有调度的机制,一旦宕机,它的工作负荷就转移,而这种转移是通过一定的算法去算的。可能是你这个数据中心内部转移,从这个机器转到那个机器上群,这种调度认为是没法控制的,只能通过算法去控制。这也会引起电路或你这个系统的过载,至于对哪个地方产生了过载这种不好预测,只能存在紧急转移的情况。
  
  前面讲到了云计算环境下对供电、制冷、可靠性带来一些挑战,看还有哪些方面可做的工作来避免这个问题。这是个探讨,有待于数据中心专职的工作人员和研究人员逐渐来讨论,我今天只是抛砖引玉。

  两个方面,第一个方面,我们压保证供电与冷却,要从基础设施上,买的电器部件上,机械的物理上增加强度;另外你要采用更加科学的运维手段。
  
  模块式供电,为什么模块式供电能够适应云计算?云计算是弹性的,可扩张的,伸缩性很好,可以随时添加机器。提供的功能上是可伸缩的,基础设施也必然应该是可伸缩的,所以对电源系统来讲,模块式的电源组件可增强系统的可靠性。
  
  举个小的例子,模块式的,可扩张型的UPS可以有12KW的组件,可以增加N+1架构的组合。
  
  冷却,冷却跟供电是两个很重要的问题。传统的冷却系统就是部署机房空调,也有采用热通道-冷通道,所谓热通道、冷通道,数据中心设备上运转产生热量,我降低产生的热量,就要空调给它吹冷风,冷热分开,把热的排出去,把冷引进来,把热源排走了,能够在一定程度上提高制冷的效率,从而产生对流循环。
  
  UPS有模块式的设计,对于制冷现在也有模块式的制冷,但这种制冷可能造价都比较高一些。但这种模块式制冷从满足云计算弹性、伸缩的需求来讲,应该是合理的。
  
  被动式冷却系统,刚才说热通道、冷通道是把热风引出去,把冷风加进来。这个就更加紧密了,在机柜的壳上安装了一个气密的后门和烟囱,用来收集来自服务器的热排风,直接引到空调装置的回风管道里面去,这样风可以进行重新循环。对气密性比较高一些,要严格分离冷和热,要彻底,这也是在云计算环境下的一种思路。
  
  建造多个设备间,UPS和其他的分开,为什么要分开?因为他们对工作温度不一样,这也是一种思路。
  
  改善云架构可靠性的策略,前面讲到制冷和供电,有模块化的UPS,有模块化的制冷和被动式的制冷。从云计算的可靠性策略来讲,我们怎么样保证云计算框架更加可靠?第一要传统的方式,就是通过冗余,N+1冗余是我们经常采用的一种办法。通过冗余这种系统架构,来提高可用性,降低计划外停机的可能。
  
  2N也是一种策略,对于大型云环境是非常理想的。2N的特点是提供两个独立的相同的架构,每个都能独立支撑架构,分别50%,如果是一个路径宕掉了,另外一个就是百分之百来补偿。2N架构和双电源设备配合来使用,给每个电源一个独立的空间,这也是一种思路。
  
  保证可靠性,就要保证你系统的可监管,你要知道你每个设备的工作状况,特别是性能指标,它的温度是怎么样的,服务器的运转率,这个中间件的RO操作强度等等,需要一些监管的东西。但是监管不仅仅是供电,不仅仅是OPS,还有一个监管就是运算系统的监管,软件的中间件通过分析它的一些吞吐,一些CPU的占有率来衡量。当然我们在设计云平台的时候,特别是设计I云的时候,云计算分为I云、T云还是S云,I云层面往往要考虑的一个问题就是监管的功能,对软件系统的监管。
  
  另外一个越来越关注的问题是供电质量,在现在这个环境下,供电质量其实是越来越的情况,以北京为例,地铁越来越多,地铁对供电系统的冲击是很大的,非限性工作的设备往往会导致供电质量的下降。无论是电压、电流或频率上都有体现。传统数据中心在做机房设计的时候也在考虑这样一个问题,在选用UPS的时候,选用比较环保的UPS。但是对一个大型的机房来讲,特别是云计算中心来讲,机器太多了,这么多的机器,构成了一个复杂的系统,这个复杂系统往往导致你没有办法预测是哪块需要加强,没有预计重要程度,只能是从整体上提高供电的质量。以前往往是从外部有很好的考虑,要建数据中心,对接入的市电,还有对电源的保护,油机各个方面考虑的很周到。但是对数据中心内部的电能质量问题,还是相对稍微缺乏一些,因为在数据中心内部,在计算机、UPS边路很多,必然导致数据质量很差,对机房来讲污染最大的就是谐波的问题,机房质量好坏的表现就是热能的聚集,我们一直围绕机房的制冷和散热。电的质量差,会导致温度的上升,一个设备的温度上升,还有线路温度的上升,而线路的温度上升是一种更难发觉的情况。谐波经过一个电缆的时候,分布式电缆会对谐波的吸收,吸收了能量就上升了。
  
  我就讲这些,因为今天主要是从供电这个方面跟大家一起探讨这个问题,并没有从云计算的体系架构、技术上面去探讨。谢谢大家! (责任编辑:yayo)
  
  

本文地址:http://www.jifang360.com/news/2011624/n178923626.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片