机房360首页
当前位置:首页 » 资讯 » 空调、电气、运维...绿色数据中心应有这些技术!

空调、电气、运维...绿色数据中心应有这些技术!

来源:数据中心运维管理 作者:DJ编辑 更新时间:2017-10-10 17:27:45

摘要:经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。

  一、冷热通道隔离技术

  经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示:

冷热通道完全隔离

  冷热通道完全隔离

  隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。

  隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

  综上所述,虽然这两种方法都可以提高空调使用效率,但是相比较起来,隔离热通道比隔离冷通道的效率更高、适用性更好。

  二、冷源方案比较

  根据统计数据表明,数据中心的制冷系统占机房总功耗的40%左右。机房中的制冷主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PUE值。目前数据中心中较为常用节能制冷系统有以下四种:

  1. 水冷冷冻水机组+自由冷却系统

  本方案组成设备包含:水冷冷水机组、板式换热器、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加压装置、蓄冷水罐、末端空调机组等组成。整个系统由冷冻水系统和冷却水系统组成,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

  2. 风冷冷冻水机组+自由冷却系统

  本方案组成设备包含:风冷冷水机组、干盘管、冷冻水泵、定压补水装置、加压装置、蓄冷水罐、末端空调机组等组成。本系统做自由冷却用的干盘管可集成于风冷冷水机组内,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

  3. 自带冷源式风冷空调机组+自有冷却

  自带冷源式风冷空调机组系统属于分散式空调系统,空调机组由室内机、室外机、干盘管组成。室外机内置压缩机,干盘管集中布置于室外,母管连接由水泵分配至各室内空调机,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

  4. 模块末端全空气空调机组水冷冷冻水

  本方案组成设备包含:水冷冷水机组、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加药装置、蓄冷水罐、全空气循环风机组等组成。过渡季及冬季直接把室外冷空气经全空气循环风机组处理后送至机房内,以减少冷源部分的能耗,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

  数据中心到底使用哪种制冷系统,需要根据项目所在地的各项条件综合考虑。在我国长江以北地区,如果有条件建议采用水冷冷冻水机组+自由冷却系统的方式设计制冷系统,这样在冬季气温7-12℃时可以采用预冷的方式,使用部分冷冻机组。在室外温度小于7℃时,可以不启动冷冻水机组,完全用自由冷却系统对机房降温,大大减少的了能源的消耗。

  三、采用变频电机

  空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷能力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设计的(空调的制冷量一般要比其在理想工况下的额定值低,这时建筑物本身不但不散热,反而吸热)。这样,全年绝大部分时间空调系统运行在负荷不饱满状态。另外,大型数据中心的IT负荷从零到满载也需要相当的时间,一般也在一到三年之间。还有,IT负载的能耗和网络访问量或运行状态相关,根据其应用的特点,每天24小时的能耗都在变化,一年365天的能耗也都在变化。比如,游戏服务器在早上的负载和能耗都比较低,但在晚上就比较高;视频服务器在遇到重大事件时的负载和能耗就比较高。

  因此,在水冷系统中所有电机采用变频系统,这样可以节约大量的能量,其增加的投资一般在一年内节省的电费中就可以收回(基本满负荷情况下)。对于风机和水泵,输入功率和这些设备的转速的三次方成正比。例如,如果风机或水泵的转速为正常转速的50%,仅需要同一设备运行在100%额定转速时理论功率的12.5%.因此,当设备运行在部分负荷时,变速装置的节能潜力十分明显。

  四、提高冷冻水的温度

  冷水机组标准的冷冻水温度为7到12℃,水冷空调的标准工况也是认为冷冻水温度为7到12℃。但是这个温度范围对于数据中心来说有点低,带来以下两个不利因素:这个温度大大低于数据中心正常运行在40%左右相对湿度的露点温度,将在风机盘管上形成大量的冷凝水,需要进一步加湿才能保持机房的环境湿度。这个除湿和加湿过程都是非常消耗能量的过程。

  冷冻水的温度和冷水机组的效率成正比关系,也就是说冷冻水的温度越高,冷水机组的效率也就越高。根据YORK公司在网络上公布的材料,冷冻水温度每提高一度,冷水机组的效率就可以提高大约3%.目前,在集装箱数据中心和高功率密度的冷水背板制冷技术中都把冷冻水的温度设计为12到18℃,已经高于露点温度,完全不会除湿,也就不需要加湿。冷冻水的温度提高后,水冷精密空调的制冷能力会下降,实际的制冷能力需要厂家提供的电脑选型软件来确定,一般会下降10%到15%.但是由于冷冻水温度提高后很少或基本不除湿和加湿,加上采用EC调速风机,电机产生的热量减少,整个水冷精密空调的实际制冷能力(显冷)下降并不多。

  五、供配电系统节能

  1. 精确计算供电功率

  使用用电管理软件精确计算用电功率和智能化控制系统用电,提高电源利用率。为机房建设规划提供更精确的数据,智能控制整体用电量。

  2. 供配电系统节约电能的技术方法

  主要是配电电压深入负荷中心、配电变压器的正确选择和经济运行、配电线路的合理选择和经济运行、电压调节和无功补偿等技术和方法的采用。配电系统的降损节能技术措施如下:

  合理使用变压器根据用电特点选择较为灵活的结线方式,并能随各变压器的负载率及时进行负荷调整,以确保变压器运行在最佳负载状态。变压器的三相负载力求平衡,不平衡运行不仅降低出力,而且增加损耗。

  重视和合理进行无功补偿合理地选择无功补偿方式、补偿点及补偿容量,能有效地稳定系统的电压水平,避免大量的无功通过线路远距离传输而造成有功网损。对配电网的电容器无功补偿,通常采取集中、分散、就地相结合的方式;电容器自动投切的方式可按母线电压的高低、无功功率的方向、功率因数大小、负载电流的大小、昼夜时间划分进行。

  对低压配电线路改造,扩大导线的载流水平按导线截面的选择原则,可以确定满足要求的最小截面导线;但从长远来看,选用最小截面导线并不经济。如果把理论最小截面导线加大一到二级,线损下降所节省的费用,足可以在较短时间内把增加的投资收回。

  减少接点数量,降低接触电阻在配电系统中,导体之间的连接普遍存在,连接点数量众多,不仅成为系统中的安全薄弱环节,而且还是造成线损增加的重要因素。必须重视搭接处的施工工艺,保证导体接触紧密,并可采用降阻剂,进一小降低接触电阻。不同材料间的搭接尤其要注意。

  采用节能型照明电器根据建筑布局和照明场所合理布置光源、选择照明方式、光源类型是降损节能的有效方法。推广高效节能电光源,以电子镇流器取代电感镇流器;应用电子调光器、延时开关、光控开关、声控开关、感应式开关取代跷板式开关,将大幅降低照明能耗和线损。

  UPS的节能必需从方案、UPS、电池、配电等方面全方位进行。

  六、UPS不间断电源节能

  1. 按需扩容的柔性规划

  目前,数据中心大多是分期分模块的进行建设,考虑今后未来几年的扩容,在设计时UPS容量一般都考虑容量比较大些,一次就安装了几套大功率的UPS并机,初期负载量只有规划容量的10%~20%,使UPS的利用率很低,造成电能的浪费,为了避免这种情况的发生,需要采用模块化的UPS,逐步扩容。

  2. 提高UPS能效

  目前UPS均为在线式双变换构架,在其工作时整流器、逆变器均存在功率损耗。提高UPS的工作效率,可以为数据中心节省一大笔电费,可见提高UPS效率是降低整个机房能耗的最直接方法。因此采购UPS,尽量采购效率更高的UPS.当然UPS效率高不仅仅是满载时效率高,同时也必须具备一个较高的效率曲线,特别是在“1+1”并机系统时,根据系统规划,每台UPS容量不得大于50%,如果此次效率仅为90%以下,就算满载效率达到95%以上,也是没有意义的,所以要求UPS必须采取措施优化效率曲线,使UPS效率在较低负载时也能达到较高的效率。

  降低输入电流谐波,提高功率因数谐波产生的根本原因是由于电力线路呈现一定阻抗,等效为电阻、电感和电容构成的无源网络,由于非线性负载产生的非正弦电流,造成电路中电流和电压畸变,称为谐波。谐波的危害包括:引起电气组件附加损耗和发热(如电容、变压器、电机等);电气组件温升高、效率低、加速绝缘老化、降低使用寿命;干扰设备正常工作;无功功率增加,电力设备有功容量降低(如变压器、电缆、配电设备);供电效率低;出现谐振,特别是柴油发电机发电时更严重;空开跳闸、熔丝熔断、设备无故损坏。解决方法主要有以下四种:。采用12脉冲整流器。采用无源滤波器。采用有源滤波器。采用高频IGBT整流及PFC功率因数校正电路设计整流器

  七、高压直流供电技术

  与传统48V供电系统类似,高压直流供电系统是由多个并联冗余整流器和蓄电池组成的。在正常情况下,整流器将市电交流电源变换为270V、350V或420V等直流电源,供给电信设备,同时给蓄电池充电。电信设备需要的其它电压等级的直流电源,采用DC/DC变换器变换得到。市电停电时,由蓄电池放电为电信设备供电;长时间市电停电时,由备用发电机组替代市电,提供交流输入电源。高压直流供电的优势有以下几点:

  1.可靠性

  直流电源模块化輸出和电池直接并联给负载供电,后备电池与电源后段并联给服务器构成2路冗余供电,可靠性高,真正不间断;如果UPS后备电池只是与电源前段并联给DC/DC供电,整个系统供电对数据设备不是冗余供电模式。在某种原因下UPS系统崩溃,电池不能直接应用,导致后端设备断电。而采用直流供电,杜绝系统崩溃带来的断电风险。

  2. 可操作、维护性

  并机容易,并且可以做成系统解决方案,做到安全不间断割接,功率部分采用模块化,支持带电热插拔,可快速更换,功率部分和监控功能模块CSU之间正常工作是监控单元CSU控制,故障时各自独立控制,避免故障扩散。更换模块和监控单元CSU是互不影响的,便于维护。

  3. 提高负载的可靠性

  计算机等开关电源内部的桥式整流变为直流电正负极防接反电路,即使计算机输入电源的正负极接反,不影响计算机的正常工作。影响设备寿命和故障的一个重要因素是电容元件的失效问题,交流电经过整流桥之后是一个脉动直流电,使后面的电容元件不停的充放电,寿命缩短。采用直流供电,元器件的寿命延长。延长了负载设备的寿命,提高了其可靠性。

  4. 智能化管理

  直流高压开关电源系统与传统48V直流电源系统一样,可以很方便的对电池进行全面的智能化管理,具有完备的电池管理系统,有效延长了电池的使用寿命,降低了运营成本,提高了供电的可靠性;UPS电池管理简单、不全面,电池容量损失速度快。

  5. 降低谐波干扰

  对于计算机和服务器来说,采用直流输入,不再存在相位和频率的问题,多机并联变得简单易行。无谐波干扰,UPS存在輸出功率因数,一般在0.6~0.8.

  6. 安全性

  直流高压电源系统,是标准电气柜,安全性高,并且对分路输出和母线的绝缘状况实时监控,对人身伤害预警大大提高;UPS非标一体柜,安全性低。

  7. 高效节能

  由于省掉了逆变部分,直流开关系统经过2次变流,电源效率达到92%以上,UPS系统经过4次变流效率一般70%左右,这样大大节省能源,降低运营成本。

  八、提高机房温度

  根据中华人民共和国国家标准GB50174-2008《电子信息系统机房设计规范》,A类和B类机房的主机房温度要求保持在23±1℃,也就是22到24℃。ANSI/TIA-942-2005《Telecommunications Infrastructure Standard for Data Centers》中规定冷通道温度为华氏68-77度,也就是20到25℃。美国采暖制冷与空调工程师学会(ASHRAE)2008年新的机房冷通道温度已经从2004年的20到25℃提高到18到27℃。由于国家标准中规定的主机房温度没有指定是机柜前的进风温度,传统机房存在以下两方面不足:。由于没有冷通道或热通道封闭,机房温度特别的低,设备内部的温度并不低,大量的冷气短路自循环。。机房温度往往低于24℃,处于过度制冷状态。

  现代服务器和网络设备等并非传统观念(10年或20年前)中认为的那么娇贵,大部分服务器在温度10-35℃,相对湿度20%-80%都可以正常运行(ASHRAE认为的设备环境要求,也是绝大部分商用服务器的工作环境要求范围)。因此可以提高空调送风温度,保证IT设备的运行温度即可。当空调系统的送风和回风温度提高1℃时,空调系统节电约2.5%.同时空调系统的制冷能力提高约5%.

  因此,在用户认可的条件下,提高机房的温度是节约能源的措施之一。建议数据中心冷通道的温度(ASHRAE标准要求在冷通道中间对准机柜中间1.5米高度测量,每4个机柜至少一个测试点)最低为为24或25℃。

  九、科学运维

  人走关灯和关闭大屏幕显示器,减少照明产生的能耗以及相应增加的制冷量。。尽量减少运行新风系统。在机房无人时关闭相应区域的新风系统。。建议冷通道的温度不低于25℃。定期检查冷通道的温度以免过度制冷造成能源浪费。。定期检查地板,防止各种方式的漏风。。冷通道必须完全封闭,机柜上没有设备的区域必须安装盲板,没有负荷的机柜区域不能安装通风地板。每次设备变更,都要进行检查。。在能够满足制冷的条件下尽可能提高冷冻水的温度,最高为12到18℃。。在气象环境满足的条件下,尽量使用全自然或半自然免费制冷。。定期核对数字采集数据和模拟显示仪表的数据是否一致,若发现数据存在误差,立即更换有关采集设备或仪表。。 对于还没有使用的独立机房区域,关闭所有机电设备,包括冷冻水管道的阀门。。定期检修和清洗冷冻机组内的铜管和冷却塔,确保其工作在最佳状态。。对于低负荷的机房,如果精密空调没有EC风机,就要关闭相应的空调,如果是EC风机,要通过实践摸索出更节能空调运行方式。

  责任编辑:DJ编辑

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/20171010/n119199173.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片