机房360首页
当前位置:首页 » 节能 » 数据中心的几个冷却策略

数据中心的几个冷却策略

来源:机房360 作者:victor编译 更新时间:2013-6-3 10:09:21

摘要:热空气通过通风口进入数据中心,然后排出到外部,或是被收集和用于其他空间的加热。热空气也可以通过热泵用于加热水。这些系统可以是高度工程化的,或者他们可以相当有效地通过在本土使用聚碳酸酯覆盖在机架上作为“屋顶”,以及在另一段使用聚丙烯薄膜作为门。

  利用空气保持冷却

  热通道和冷通道如果经过了正确的设置,其实只使用需要少量的冷却空气。(参见图1)。

  机架之间的空间被封闭,在机架上方有一个类似于“屋顶”的设置,而在另一端又设置了一个门。冷空气吹入到密闭空间。裁板是用来防止冷空气在机架内泄漏。使得管道冷风直接到达装备的最热部位。

  热空气通过通风口进入数据中心,然后排出到外部,或是被收集和用于其他空间的加热。热空气也可以通过热泵用于加热水。这些系统可以是高度工程化的,或者他们可以相当有效地通过在本土使用聚碳酸酯覆盖在机架上作为“屋顶”,以及在另一段使用聚丙烯薄膜作为门。

  我们的目标是使每个机架都包含它自己的系统,使得需要冷却的空气体积进一步最小化。冷却可以设计得更加有针对性。就像Chatsworth塔一样,这些自成一体的系统有内部一个19英寸的机架,采取从底部到顶部的空气冷却,而不让这些空气接触到数据中心的其他空气。

  在某些气候条件下,在较高的温度下运行可能允许使用自由空气冷却,而不需要CRAC。例如,如果选择在华氏86 度(摄氏30度)的条件下运行,而外部空气温度则低于77华氏度(25摄氏度),外部空气此时用来进行数据中心的冷却就绝对是足够的,而不再需要额外的冷却措施了(只要水分含量保持在所需的范围内)。

  然而,简单导入外部空气的基本方法会导致效率低下,如:这会使得热的热点或灰尘和污染物进入数据中心。这便是新的设计,如京都轮发挥作用的时候了(见图2)。

  在这种情况下,一个直径约10英尺(3米)的波纹金属轮缓慢的转动通过二室空间。数据中心的热空气流经到一个空间,将热量传递到转动的金属轮。外部的冷空气流经同时将金属的热量排出到外部空气。数据中心的冷却空气又回到数据中心以备冷却设备使用。

  数据中心的循环是封闭的,少量空气通过金属轮的旋转被转移,确保只有非常少量的微粒或水分从一个隔室与其他混合,车轮本身也部分的作为一个过滤器来使用。

  这里的好处是,京都冷却方法使用的低转速的风扇和马达仅需要很少的维护,以及极少量的能量,通常采用的是太阳能发电和备用电池。这样的系统可以持续很多年,预计低端的使用寿命是25年,而维护只需要每隔几个月进行一次快速的金属轮清洁。

  当空气温度太高,尝试用水冷却

  除了上述的这些以空气为基础的冷却方法,另一种方法是使用绝热冷却,利用水蒸发的冷却的效果(见图3)。

  在温暖的气候条件下,水冷却是非常有效的,外部环境的热量可以用来通过湿式过滤器,用于蒸发水和冷却空气。这是一个双室系统,过滤器提供外界空气与的数据中心内部空气之间的流通。然而,过滤器需要定期更换以便去除颗粒污染物。此外,空气中的水分含量可能需要调整来防止冷凝设备。

  对于那些在温暖的气候条件下要运行具有较高的热型材极端密度设备的公司,直接用水冷却可能是解决这个问题的方法之一。IBM已在过去就是使用水冷却,并在其Aquasar和liebniz supermuc超级计算机系统将该方法发展到了相当高的水平。该系统通过在数据中心内混合水和电来解决该问题:负压是用来在系统周围吸水,而不是采用泵来吸水。因此,如果发生泄漏事件,空气被抽到到数据中心的系统,而不是水。先进的传感器用来快速识别哪里发生了泄漏,而模块化结构允许在维修的同时,该系统的其余部分将继续运行。

  该系统对冷却液采用了热水流入口,这可能看起来很奇怪。但在一个针对性很强的系统,超过华氏86度(摄氏30度)的水可在运行参数内冷却CPU;出水口温度可以达到华氏113度(摄氏45度)左右。高温度的热水加上热交换器,使得建筑物的其他部分也可以得到热水。除了降低能源使用量达到40%左右,该系统可以进一步节省用来加热水的能源以供给给其余的建筑。

  硬件的冷却槽

  对于更彻底冷却液,有更加完全的系统。诸如Iceotope和Green Revolution Cooling这样的公司即提供这样覆盖整个服务器——或其他IT设备的系统,有一个非导电但高导热液能够从设备组件中带走热量。这些系统是那种运行数百个核心的图形处理单元(GPU)服务器的理想选择。或用于大规模计算高密度的热运行的CPU,他们每次可以处理超过100千瓦。基本上在机架一侧是封闭的。一些系统可以在华氏140度(60摄氏度)的液体温度条件下运行。

  风扇在这种系统中是不必要的,从而节省了更多的能源。由于所使用的液体在去除热量方面比空气或水更好,硬件可以运行在更高的温度条件下,并且允许从液体进行热回收以供给给其余的建筑。

  数据中心冷却降温之后的措施

  这些系统提供的主要冷却途径会根据各地不同的需求和不同的环境条件而不同。监测必须到位,以便狠狠的监督所有数据中心的散热。

  这便是数据中心基础设施管理(DCIM)发挥用武之地的时候了。热传感器和红外探测器可建立一个地图的热点。计算流体动力学可以在某些特殊情况下查看新的冷却流以及不同入口温度如何与不同的系统兼容。

  DCIM一旦到位,持续监控,确保迅速识别热点,允许系统被放缓、关闭,并视需要进行更换。在许多情况下,突然出现的热点表示在设备中即将发生故障。能够在这些故障发生之前迅速进行定位,意味着保证了系统的正常运行和可用性保持较高的水平。

  全球数据中心业界正在持续不断的发生着变化,用旧的冷却方式肯定是相当浪费资金的。将新的准则与新的方法相结合,能够帮助您的数据中心在维持更少的资金投入的情况下,享有更有效的冷却,同时也节约了数据中心的运行和维护成本。

  责任编辑:yayo

本文地址:http://www.jifang360.com/news/201363/n122048555.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片