摘要:大量的数据中心关注冷却和湿度控制,大部分关心能耗,一些注重工作负载管理和性能优化,其他的关心数据中心设计和布局。 |
大量的数据中心关注冷却和湿度控制,大部分关心能耗,一些注重工作负载管理和性能优化,其他的关心数据中心设计和布局。本文主要研究现代数据中心丰富的冷却和湿度控制方式:
免费冷却
密封冷却
非集成加湿
露点湿度控制
蒸发或绝热冷却
更高的运行温度
紧耦合或者热源冷却
智能互联的冷却系统
烟囱式机柜和天花板风道
以上大部分措施的重点都在于:通过提高运行温度,利用环境空气和针对性的空气进行冷却,而不再是将整个数据中心降到不必要的低温,最终实现节省能源的目的。
紧耦合或热源冷却
紧耦合冷却方式通过贴近热源来实现更有效的运作。这不算什么新东西——问问老的大型机操作员或任何笔记本电脑设计人员就知道了。虽然紧耦合冷却在数据中心里面还是“主流”,但是更新的方法在满足能源效率的需求方面往往做得更好,并获取更多关注。它的工作方式很简单:消耗能源来将大量的空气吹入地板下的空间或者导风管,然后又将这些空气拉回至空调。
更有前途的技术包括浸入式冷却:将服务器整个浸泡在矿物油里,以便使用最少的能耗获得极高的冷却效率。但是技术人员需要对内外布满了石油的服务器进行处理时,心里会怎么想?显然这种冷却方式并不是适合所有场景。
天花板冷却的历史已经超过十年,正在经历新的演变,尤其是演变成为行列冷却方式。我们会继续改进行列冷却系统的设计和实现,行列冷却可以应付大部分环境,更强的冷却需求则由直接液体冷却接管。直接液体冷却很久之前就过时了,但近期又回归主流。水带走热量的能力比空气高出3500倍;随着更强大的处理器进入市场,液体冷却几乎是无法回避的选择。液冷技术老树开新花,让水进入数据中心也不失为一种选择。
后门冷却器被人们接受的程度也非常高,部分也是因为水冷方式重新受到关注。如果将巨大的机房空调系统取消,改用贴近设备的新型冷却方式的话,相信数据中心行业会运行得比现在更好。教育背景和希望与众不同的个人意愿或许会促生新案例,但成本和电源可用性的矛盾将决定最终结果。
更高的运行温度
美国供暖、制冷和空调工程师协会(ASHRAE)在2008年就第一次发表了关于较高温度数据中心的建议,但并未引起注意。服务器不需要冷藏。即使入口空气温度达到华氏75到80°F(摄氏25至27°C),这些设备仍然能维持良好运作。服务器制造商实际上已经扩展了产品的运行温度范围,而且旧设备其实也和新设备一样能够在扩展的温度区间内运行。提高运行温度可以大幅度节省能源消耗,但人们首先需要认可这种处理方式,然后同意让热通道变得更热——想像一下100°F (38°C)的温度怎样?这会刺激后门冷却器的应用和普及。