机房360首页
当前位置:首页 » 液冷技术 » 高性能计算制冷正从热耦合方式向液冷系统转移

高性能计算制冷正从热耦合方式向液冷系统转移

来源:网界网 作者:机房360 更新时间:2010/6/28 23:20:30

摘要:如今,新机柜的功率密度却要比先前高出不少:每个机柜耗电28kW,而前一代机柜的功率密度则为24kW。而且每耗一瓦电就会产生相应的热量,还必须再想办法将这些热量从每个机柜——也就是从数据中心排走。

  
液冷时代来临了吗?

有些数据中心已经开始采用液冷系统,以便解决高密度计算所产生的热源问题。目前最常用的技术就是所谓近热耦合冷却(closelycoupledcooling,也有翻译为临近耦合冷却或紧靠热源冷却的),它是将冷却后的液体(通常是水或乙二醇)直接供给一排或一个机柜中的水-气热交换器。Kumar估计,有约20%的Gartner的企业客户在采用这种液冷系统来冷却高密度机柜。

IBM的Schmidt说,装有空调的数据中心——尤其是采用大型空气处理机来应对较高热密度的数据中心若采用液冷系统的话,将会节省相当可观的能源。

但是微软的Belady则认为,液冷技术有自己的限定使用范围,那就是高性能计算。“一旦你将液冷用到芯片级,成本就会迅速上升,”他说。“很快就会有人提出这样的问题:我为何要为这种冷却方法付出更多的成本?”

Belady说,要想扭转功率密度不断增长的势头,最好的办法就是改变数据中心的收费模式。微软已经改变了它的成本定价策略,开始按照用户的耗电量占数据中心总耗电量的比例来收取费用,而不再按照楼面空间和机柜数量来收费了。他说,如此一来,“所有的讨论内容一夜之间就全变了。”每个机柜的耗电量开始下降。“当你的成本是按照所消耗的电力能源来计量的时候,人们就会逐渐失去对高密度的兴趣。”

一旦开始按耗电量收费,用户的关注点就从如何在最小的空间里获得最大的处理能力转向了如何在每瓦电量下获得最大性能。这种转向有可能导致更高密度的选择,也有可能不会,这要取决于所选择的解决方案的整体能效。另一方面,Belady说,“如果按照空间收费,那么百分之百会不断增加空间的密度。”

今天,厂商们都在设计最高的密度空间,用户们也常常愿意为更高密度的服务器支付更多的成本,因为这样能省下楼面空间的费用,他们一般不会去考虑由于增加了配电和冷却设备而导致的每瓦性能的降低。但是在后端,80%的运营成本会随着电力的使用以及提供电力和冷却设备所需要的机电基础设施的扩充而增加。
  
高温数据中心的正反两面


服务器和其他数据中心设备的运行温度会持续上升,这当然会增加冷却费用。多数IT厂商都会在温度超过24°C时提高服务器和其他设备风扇的转速,以保证处理器和其他组件的温度正常,IBM的RogerSchmidt说。

温度超过24°C时,今天所销售的大多数服务器风扇的转速会急剧地提高,处理器也将承受更大的电流。随着风扇转速的增加,电能消耗也会随之增加——一般而言,转速增加10%,就意味着电能消耗将增加33%。如果温度超过27°C,数据中心的经理们可能会认为,服务器在更高风扇转速下增加电力使用,事实上要比数据中心基础架构中的其余部分更节约能源。

先前曾在惠普担任杰出工程师负责过服务器设计的Belady就认为,IT设备应该设计成能在较高运行温度下可靠地工作。目前的很多设备已能在最高达27°C的温度下运转。这一温度值已经比2004年由ASHRAE(美国供暖、制冷与空调工程师学会)技术委员会9..9制定的22°C提高了不少。

然而Belady称,数据中心设备甚至可以在超过27°C的温度环境下工作,结果将会大大提高能源效率。

“一旦决定开始采用更高的环境温度,也就为利用室外空气打开了机会之门,你就可以取消大量的冷水机组,”他说。一些建在偏远地区的数据中心在冬天早就关掉了冷水机组,改用各种节能装置,这些装置可以利用室外空气和气-气或气-水热交换器提供“免费的冷气”。

Belady认为,如果IT设备能够在35°C高温下正常运转的话,那么美国的大多数数据中心几乎全年都能利用室外空气节能装置进行冷却。他补充说,“如果我能够在48°C高温下工作的话,那我就能在世界的任何地方不必用空调就能运营数据中心了。这将会彻底改变整个游戏规则。”遗憾的是,要实现这一目标还有不少的障碍需要克服。

Belady要求IT设备更加强壮,而且他认为服务器事实上要比大多数管理员所想象的更具有环境适应能力。他认为IT行业需要重新思考今天托管分布式计算系统高度可控的环境。

Belady认为,理想的策略是开发能够在给定的功率密度下优化每个机柜的系统,管理工作负载以确保每个机柜都能充分发挥使用效率。这样一来,电力和冷却系统资源都将能得到有效的利用,而不会出现因利用不足或者过度使用所造成的浪费。

下一步如何发展

Belady认为市场很快会出现分歧。高性能计算将会采用液冷,而企业数据中心的其他部分,以及像微软基于互联网的数据中心都将会继续采用气冷,但是会把数据中心建在空间和电力成本都很便宜,适宜于扩张的地点。

戴尔企业产品集团的CTOPaulPrince并不认为大多数数据中心会很快接近功率密度的阀值。每个机柜的平均功率密度仍然可利用空调系统来管理,而且他认为热通道/冷通道设计和冷通道控制系统会产生“超强的冷风区域”,有助于数据中心的扩容。计算密度还会继续沿着上升弧线增加。不过他说,这种增加将会是渐进的。“我不认为密度扩张在到达顶点之后会突然跌落悬崖。”

在工业光魔公司,Clark认为采用近热耦合制冷方式向液冷系统转移将是不可避免的。Clark承认,他和他的大多数同事都对把液体引入数据中心的想法颇感不安。不过他还是认为,高性能计算设施必须采用这种冷却方式。

责任编辑:kelly

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2010628/n21067539.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片