机房360首页
当前位置:首页 » 工作组动态 » 集装箱数据中心冷却系统比拼升级

集装箱数据中心冷却系统比拼升级

来源:数据中心工作组 作者:Mary编辑 更新时间:2011/5/9 17:12:07

摘要:据国外媒体报道,惠普已经开发出一种面向集装箱式数据中心的“超级冷却系统”。该公司表示,该冷却系统将会比当前市场上的任何一款冷却系统都要出色。实际上,很多厂商在其集装箱数据中心产品的冷却系统上,都有各自的独特设计。随着冷却系统设计的比拼不断升级,未来针对集装箱数据中心,更新颖、更高效的冷却方式值得人们期待。

  惠普集装箱数据中心

DatacenterDynamics首席技术官StephenWorn表示,惠普的“超级冷却系统”由2个20英尺柜背靠背组成,每个集装箱顶部分别有3个直膨式(direct-expansion,Dx)散热冷却口,而且还它拥有超乎常规尺寸的进气口。通过Dx冗余/自适应可以实现超大尺寸的自由进出气口冷却,可以满足超高HPC负荷管理的需要,但至于采用什么样的冷却液体,目前还不清楚。

据称,该冷却系统将会比当前市场上的任何一款冷却系统都要出色。但惠普并没有透露该系统的任何细节,只强调说该系统将完全不同于当前市场上的冷却系统。

此前,惠普集装箱数据中心产品中的冷却系统,设计为在集装箱盖顶上装有4个可变速风扇,每个机柜配置测温感应器,风扇速度可根据每个机柜的实际温度进行调节。


  “PatentCloud”集装箱数据中心

  实际上,很多厂商在其集装箱数据中心产品的冷却系统上,都有各自的独特设计。比如,4月份的2011英特尔信息技术峰会(IDF)上,富士通和英特尔联合推出的“PatentCloud”集装箱数据中心首次亮相,该数据中心就根据北方气候,进行了特殊设计,如果集装箱数据中心内温度低于25摄氏度,冷却系统将停止制冷而直接将外部冷空气引入室内,形成对流。


思科集装箱数据中心

而在思科刚刚发布的第一个集装箱式数据中心里,也有独特的冷却系统设计——其水冷系统位于集装箱地板的机架下方,利用机柜底部的冷却管使热气流降温,再通过每个机柜背面3个大型的风扇使气流不断地循环,保证整个机柜温度不会过热。


  此外,充分发挥了思科长项的管理工具(思科数据中心操作360),也帮助用户实时监控机架温度及其他变化因素,并为每个机架设定所需的温度范围,软件可以相应地调节风扇速度和水流大小。

  浪潮集装箱数据中心

  国内产品方面,浪潮4月份发布了Smartcloud云海集装箱数据中心,其冷却系统名为Balancecooling,采用水平循环设计,不仅整个集装箱通过内部的冷热风道隔离,水冷管线和IT设备也完全物理隔离,并设计在集装箱底部,确保了计算单元的均匀冷却,减少了局部热点死角。



  供应商们经常提供的数据是,由于制冷设计的改进,集装箱数据中心比传统数据中心节省80%的冷却费用。
尽管该数据有一定水分(将高密度的集装箱与低密度的传统数据中心比较有失公允),但集装箱数据中心全封闭、冷热通道隔离的天然特点,的确减少了冷空气的消耗,大幅提高了整体冷却效率。
特别是在ActivePower、APC、EMERSON等基础设施设备厂商,也纷纷加入到集装箱产品的战场后,使得冷却系统的设计得到了进一步提升,水冷机柜、自然冷水源、水不进机房的风冷方案等轮番上阵。
随着冷却系统设计的比拼不断升级,未来针对集装箱数据中心,更新颖、更高效的冷却方式值得人们期待。

责任编辑:Mary

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/201159/n126720507.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片