机房360首页
当前位置:首页 » 数据中心 » Facebook数据中心节能措施及基础架构

Facebook数据中心节能措施及基础架构

来源:机房360 作者:yayo编辑 更新时间:2011/12/6 10:23:34

摘要:在普里恩维尔,凉爽的气候将使Facebook不必过于经营制冷问题,虽然有用来冷却数据中心系统的冷却水,但需要的电量较大。随着电力成本的日益重视,许多数据中心设计组开始采用凉爽清新的空气,而不是冷水机组。在炎热的日子里,普里恩维尔数据中心将采用蒸发冷却,而不是一个冷却系统。

  Facebook表示其普里恩维尔数据中心的设计采用了LEED(领先能源与环境设计)方案,一个由美国绿色建筑委员会监督下节能建筑评级系统的黄金级标准。该普里恩维尔设施预计将有一个电源使用效率(PUE)为1.15的优秀评级。PUE值平均为2.0的表明,IT设备使用大约有50%来自建筑物电源。
  
  在普里恩维尔,凉爽的气候将使Facebook不必过于经营制冷问题,虽然有用来冷却数据中心系统的冷却水,但需要的电量较大。随着电力成本的日益重视,许多数据中心设计组开始采用凉爽清新的空气,而不是冷水机组。在炎热的日子里,普里恩维尔数据中心将采用蒸发冷却,而不是一个冷却系统。
  
  这个过程是高度能源效率的表现,更是减少空气中的水消耗的一种做法。节约用水也是自来水公司对重要的数据中心项目日益重视的一点,因为在某些情况下,数据中心的水消耗将给当地带来水资源方面的挑战。
  
  Facebook的制冷设计采纳了双层架构,将服务器和制冷设备分开,允许对服务器占地面积的最大利用。Facebook选择通过数据中心的上半部分管理制冷供应,因此冷空气可以从顶部进入服务器空间,利用冷空气下降热空气上升的自然循环,避免使用气压实现下送风。
  
  俄勒冈州凉爽、干燥的气候是Facebook决定将其数据中心放在普利维尔的关键因素。“这是蒸发冷却的理想地点,”Facebook数据中心工程主管JayPark说。过去50年来,普利维尔的温度从未超过105华氏度(约40.56摄氏度)。
  
  空气通过在二楼的一组换气扇进入数据中心。然后空气经过一个混调室,在这里冷空气可以和服务器的余热混合以调整温度。然后冷空气经过一系列的空气过滤器,在最后一间过滤室,通过小型喷头进一步控制温度和湿度。空气继续通过另一个过滤器,吸收水雾,然后通过一个风扇墙,将空气通过地板的开口吹入服务器区域。整个冷却系统都位于二楼,空气直接吹向服务器,无需风道。
  
  冷空气然后进入定制的机架,这些机架三个一组,每个包括30个1.5U的Facebook服务器。为了避免浪费,服务器也是定制的,服务器内部的英特尔和AMD主板被分拆成一些基本的必需部件,以节省成本。机箱体积比一般机箱大,这意味着能够容下更大的散热器和风扇,也意味着需要更少的外界空气用于降温。“我们去掉了所有没用的东西,”Facebook硬件工程师AmirMichael说。“稍高一点的底盘让我们能使用更高的散热片。相对常规的40毫米风扇,我们也能用更大、更有效的60毫米风扇。”
  
  布线和电源都放在服务器的前方,因此Facebook的运维人员可以在凉爽的通道维护机器,而不用站在温度高达100华氏度(约37.8摄氏度)的机器后部操作。Facebook数据中心采用定制的供电设备,可以适用277V交流电源,而不是普通的208V,这使得电能可以直接接入服务器,不需要经过交流到直流的转换,从而避免了电能损耗。供电设备由Facebook设计,台达电子以及加州宝威电源(PowerOne)生产。
  
  因此,Facebook也期望能获得类似的效益,在电力分配期间减少能源损耗,大约从目前的35%减少到15%。公司表示可以通过简化电力到服务器的方法降低电力开支。不仅这样,除了提高效率,新的设计在设备采购方面也节省了巨大的成本。因为公司不需要再购买传统的UPS和PDU系统,这样便可以节省百万美元,如果整个行业都发生采用这样的转变,那将是巨大的一个改观。

  责任编辑:yayo

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2011126/n393432093.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片