机房360首页
当前位置:首页 » 数据中心资讯 » 数据中心机房的改造

数据中心机房的改造

来源:网络整理 作者:DJ编辑 更新时间:2018/9/12 14:46:29

摘要:数据中心机房的扩展问题:新的数据中心机房根据现有需求考虑5-10年的扩容,为数据中心的设备扩容预留一定的空间。

  数据中心机房的扩展问题:新的数据中心机房根据现有需求考虑5-10年的扩容,为数据中心的设备扩容预留一定的空间。

  环保型数据中心

  数据中心线缆的铺设和使用扩展问题:建设一个数据中心需要一个很长的过程和一个很长远的计划,所以无论从线缆的选材,设备的选材,将来数据加载的速度和容量的使用方面都要做好计划。机房内强电、弱电线槽由下走线改为上走线,地板下空间作为空调静压箱。使用机房内网络的传输介质要求不同,当数据传输大时网络速度就越慢,对整个机房网络全部重新敷设是不现实的,但对机房内网络主干线进行改造是必要的。这里可以选择6A类布线系统,第一它的速度可迅速提升到一个新的高度,达到千兆网络,同时6A类布线系统自身的质量特性就能屏蔽强电的回波损耗和干扰,可保证信道的整体性能长期处在最优状态。

  数据中心机柜的改造:数据中心机柜的占用面积是最大了,如何更合理的安排机柜的位置和尺寸,对于空间的利用力和设备的使用和维护有很重要的关系。机房内的网线部分与电话线部分分开布线,即左侧全部走网线,右侧全部走电话线,然后将线缆每个1.0m进行绑扎,防止线缆相互拉拽而产生损坏,这样可以有效地减少近端串扰;规范布线,对出现氧化层或者卡头松弛的水晶头重新制作,这样可以有效减少网络通断故障的发生,更减少回波损耗造成的干扰;清理废弃线缆,这样既可以节省网络资源,也便于机房管理人员进行控制。机柜就比较整齐、简洁,同时也方便机房管理人员查找线路,且减少物理层面间的网络信号干扰。

  数据中心空调系统的改造:建设机房时都考虑机房内设备运行环境的洁净度和湿温度等,但对于老机房,其空调考虑冗余较少,且随着机房内设备的增加,机房内的热负荷会越来越大,原有的空调设备已不能满足机房建设要求。

  数据中心供电系统改造:根据用户的需求及设备的重要性,对主机房内的设备至少配置两路供电系统,当一路供电系统发生故障时能及时切换到备用电路,保证数据传输不中断;对于断电后造成重大损失的机房设备,在考虑设置冗余UPS不间断电源外,还需要考虑柴油发电机,当供电系统运转正常,柴油发电机组处于待机状态,一旦两路市电都中断时,系统能马上切换到柴油发电机:市电恢复时,机组自动退出运行。

  改造方法

  一、设计一套机房整体监控系统

  图IT设备负载变化曲线

  从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。

  机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。

  结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的同时确保设备安全。

  二、建立机房散热及气流组织模型

  由专业的散热工程师利用计算流体动力学(CFD)技术,针对中心机房空调气流组织特性的数值分析与模型实验,深入分析中心机房内部的气流速度场、温度场分布,并在此基础上得出合理的冷量调配设计方案,获得最佳的送回风状态,满足设备的散热需要,同时使空调负荷降低,得到最优冷量配置的效果。目前主要通airpak或fluent模拟软件进行实现。

图机房CFD气流组织模拟图

图机房CFD气流组织模拟图

  三、针对机柜添加盲板

  机房一部分机柜内,由于设备数量较少,导致冷风从机柜下部向上进入机柜后,很大一部分冷风未经过设备直接进入机房内,这样就导致了空调的送风短路,使空调的制冷效率大大降低。

  采用封堵风道的方式减少风的短路,提高空调的制冷效率。具体办法是在机柜内没有安装设备的空间安装盲板,使冷风只能通过设备再送到机房内。

图机柜增加盲板气流组织示意

图机柜增加盲板气流组织示意

  四、针对机柜安装主动送风元件—ADU

  传统的地板下送风空调由于送风距离较长,送风效率低,因此会导致出风口冷量及风量不足,不能满足设备散热需求。

  针对此种情况,在出风口安装主动出风装置—ADU,ADU上装有两个或四个EC风机,风机可以根据机柜的负载情况进行转速调速。通过这种主动送风装置,可以提高空调送风效率,这样就可以在满足制冷量及风量的需求情况下,减少空调开机的台数,达到节能的效果。

图机柜增加地板ADU气流组织示意

图机柜增加地板ADU气流组织示意

图ADU模块效果

图ADU模块效果

  五、针对机柜进行冷通道封闭

  传统的地板下送风形式的机房专用空调,属于弥漫式送风。这种形式容易造成气流短路及送风量不够的问题,导致空调的制冷效率很低。

  现可以采用冷通道封闭的形式,将冷热气流相互隔离开来,防止气流短路及冷热风相混合,这样可以大大提高空调机的制冷效率,在能够满足机房设备正常散热的情况下,关掉一部分空调,这样便可以达到节能的效果。

  六、机房添加新风系统

  目前许多大型的数据中心,利用新风系统实现节能方案。机房内由于空间密闭,设备发热量较大,精密空调需要全年24小时不间断运行,制冷、加湿工作时耗电量大。利用引入新风和焓值控制技术,可在春、秋、冬季引入室外低温空气,关闭精密空调,同时在保证温度、湿度和机房洁净度的前提下,达到节能的目的。

  七、针对机房精密空调进行改造,使其具有自然冷却功能—采用氟泵节能系统

  传统的地板下送风机房空调,在冬季室外环境较低的时候,仍需要制冷,不能充分利用室外自然冷源,节能效果较差。针对这种情况,可以针对空调系统进行改造升级,在原有的空调系统上添加氟泵机组,通过控制系统,使其在冬季外界环境较低的时候,关掉压缩机,开启氟泵系统进行制冷,因为氟泵较空调压缩机相比耗能较少,所以以中心机房为例,进行改造后,空调大约每年能节省20%的电能消耗。

图氟泵空调系统原理图

图氟泵空调系统原理图

  八、高速迁移技术

  高速迁移(HSM)是一种可帮助网络提供更多数据,使管理人员能够面向未来网络的技术,并为他们提供所需的运营保证。以下对高速迁移(HSM)的需求,以及如何规划和实施高速迁移(HSM)进行阐述。

  1、什么是高速迁移(HSM)?

  高速迁移(HSM)就是具有更高的性能和更大的容量的数据中心网络。所设计的高容量物理层基础设施系统将持续使用多年,采用全新的基础设施设计方法,并展望尚未部署在数据中心的新型高速光学系统。高速迁移(HSM)融合了多模和单模光纤技术的最高带宽和最低损耗。高速迁移(HSM)平台是一个完整的产品组合,全部支持更高速的数据中心连接,具有最高的配置灵活性:

  可互换的8芯、12芯和24芯光纤MPO模块支持任何应用,无需强制管理员重新配置其光纤干线。

  超低损耗单模和多模光纤可最大限度地提高现有基础设施的损耗预算和生命周期。

  OM5宽带多模光纤可实现100Gbps及更高距离的双工传输。

  2、成功的策略

  1. 了解选项并了解自己的目标

  企业需要很好地了解其正在使用的距离和光纤类型,以及需要多少带宽。例如:

  企业拥有一个小型数据中心,是使用点对点布线,还是需要重新配置和测试点?

  需要什么样的容量以及期望的增长曲线?

  应该需要什么网络速度(25,40或50千兆位),以及100和400千兆位?

  实现未来的网络速度有很多途径。多模光纤(MMF)最近已经取得了创新性进步。例如,OM5(多模)光纤的容量是OM4光纤的四倍,同时保持了传统的兼容性。当使用OM5 MMF时,新的光学收发器允许以超过400米的链路距离以更高的速度(100Gbps)进行传输。在保持结构化布线设计的同时,支持更长距离的更高速度是一项挑战。

  大部分决定取决于企业何时开始其旅程。短短几年前,40千兆位被认为是下一个“高速”光纤。但如今100Gbps光纤已经迅速取代了这项技术。交换机技术和光学技术的结合已经淘汰了40G光纤的应用。

  2. 了解自己的成本结构

  衡量成本与各种选项的好处,然后选择经济高效地满足企业目标的光纤类型和连接解决方案。结合布线供应商提供的计算器可以帮助完成此过程。

  3. 灵活性计划

  设计使企业可以选择使用8芯、12芯或24芯光纤束,以便在通向更高带宽的每一步正确选择基础设施。例如,如果一家企业拥有12芯光纤基础设施,并决定转向只使用8芯光纤的应用(例如100Gbps 4×5解决方案),那么它应该制定策略来优化其光纤基础设施的使用,同时保持100%的利用。该设计应该支持各种光纤类型和增长策略,以匹配未来的应用。然而并没有一个通用的解决方案。

  4. 结合模块化

  企业选择可以接受各种光纤模块的面板,以便随着数据中心技术的发展而发展,它将拥有一个通用的外壳,技术人员可以简单地交换模块以提高数据速率。在理想情况下,布线和外壳只部署一次,而仅仅是需要改变的端点以移动到更快的速度。

  5. 管理当前和未来的基础设施

  基础设施管理(AIM)工具可以清晰地显示企业的基础设施,帮助其了解容量,并了解阻塞点的位置。除了长期拥有更健康、更易管理的基础设施之外,此信息还可让企业更轻松地做出明智的选择,并快速响应中断。

  6. 了解迁移时间框架

  如果企业迫切需要,但数据中心仍然必须再次升级到更高的速度,或许比人们想象的更快。明智的选择可以帮助企业尽快到达目的地的路径和供应商。鉴于新的实时服务需要更高数据中心容量,企业的高速迁移(HSM)路径应该准备好并等待应答呼叫,同时保证支持能够扩展容量的光网络应用。此类保证简化了规划和迁移策略,同时利用企业在数据中心基础设施中进行的投资。应用程序保证跨越整个物理网络层,但也重点关注光网络链路的保证支持。

  综合以上几种节能改造措施,对于老旧数据中心因地制宜、发现问题,分析出最恰当的具体解决方法,并通过高智能化的监控和精细化管理维护,在保证高可用性和高可靠性的前提下,最大化实现数据中心机房的环保改造。

  责任编辑:DJ编辑

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2018912/n9829108291.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片