机房360首页
当前位置:首页 » 数据中心资讯 » 数据中心进入“液冷时代” 浸没液冷技术驱动产业革命

数据中心进入“液冷时代” 浸没液冷技术驱动产业革命

来源:中国IDC圈 作者:Harris编辑 更新时间:2022/4/28 7:33:29

摘要:在4月26日举行的“点亮液冷绿动未来——2022数据中心液冷技术研讨会”上,中国电子节能技术协会秘书长吕天文对液冷当前的发展状况进行了介绍,并表示,数据中心未来将进行多节能技术的融合,以支撑起更多行业的算力需求。

   “伴随着数据中心节能减碳的需要与高密度数据中心的发展,液冷成为数据中心的标配,数据中心已正式进入液冷时代,其中,浸没式液冷已经发展成熟,有希望推动新的产业革命”,在4月26日举行的“点亮液冷绿动未来——2022数据中心液冷技术研讨会”上,中国电子节能技术协会秘书长吕天文对液冷当前的发展状况进行了介绍,并表示,数据中心未来将进行多节能技术的融合,以支撑起更多行业的算力需求。
    
  数据中心为什么需要液冷
  
  随着数字技术向经济社会各领域全面持续渗透,全社会对算力的需求不断提升,预计每年将以20%以上的速度快速增长。为提供更多算力,数据中心正在向高密度方向发展,数据中心规模也不断扩大,根据《2021—2022年中国IDC行业发展研究报告》,截至2021年底,中国在运营IDC机柜数量达到216.9万架。
  
  不过,数据中心属于耗能产业,其规模的扩大带来了不断增长的用电量,根据统计,截止去年5月,我国数据中心年用电量已占全社会用电的2%左右,产生了大量的碳排放。为确保实现碳达峰碳中和目标,国家及多个地方均推出了相应的政策法规及举措,对当前衡量数据中心能效利用率的主要指标PUE提出了明确的要求。
  
  《新型数据中心发展三年行动计划(2021-2023年)》表示,到2023年底,新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下;“东数西算”工程中,要求内蒙古、贵州、甘肃、宁夏,4处枢纽设立的数据中心集群PUE控制在1.2以内;京津冀、长三角、粤港澳大湾区、成渝,4处枢纽设立的数据中心集群PUE控制在1.25以下。
  
  为保证建设及改造的政策合规性,数据中心需要从多个方面进行节能减碳,其中,制冷系统耗能巨大,仅次于IT设备,提升制冷效率成为降低PUE、实现节能减碳的重要手段。
  
  传统风冷解热极限相对较低,散热效果受自然冷源、气候天气等环境因素影响大,在数据中心机房密度提高,关键芯片及相关零部件功耗不断攀升的当下,想要提升制冷效果,实现安全运维,就需要增加相关设备,用能便会进一步提高,难以满足各地数据中心对低PUE值的追求。
  
  液冷则在高效制冷方面有着天然优势。据资料,液冷技术是指使用液体取代空气作为冷媒,与发热部件进行热交换,带走热量的技术,相较于风冷技术可有效提升服务器的使用效率和稳定性。
  
  姚勇指出,相较于传统风冷,液冷具备强冷却力,冷却能力是空气的1000-3000倍,可实现超高密度制冷,这能大幅降低数据中心PUE,根据曙光实验室的数据,传统风冷的PUE值多在1.5以上,冷板液冷的PUE值可小于1.2,曙光浸没相变液冷的PUE值能低至1.04。
  
  点亮液冷绿动未来——2022数据中心液冷技术研讨会液冷特征
  
  结合相应的运维系统,液冷还能够进行精确制冷,可以实现部件级制冷,温度恒定,保证元器件高性能、稳定工作,这提升了制冷效率,有效降低了制冷成本。运营过程中,液冷没有压缩机与风扇,噪音可低于50dB,对周边生态更加友好。
  
  同时,液冷受环境因素影响小,几乎可部署在任何地区,且能够全天候提供稳定供冷,实现高效制冷。中国电子节能技术协会秘书长吕天文表示,数据中心的建设最基本的要求就是普适性,液冷对环境要求极低,只要有电力供应,网络带宽充足,在绝大多数地区都能够部署,具备极强的适应性,符合数据中心建设需求。
  
  基于以上特性,不论是出于政策合规的考量、对低PUE的追求,还是出于绿色发展的需要、单机柜功率密度对高效制冷的要求,数据中心都将大力引入液冷,数据中心进入液冷时代。
  
  点亮液冷绿动未来——2022数据中心液冷技术研讨会点亮仪式
  
  数据中心需要什么样的液冷
  
  数据中心引入液冷技术是大势所趋,但具体到企业在选择液冷时,却不能只看技术上的特性。数据中心具有投入大、运营时间长的特点,对于一项技术的应用要考虑多种因素,包括对企业效益、运维情况、整体布局上的影响等,数据中心需要的液冷,不仅是能够推动节能减碳的技术,更是能够符合企业发展需要的方案。
  
  从实际出发,技术的引入是否有利于数据中心的判断依据主要集中在两方面:
  
  一是技术成熟度,这是数据中心应用新技术的基础。数据中心对安全运营有着极高的要求,在电能、制冷等方面都应持续稳定的供应。引入的技术需要足够成熟,不能因此带来安全隐患。同时,不同的数据中心在建设、运维等方面的需求也不尽相同,新技术想要实现大范围的应用,就必须处于成熟阶段,以满足差异化的需求。
  
  二是成本问题,这是数据中心能否引用新技术的决定性因素。对新技术的引入、研发等存在成本,且对新技术的应用还会对数据中心的运维、布局都将造成影响,成本会进一步提高,而新技术带来的效益一旦存疑,企业在引入新技术时也就会犹豫,乃至搁浅。
  
  以此来看,数据中心需要的液冷技术,一方面要有足够的成熟度,另一方面则是能够降本增效。姚勇表示,随着服务器芯片的功率从100W、200W增长到今年下半年的350W、400W,服务器功耗将翻倍增长,单机柜功率密度也因此从最早设定的4KW、6KW,增长到15KW到20KW。在此种情况下,浸没式液冷能够更好地满足技术和成本上的要求,将成为数据中心制冷的主流选择。
  
  技术成熟度上,相关企业已对浸没式液冷进行了长期的实践与研究,形成了完整的贴合数据中心需求的液冷方案,并且以浸没式液冷为基础,结合不同的制冷原理研发出了节能减碳效果更好的方案。
  
  以曙光浸没相变液冷为例,该项液冷技术以液体作为冷媒,将设备内部的CPU、内存、电源系统等发热部件产生的热量通过相变换热的方式转移出IT设备,再与水做热交换,最终将热量排出,以达到良好的降温节能效果。据统计,若全国50%新建数据中心采用相变液冷技术,每年可省450亿度电,减排3000万吨二氧化碳。
  
  曙光浸没相变液冷系统
   
  成本上,据姚勇介绍,相同条件下,传统风冷数据中心投资最高,冷板液冷数据中心初投资低于传统风冷数据中心,浸没式液冷数据中心全周期成本更低,初投资仅高20%,后期运行电费降低,三年可达投资平衡。
  
  同时,浸没式液冷能有效降低运营成本,在同等IT容量40MW的数据中心中,与风冷相比,浸没式液冷节约的电费是风冷的2倍。并且,浸没式液冷可有效提升业务运营能力,在同等总进线容量120MVA数据中心上,相较于风冷,浸没浸没式液冷IT服务能力可提高18.3%。
  
  谢华根据实践还指出,采用浸没式液冷服务器,在同等规模的情况下,可大幅减少机柜数量、机房面积及支持区面积。
  
  通过一系列对比,浸没式液冷已经具备了大规模应用于高密度数据中心的基础与条件,在数据中心密度不断提高的情况下,浸没式液冷将成为数据中心主要制冷方式。
  
  液冷未来发展需要注重哪些方面
  
  凭借高效制冷、技术成熟、成本优势,液冷尤其是浸没式液冷的发展前景毋庸置疑,但想要实现继续推动技术的突破创新,推进相关解决方案的进步,需要整个行业的共同努力,这包括技术的发展以及与其他节能技术的结合,行业标准制定与完善等,需要行业领军者在技术上进行新的突破。目前,相关实践也已经有所展开。
  
  据资料显示,曙光结合液冷、微模块等设备节能技术,携手产业伙伴,引入和利用风电、水电、光伏等清洁能源,加强数据中心余热的回收再利用,并探索绿色建筑设计,以打造可持续、绿色运营的一体化数据中心。
  
  这也正是液冷技术发展的重要方向,数据中心节能减碳是一项系统性的工程,提升系能源使用比例,提高能源利用效率等缺一不可,液冷作为其中一项节能技术,需要结合到其中去,发挥自身正向作用,这样才能综合性地推动数据中心节能减排,减少成本投入,推进数据中心绿色化发展。
  
  此外,在行业标准的制定上,液冷也有了新的进展。今年4月,由中国信息通信研究院云计算与大数据研究所牵头、依托ODCC(开放数据中心委员会)“冰河”项目组研究和制定,曙光等企业共同参与编制的5项数据中心液冷行业标准正式实施,有效填补了当前国内外数据中心液冷行业标准的空白。
  
  液冷行业标准的制定,将有效推动行业规范化的发展,也为数据中心液冷的发展指出方向,为液冷的研发提供有力的支撑,为液冷接下来的发展奠定基础,从而进一步发挥数据中心液冷在高效制冷、节能减碳方面的作用。
  
  除此之外,液冷技术的发展还将继续围绕高密度数据中心展开。吕天文指出,高密度是数据中心的发展方向,其要求更加精确的制冷,结合智能化运维,液冷相关方案将实现精度更高、能好更少的运作,以此来实现数据中心算力与节能减碳的平衡发展。这有利
  
  编辑:Harris
  
  UPS,UPS电源,UPS应用,UPS供电系统

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2022428/n1879145470.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
转载声明:凡注明来源的文章其内容和图片均为网上转载,非商业用途,如有侵权请告知,会删除。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片