国家绿色数据中心试点评价指标体系

 

主办单位:2017中国国际大数据产业博览会组委会
承办单位:中国电子学会
                    国计算机用户协会机房设备应用分会
指导单位:工业和信息化部节能与综合利用司
                    国家机关事务管理局公共机构节能管理司
                    国家能源局油气司
支持单位:中国电子技术标准化研究院
                    广州赛宝计量检测中心服务有限公司

现场图文直播报道
5月25
会议结束,谢谢!
18:12

主持人(郭丰) 主持人:感谢汪总精彩发言,非常感谢各位来宾的坚持。我们希望活动能带来一些收获,不枉我们这段时间的努力。谢谢大家!

18:12

汪德明 我的汇报到此结束,请大家批评指正!


18:12

汪德明 这是地方的认证报告,是工信部赛宝中心测试,一个是广州院做的测试报告,测试将近两年时间。这是我们企业近年来获得的一些荣誉,给大家做简要的展示。我们整个知识产权是成体系的,目前专利已经全面受到保护。这是我们得到的国家发改委的入选目录(2015年)。这是去年国家工信部把我们列入绿色先进适用技术推广目录。这是绿色数据中心技术委员会南方工作组授权文件。这是广东省把我们列为节能技术推荐目录。这是广东省第一批运期创新产品与服务平台,把我们作为推广产品。


18:12

汪德明 总结一下,技术经过这么多年的适用,大概有十个方面的技术总结。第一是无液体进入机架,可靠性非常高。第二是气流组织管理及冷热交换更合理更精确。第三,采用公共冷源,无局部热岛、无备份的难题。第四无复杂管接,维护更简便高效。第五,良好的节能效果降低了运营成本,提高了收益。第六,中高密度的装机容量对比投入成本低。第七,自然冷源利用及新风系统智能管理。第八,利用均力基架技术,提高单位面积负荷能力。第九,有效降低地板静压箱高度,提高机房使用空调。一般像三大运营商的机房架空地面,我们看了腾讯数据中心,已经达到80公顷,我们上次给他做了预测,如果建设初期可以采用我们的技术,60公顷可以保证需求。第十,增加装机密度,节省机房空间,提高单位面积的使用效率。

18:12

汪德明 整个技术的特点大概有这么七项,安全可靠高效节能是我们技术的特点。是通向末端的新技术,首先机柜是独立的,实现设备工作负载定控,一旦设备出现温度过高或者电压过大时,会自动报警。第二是机柜独立的动态均衡送冷控制模式,保证精确风能,按照你的需求定点进行送冷。第三,机柜采用双模双备系统,双系统备份,一旦一个系统出现问题就启动第二个系统,这也是保证安全比较可靠的技术。第四就是独立的等离子技术,规避了因湿度低,导致的静电对设备的危害。第五是独立的灭火系统,每一个机柜都有独立的灭火模块,今天上午好像也有单位讲了自动灭火模块,原理跟我们可能有点雷同。第六就是精细化管控平台,管控平台不但可以管还可以控,管到每个支架每一台服务器的工作状态,这是管的远程平台。控怎么控?哪个地方出现问题了,可以通过综合管控提示你什么时候要提升多少量,点对点进行设备更换与维修,提高安全性。第七,智能模块能降低能耗30%以上,节能效果非常明显,大大降低了IDC空调系统的能耗。

18:12

汪德明 重点介绍一下AIE跟现有技术的对比图。节能效率,从目前的综合送风、冷热通道封闭、柜间空调等也好,我们的优势能明确体现出来。送风回风动态控制非常好,智能管控非常好,以及独立灭火控制,精确管控可以管控到末端每一台系统,安全风险预警,怎么实现安全?必须要在风险故障之前,某一个预警系统进行阻断,比如说感冒了提前吃感冒药。送风方式是二维动态,也是我们研发的特点。静电消除技术,其他技术一般很少有静电消除技术,我们采用物理隔离,把静电消除技术在前端就隔离掉了。另外空间利用率非常高,扩展升级也比较容易,工作环境舒服,机房工作对人体没有伤害,比较舒适。

18:12

汪德明 AIE系统,二维动态风冷技术有这么一个曲线图,这不是凭空想象的,根据中科院现场测量的数据,到湖南中大测试出来的曲线表。我不做过多的解读,因为这个曲线表也有权威机构出来的检测报告。

18:12

汪德明 AIE系统,二维动态风冷技术有这么一个曲线图,这不是凭空想象的,根据中科院现场测量的数据,到湖南中大测试出来的曲线表。我不做过多的解读,因为这个曲线表也有权威机构出来的检测报告。

17:45

汪德明 这是刚才有专家讲到的自然冷源利用。空气净化度,去二氧化硫是一个庞大的工程,机房里要达到人体工作环境的空气标准,要求非常严的。我们这个技术发明专利是3月份授权的,主要是利用反向控制技术加上末端机柜二维动态送风系统达成,保证机房工作人员的工作条件。目前我们正在做样品,没有具体推广。

17:45

汪德明 这是反向控制技术。今年6月份刚刚拿到发明专利。为什么叫精确供冷?根据每个单机柜能量需求,通过末端了解前端需求多大能量,这也是通过一个控制软件把末端管理实现反向控制。目前运行状态比较稳定,我们做了3个机房,64个机柜。因为小型机房体现不出节能效果,只有利用在大型机房,反向技术才能体现出节能效果。前面专家说哪台该休眠就休眠,就是通过末端系统来控制的,这项技术已经拿到发明专利。

17:45

汪德明 这是第三方能效认证。这个产品列入广东省长远节能产品的采购栏目里,检测也是第三方权威机构对我们的评估。目前在广东省公安系统和部队系统里应用比较多,PUE值控制在1.5以下。这是全封闭动态送风系统的示意图,这个系统为什么敢讲安全节能?安全首先我们利用了公共冷源,一般情况下,一列机柜发生问题时不会影响整个机柜的影响,中间有一个静压箱,根据智能网络系统,根据中层低层高层不同的温度需求,定时对服务器进行冷却。

17:45

汪德明 这是精确管控平台,也有很多专家谈到,我们是通过末端每一个信息点,通过精确管控可以管控到每个机房温度多高,每个区域温度多高,包括火警运行情况。里面单个灭火系统通过智能控制模块,一旦发现机柜有过热或者超出标准值之外,马上启动灭火系统,把整个单机柜全密封封闭起来,利用灭火系统进行灭火,这也是单机柜灭火的关键技术。

17:45

汪德明 这是中高密度的中间模块,一维动态送风就是静压箱,可以保持服务器冷却时只要在经常范围内,不会使用第二维,只有局部出现过热(顶部或者顶部)就会出现二维送风,实时按照能源需求进行送风。这也是我们研发的核心部件。第三个就是在线改造模块。很多单位说这个技术究竟行不行?怎么改?我们也在前期做了很多实验,我们给部队小型机房做了改造,原来PUE值超过3.2,改造以后这个机房降到1.6,原来一年电费用量是1700多万,改造以后电费是两到三百万。我们没有大规模推,我们在前面加一个冷模块,后面加一个热模块,底部二维管理系统,通过软件硬件系统进行系统改造。目前正在推广当中。

17:45

汪德明 数据中心末端供冷技术,我们提出了四个级别,即房间级、行级、机柜级、元件级,我们主要研发方向就是对机柜级进行精确送冷。我们有三个产品,第一个产品是标准产品。装机容量是4到6克,系统功耗小于80。地板下自动精确的功能系统,根据每个单机柜容量、负载情况,通过控制板块自动分发,需要多少能量可以从大的功能池按实际需求进行提供。你需要吃多少就给多少,这是我们节能的主要关键技术。这是中高密度,刚才很多专家提到,中高密度是行业发展的趋势,根据中高密度,机柜的冷却讲了很多技术,包括液冷技术等。我们这是均衡动态送冷技术,我们是封闭的,而且区域分成三成,分成三个模块送风,中层低层高层。大家看最大装到一个单元12千瓦,二个单元装24千瓦,我们已经在公安系统指挥中心机房装了六个,两个机柜装了16千瓦,通过两年多的测试,PUE值在1.3左右。这项技术是我们六年多不断研发得出的经验,2015年公示,2016年推出市场,中高密度为什么推不下去,也受到了很多影响。三大运营商最喜欢的功率密度是2到4千瓦,去年跟电信签的合作协议,他要求我们建的是4个4个千瓦,中高密度推行是特殊的客户,特别是中央部队小规模系统用得比较多,我们现在也瞄准这一块。


17:45

谢谢各位专家,在座的每一位男士、女士,时间关系我简要介绍一下。之前有华为做了汇报,我们广州汇安是小公司,成立时间比较短,我们汇报的题目是绿色节能。今天有机会到这里汇报,也非常感谢组委会给予我们机会。我们公司成立28多年来,主要从事军队和公安系统的数据中心进行改造。2006年就进入大型数据中心节能技术的研发。近几年,在部队和公安系统已经做了16个小型机房的样板,我后面也会进行汇报。我们这个小公司在学会的帮助下,也成为了国家绿色数据中心标准委员会的成员单位。去年还和广州电信研究院成立了南方气侯工作组标准制定,我们今天简要地把公司情况做一下汇报。下面主要汇报动态均衡送冷技术。这个饼图不用讲了,能耗占有比例,如图显示50%是设备电耗,南方地区、北方地区,区域不一样,空调能耗标准不一样,所以这个图就不实时分解了。


17:32

广州汇安科技有限公司总经理 汪德明


17:30

主持人郭丰,谢谢各位专家所分享的真知灼见。相信各位听众都和一样觉得意犹未尽,受益匪浅。但是时间所限,如果大家有兴趣,后续我们可以就这个话题组织专门的讨论。下面我们继续进行主题演讲。冷墙全新风技术是最近大家比较关注的技术,下面我们有请广州汇安科技有限公司总经理和我们一起分享务实创新 绿色节能—数据中心机柜级动态均衡送冷技术。有请汪总。

17:25

今天我就这两幅图把我们想做的全新风和化学过滤做汇报,感谢各位!

17:25

叶扬 我用这张图来给大家解释一下我们的冷墙加全新风的技术应用。实际上这个冷墙加全新风的应用在以美国为首的数据中心行业已经有很多年,在中国也不断有人尝试着应用。它的机理并不复杂,要把全新风通过过滤引入到机房,然后在适当的温度条件下停止冷机工作,这个应用机理是一点都不复杂。它的核心技术难点是两点:第一,在控制系统上,不但要考虑温度的条件,同时还要条件湿度的条件,所以我们自己开发的全新风的这套控制系统就基于这样的条件,实际上是用在寒值控制这个东西,保证了全新风系统能非常安全地进入机房。举个例子,如果送风温度是24度,现在室外温度正好是24度,是不是能把它引进到机房呢?要分不同的条件。比如说24度下雨,这个时候你就不应该把高湿的空气引入机房。但如果是20度下雨,这个时候你就会有弱风的二次混风,就可以引入机房,这是一个技术难点。另外一个技术难点就是过滤。过滤又分为两个情况,第一个物理过滤,第二是化学过滤(最困难),物理过滤可以用传统过滤方式,也可以用高压水务过滤,在电子厂房暖通技术上早就通过了,有十几年的应用,化学过滤是更难的难点,我们自己研发了专门的化学过滤系统。化学过滤我们有自己的测试平台,完全能够达到G1以二氧化硫作为标志物的PPB10以下的标准,这个测试平台对全球公开,自己的化学过滤技术也在全球申请了专利。这个平台就在上海,如果有可能、有机会,我们希望业内的人士可以公开到平台上进行测试。任何厂家、任何人都可以在平台上进行化学过滤测试。化学过滤阻力只有65帕,我们以18000千瓦的IDC为例,除去化学过滤每年消耗成本,一年净节约的电费是1400万。这个报告我也对整个行业公开。

17:25

叶扬 这是化学过滤,跟全新风连带的非常有效的一个系统,是全新风的基础技术。化学过滤用在数据中心里不光是为全新风,也为内循环,我们知道数据中心非常脏,EDC用户特别希望有健康的运维环境,化学过滤去除了油化物以及对人体有伤害的物质。 冷墙是我们今天最主要的介绍议题,我就这张图给大家介绍一下我们在中国几个项目的冷墙实现,以及它的效果。冷墙严格来说就是变种的集中空调,需要匹配一定是热通道封闭。给用户带来几点优势,第一在同风量条件下(请注意一定不是同冷量),我们比相同机房空调电力消耗至少节省30%,这个数据是实测数据。比如说一个180千瓦左右的机房空调,三台EC风机功率可以达到8到6个千瓦,实测数据可以达到4到5个千瓦。你给的空调间面积相同的情况下,机房空调不可能支持这么高的冷冻水温度。由于它能支持如此之高的冷冻水的温度,它为各种类型的自然冷却打了基础条件。比如说支持20到25度冷冻水温时,全新风开启条件可以到27度,甚至更高。即便用非常传统的自然冷却来进行设计,它的需求温度也可以在十二三度,这是一个非常有价值的技术。它配合了热通道的应用以后,也为无地板的数据中心的建设打下了基础,现在很多客户由于利用了冷墙技术,已经不再需要静电地板。

17:25

叶扬 我们做了一些BA界面。我们有自己的BIM团队,这是冷墙的BIM系统,这是真实已经实施完的现场,我们是用冷墙来做的。我这里也想插一句,刚才中金朋友在说的时候我特别有感受。BIM设计如果没有真实的施工尺寸图,如果不是真实的应用,这个BIM设计就不行,我们深有体会。我们这完全是真实图纸,每一个阀门都带有真实尺寸,但即便是这样,这个项目做完以后我们马上接手运维,但既使是这样我们发现BIM做得还不够精与完整,为什么?温度压力等等传感器的点位没有完全放在上面。当我们自己做运维的时候,我们发现自己的BIM设计还不够精细。这是我对中金领导说的话非常非常感同身受的地方。


17:25

叶扬 我们在稍后会细说冷墙,在这儿过一下。这是全新风系统。另外在中国做了第一个大型纯工厂预制化的数据中心。可以看一看传统的数据中心应用施工过程,这是我们在深圳做的纯预制化数据中心,整个大型IT模块配电模块预装在支架上,然后推送进机房,这个时候跟传统现场混乱施工就不一样。今天没有时间更多地探讨这个问题,实际上我认为,这样一个施工模式也是一种绿色数据中心,而且是从根上解决绿色数据中心的一个办法。 再说一句,我们这个逻辑其实跟微模块不一样。如果非要比对,我们应该是一个超大型的大模块。整个模块做好以后,IT模块上架,然后被推送进完全经过洁净处理的机房。我们做得另一个东西是冷源群控的PLC系统,完全没有采用民用的DDC系统,而是用了PLC,而且用的双冗余备份和光纤互通。刚才中金领导说,他从运维角度谈了很多问题,我们感同身受。我想从另一个角度来提,类似配电系统的设计,我们的经验一定要以终为始进行设计,我们的目标指向是全无人职守,实际上也应该能做到,只不过我们的思维、设计方、实施方、业主方,在目前都需要一定的进程才能把这件事落到实处。比如说,我们极早期的部件级的运维的报警,甚至不应该叫报警,极早期部件级的运维提醒,如果通过自学习型的BA系统都是应该可以实现的。事实上我们已经做了一些这方面的尝试。我觉得这个问题在技术上,更大的问题不是技术本身,而是思想。就是说我们的运维,现在还是在依靠师傅巡检,大家认为加人加巡检是一个有效的方式。其实我们认为应该更多地依赖自学习型系统。

17:15

叶扬 宁夏中卫我们做了一部分工作,冷风系统和加湿系统,这个项目是真正投入运行的大型数据中心的全新风系统,完全用全新风系统,其中化学过滤器是自研,而且在那里做预留。这个全新风系统是真正投入运行的。当然我们还做了一些小产品,热通道的封闭,通过颜色进行标明,不细说了。冷墙是我们想重点跟各位分享的一个系统,为什么要用冷墙替代传统的空调,这是很多朋友首先要来的问题。冷墙的应用是以美国为首的IT界十年前大量应用这个东西,当负载超过五千瓦以后,空调已经不足以抵抗热负载,另外数据中心行业越来越对PUE值提出更高的要求,传统的地方空调对PUE没有办法做到降低,所以冷墙应运而生。

17:15

叶扬 我们做的是数据中心的制冷系统的全集成服务,另外在这个过程中,我们做了一些自己的产品。我们做了IDC工厂预制化解决方案,我们工厂研发了一些跟此相关的产品。这是上海宝之云数据中心,这几个大罐不是节能蓄冷罐,峰值抵消八个小时。 这是我们三年前在中国做的一个项目,用的是纯原装的磁悬浮冷机加自然冷却系统。这是在长江流域做的非常小型的数据中心,只有200个机柜,这是7年前在上海一个小型机房用了自然冷却系统,那个时候在华东的PUE就能达到1.5以下,而且是风能的系统,当然当时我们也比较前卫,7年前水温已经提到15到20度。

17:15

上海科力玛数据科技有限公司总经理 叶扬 非常感谢来参加会议!在此之前我介绍一下我们公司是做什么的


17:15

主持人(郭丰) 谢谢各位专家所分享的真知灼见。相信各位听众都和一样觉得意犹未尽,受益匪浅。但是时间所限,如果大家有兴趣,后续我们可以就这个话题组织专门的讨论。下面我们继续进行主题演讲。冷墙全新风技术是最近大家比较关注的技术,下面我们有请上海科力玛数据科技有限公司叶扬总经理和我们一起分享冷墙全新风技术的最佳实践。有请叶总。

17:15

罗志刚 好,谢谢的圆桌论坛到此结束,非常感谢五位专家,谢谢你们!

17:15

康楠 绿色节能、节能减排已经是国际国内的一个共识。现在对于数据中心来说,节能确实是数据中心建设里面要重点考虑的问题,前段时间参加了一个国家科委数据中心节能示范工程里面用到一些新的节能技术。对于用户来说可能更关注的是技术成熟度、成熟性,但不采用新的技术又很难解决下一步的问题。比如说由于云计算技术的发展,目前来说,单机柜容量越来越高,用传统的方式解决高密度、高热、高集中的问题时,就很难控制,就要采取相应的新技术才能实现这些功能,才能达到绿色节能的效果。所以绿色节能、绿色节能的评价工作,对于数据中心长周期安全稳定运行以及建设理想的数据中心尤其关键。新的技术要使用,但是要在安全的前提下做好充分的验证、论证、实践,采用先进技术达到应用系统对数据中心高负荷的使用条件的满足。

17:15

王超 我们现在就在参加三部委组织的示范基地的测评工作,因为那年评定完之后,全国选出50个示范数据中心,我们有10个,这两年在节能应用技术以及日常监测等方面做了大量的工作,我觉得这个必要性是非常强的,而且绿色节能成为联通对客户宣传的一个名片,不像以前只是一个价格竞争,现在这块也是技术的先导性,同时也是一个品牌和能力的象征。我们下一步会继续做好这个工作,在节能技术规范编制方面,企业标志编制过两版,也是在工信部的指导下,然后我们也在做一定的技术跟进。原则上还是刚才所说,成熟的、应用场景比较多的,承担的责任会小一些的,我们会大面积直接上马,马上就组织上马。这一块技术推动工作会继续坚持下来,希望我们的运营商能更快转变思路,走出原来比较固步自封的状态,尤其有一些实验的机房,我们能够更多地参与,形成应用案例。

17:15

我们现在就在参加三部委组织的示范基地的测评工作,因为那年评定完之后,全国选出50个示范数据中心,我们有10个,这两年在节能应用技术以及日常监测等方面做了大量的工作,我觉得这个必要性是非常强的,而且绿色节能成为联通对客户宣传的一个名片,不像以前只是一个价格竞争,现在这块也是技术的先导性,同时也是一个品牌和能力的象征。我们下一步会继续做好这个工作,在节能技术规范编制方面,企业标志编制过两版,也是在工信部的指导下,然后我们也在做一定的技术跟进。原则上还是刚才所说,成熟的、应用场景比较多的,承担的责任会小一些的,我们会大面积直接上马,马上就组织上马。这一块技术推动工作会继续坚持下来,希望我们的运营商能更快转变思路,走出原来比较固步自封的状态,尤其有一些实验的机房,我们能够更多地参与,形成应用案例。

17:15

张学伟 我说两句,为什么我们公司做这个?觉得未来大密度发展肯定是趋势。在这个过程中,我们发现水直接进机房大家很担心,所以现在做的都是渐进式,采用热管导下来,使有一个水环路,水环路已经很低,遇到问题的时候,水量比较小,不会出现大量的机房淹没。我们希望从低密度一点的间接方式做一个示范,将来能更好的推广,希望我们的努力能加快进程。

17:15

李棒 液冷是一个趋势,目前来说,首先来说密度也不够,第二个大家对液冷的认可确实还不够。成本方面,因为整个生态链,有一些技术在成本方面有一些差别。但从整个技术发展来讲,我们认为趋势肯定是存在的,从目前整个互联网的发展来看,刚刚领导也说了,全国有40个数据中心,利用率是比较低的。再谈到IT设备的利用率,利用率更低。机柜利用是30%,每个设备也有一个利用率,如果设备利用率又是30%,整个数据中心利用率其实只有10%,也就是说我们投了一万个亿建数据中心,只有一千亿在发挥作用。长远来讲,云计算不断规模化,数据中心的成本和密度会越来越高,就应该采用高密度和高效率的管理。液冷的趋势,可能再过五六年,利用的广度会比现在大很多很多。

17:15

张学伟 我总觉得更关心不是技术问题,更关心的是产业转化问题。从我们的判断来说,像大型运营采购方,原则是这么几点,第一是成熟性,第二是可靠性,第三是经济性,一般情况下都是这么排位的。如果是技术不成熟,原则上不能应用论证周期特别长,会影响产业化的进程。而且还有一点,原则写我们不爱吃螃蟹,所以你发现三家运营商都在推,到底谁先运营,运营成功的普适性程度怎么样再去看,但三家都不推,只能靠金融去推了。再就是经济性问题,高密度机柜和数据中心的供应链不是我们定制不出来,2000瓦的,4000瓦也可以做,但是凤毛麟角,不可能为一两个客户定制这样的机房,我们也是规划设计先行,我们跟大型客户也是这样谈的,如果不事先谈好,不可能启动这样的机房。我们原则在4000到6000瓦中低密度机房应用比较多,举个例子,有一个单子上了中国电信原因,就是中国电信推高压直流,我们更关注客户在PC端采购情况,影响也是很大的。

17:15

李棒 目前为什么液冷用得比较少,跟整机功率密度不太高有关系,当单机柜功率密度越来越高时,液冷应用广度会越来越大。您刚刚也提到有什么方向,有做直接式、间接式接触的,这样的方式也有一定的技术优劣性。像我们跟阿里做的都是侵入式的,就是整体侵没式,支持的单机柜会更高。有嘉宾认为20个千瓦以下的机柜,应用的可能性更高,因为能解决它的极限。但密度更高时,侵没式应用比重会更大。因为整机柜侵没式可以支持单机柜一百到两百千瓦以上(当然没有达到这样的密度),机柜密度下降了,成本也会降下来。

17:15

罗志刚 我们拭目以待。这个话题希望李总和张总谈一谈你们对液冷的理解,以及两种不同的间接和直接方式,对液冷的分析与判断。

17:15

王建民 液冷比较成熟应用是在HPC市场,其中60%70%都是采用液冷技术(前一百名HPC企业里)。现有很多客户觉得用风能解决问题,不可能用这种有可能冒风险的技术去应用。上周在美国绿色网格年会里,液冷团队里,英特尔有十几个人加入其中,英特尔非常关注液冷技术的应用,因为芯片功耗得到的信息是很难控制,他们发布的200多瓦的芯片,用传统风冷很难解决,可以促进客户在一定程度上选择使用液冷。关于未来液冷比例,我们想分享的是,去年发布了数据中心的白皮书显示,未来液冷的比例能够达到50%以上。

17:15

罗志刚 我特别关心华为对液冷技术的判断。液冷这个技术很多年前就开始研究,华为、网宿、浪潮包括联想,还有很多国外企业很多年前都开始研究,今年比较热门话题就是阿里巴巴大规模推集群的项目。如果用户接受水进入机柜,您的判断,液冷目前市场占有量是多少,几年之后能占到百分之多少的份额?

17:15

王超 关于液冷技术,大家都在提用液冷技术节能。我们跟客户做了很多的沟通,液冷技术本身很多客户看的不全是节能,从液冷技术本身来说,芯片温度可以控制得比较低,因特尔发布的芯片到250瓦甚至300瓦,BAT选择因特尔芯片,芯片温度非常低,客户基于自己业务使用的情况,可能对液冷本身的使用就会主动选择,使用液冷技术。最终技术是否应用要取决于客户对技术本身的接受程度。如果一些客户之前试着尝试过一些方法,比如说最早做了水冷,更大意愿上可以接受水进入机柜的方式,这种新技术的推广相对来说比较容易。但我想一点,液冷没有大规模应用,其实并不在乎液冷技术本身有技术上的缺陷没有解决,只是大家观念上能不能接受水进入机房场景下的应用。随着芯片功率的提升以及机柜对性能的要求,可能有越来越多的场景选择液冷技术,我们在提前做技术的储备与推广。

17:15

罗志刚 刚才几位专家提到关于节能环保的话题,有一些新技术,一些相对比较新的技术,比如说液冷,这里面三位技术专家都是液冷的设备提供商,像华为的王总、网宿的李总、以及张总,对于相对超前的技术(三联供以及磁悬浮等)出来之后,结合你们公司的业务,对于这种比较创新技术的预测是怎样的,你们会认为这些技术会有怎样的发展途径,用户会更换或者更接受哪种产品?

17:15

王建民 很高兴跟大家分享一下节能方面的问题。我们要解决热的源路和窄的问题,热源就是发热CPU和芯片,路的问题都是采取传统风冷方式,通过空调把热量带出去,这是传统的路。对于原路的窄来说,最终所有热量都到达了大气里。我们现在主要做板节液冷,CPU热量通过水作为载体,通过水泵,把传统风冷散热器换成液冷的,把热量直接带到机房外面,把热量直接排到环境里,可以采取外部冷源,达到非常节能的目的。大家可能比较担心的就是采用液冷技术的安全问题,水冷技术本身已经发展了很多年,水冷百分之四五十设备都是采取水冷甚至液冷的方式,汽车行业发动机以及特斯拉电池包都是采用水冷,水冷只要不漏,实际上安全性是有保证的。一方面从设计角度使用更好的材料,比如说做长期可靠性测试;再就是生产制造环节如何控制整个过程,保证没有油类杂质进入导致泄漏;再就是生产运维角度,现在液冷机房可以1+1北方,管路可以采用环路的检测,做到更加可靠与安全。华为除了研究单项水冷散热,CT客户对整个机房可靠安全要求更高,研究下一代非导电作为介质散热技术,它不导电,有微量的泄漏就以气体的形式到空气了,不会对设备造成困扰。在全流程解决方案里,我们做了很多的思考,目的是想怎么样把技术做更好的推广。

17:15

罗志刚 下面华为的技术专家王总。

17:15

李棒 网宿也做了十几年的服务,分享一下我们对节能技术未来趋势的大概看法。今天在北京也有一个数据年会,我看到了一个同事发的图片,里面数据中心节能技术委员会的李天文他分享了一些信息,他认为在以后数据中心整个节能密度会越来越高,从2000年1.5个千瓦到现在4.5个千瓦以上,到后续可能会继续看好,到2020年或者以后,每个机柜功率都会达到更高,15千瓦或者是20千瓦以上。刚刚罗总讲到了贵州是一个很适用于自然冷源的地区,包括我们国家也把大数据往这里迁,但还是有一些业务要放在自然冷源不太具备的地方,随着功率密度的提升,自然冷源也不是很好。刚才提到的先进技术,也有一些液冷技术,在将来液冷技术会在机柜高密度里面占有一席之地。张总以及王总他们也做了一部分液冷的工作。网宿从2013年开始就开始做这方面的研究,包括也成立了相关的子公司,专门做液体数据中心的研究与建设。在前几天,刚刚赛宝做出来的评测时,在中国华南深圳,前后接近30度的地区,测出来的PUE是1.049,这个数据在目前为止是比较好的。因为我们做的是浸泡式液冷,液冷也有很多方向,应用于不同功率密度。我们认为,在机柜密度越来越高,甚至以后云计算应用越来越广泛,机房规模越来越大的时候,低成本、高能效的液冷技术在未来肯定会占有很重要的一席之地。我们也希望在行业内众多厂家可以一起把液冷生态链搭建起来,做得更好。

17:15

王建民 大家好!近些年随着信息化技术的发展,数据中心建设规模越来越大,各种新技术、新应用越来越多,由于数据中心的特点,是高耗能企业,在节能技术应用上,刚才大家介绍得比较多。在节能协会这么多年评优过程中有一些体会跟大家分享。比如说在冷却技术应用上,地理环境的影响可能是一个很重要的指标,刚才罗总提到了贵阳就是一个很有利于自由冷却环境使用的地区。在制冷系统里,对于大型数据中心来说,水冷是一个很好的利用条件与手段,有利于节能,更加有利于自由冷却技术的使用。特别是在初期使用时,可能对于大型制冷系统,刚才专家和分享团队已经介绍了,变频技术的使用可能是解决初期小负荷投入,保护停机等的手段。通过现在节能技术,最终归根到底还有一个关键的环节就是服务器存储网络等IT设备的节能产品的选用与设计,在规划初期要做好这些工作,才有利于后期的节能。至于说风火水电的节能手段是为了满足应用系统里一些服务资源、存储资源的使用,这样初期规划可能就显得尤为重要。

16:50

康楠 首先感谢大家,我也分享一下联通采取的一些主要节能措施。首先,从数据中心角度来说,分成设计、建造、运维三个阶段。我们从基地的规划建设开始,把关比较高,从规划角度、设计角度,专门针对节能有专门篇章,包括它所采用的新技术应用。我们现在多数机房采用集约化的平面设计,一般情况下最低的体量不低于一万五,我们只是做了两个平面,一是一万五的平面,一个是三万六的平面,做了两个平面。同时,所有的内控采用模块化设计。在这种背景下,原则上在制冷方面主要采用都是集中式水冷系统,大规模应用集中式水冷系统,因为整体TOP值比较高,尤其在高负荷运行情况下,节能比比较好。我们现在几个基地,廊坊运行下来,PUE实际运行能达到1.45,超出我的想象,第一在华北地区,第二是实际运行值。我们原来设计值,原则上一般情况下都是参考1.5,运用上在1.6之下。


16:50

张学伟 我是做技术的,关于数据的安全与节能我们一直在讨论,做新技术首先要考虑安全性,安全前提下考虑节能。总体思想是保证安全的前提下然后做节能。我们公司主要尝试包括液冷双通道的模式,CPU和内存采取水冷完全自然冷却,风侧还是常规方式,两者可以相互补充,相当于1+1,相对来说更安全一些。还有一个问题,这样做有很大的冗余,可以选择在某一种模式更节能时,就可以进行自由选择或者结合,这样节能率更高一些。从节能角度来讲,我觉得节能是必须的,是数据中心所必须的,我们也是以这个为最终目标,在保证安全前提下做节能。谢谢!

16:50

罗志刚 欢迎各位专家!各位专家都是行业的大咖,去年也是在这里,每年的5月份,平时我到贵阳很多次,因为我们在这儿很多项目,贵阳包括八大企业都在贵阳布局很多数据中心。我想除了政府的政策以及贵阳市大力支持之外,它的地理位置、它的能源、它的气侯都非常有得天独厚的优势。因为我本人是暖通专业,我讲一个关于气侯方面的优势。贵阳如果是冷冻水系统,自然冷却时间如果采用冷却塔是6000个小时,如果环境温度到23度时,贵阳和北京做一个分析,自然冷却采取风侧大概是4000多小时,比北京差一千多小时,如果提高到27度,它的是6500个小时,比北京反而超出500小时,这就是贵阳独特的气侯条件。这也是我们采用全新风或者水系统自然冷却节能方式带来的很大的便利。今天圆桌论坛讨论的是节能关键技术,我们做了很多节能措施,比如说有风侧、水侧节能措施以及蓄冷的节能措施,但会涉及到很多的转换,比如说你在温度不同的气侯条件下,水侧可能会开启自然冷却模式,开启混合冷却模式,记协冷却模式,风侧会关闭新风,开启部分新风,这么多模式转换,同时我们的安全性受到了挑战。节能安全有什么样的一些环节,有什么样一些矛盾,以及如何控制矛盾,有没有化解的空间,今天请几位专家给我们谈谈这方面的话题。张总!

16:55

圆桌对话:绿色数据中心运维最佳实践
主 持 人:江苏省邮电规划设计院有限责任公司暖通空调总工程师 罗志刚
  对话嘉宾(排名不分先后):
  ž 广东申菱环境系统股份有限公司 张学伟   ž 联通云数据有限公司运维与服务部总经理 康楠   ž 网宿科技股份有限公司绿色云图技术总监 李棒   ž 中国计算机用户协会机房设备应用分会专家 王建民   ž 华为技术有限公司液冷技术专家 王超


16:37

主持人郭丰:谢谢胡总的精彩分享,下面我们进入我们的专题对话环节。我们对话的主题是数据中心节能关键技术。参与我们此次对话的嘉宾有:江苏省邮电规划设计院有限责任公司罗志刚总工程、联通云数据有限公司运维与服务部康楠总经理、网宿科技股份有限公司绿色云图李棒技术总监、广东申菱环境系统股份有限公司张学伟博士、中国计算机用户协会机房设备应用分会专家王建民先生以及华为技术有限公司液冷技术专家王超先生。有请各位专家。下面我们有请罗总来主持本次对话。

16:37

胡兴赞: 我的介绍到此结束。谢谢大家!

16:37

胡兴赞: 花三五分钟介绍一下我们公司,中金数据有限公司,2005年建立,致力于国内高等级数据中心建设。现在在国内有四个数据中心布点,第一北京总部数据中心,规划面积超过五万平米,再就是华东数据中心是在昆山,武汉是集装箱的数据中心,再就是烟台的数据中心。这是数据中心大概的体量。包括还有一些成功的案例,主要是致力于高端用户,包括银行、政府机构等等。简单介绍一席花桥数据中心,位于上海昆山花桥镇,总规划28万平米,一期10万平米,包括其他的一些动力配套。这是一期的一些建筑。说几个主要的参数,第一数据中心有几个特点,大跨度柱网结构设计,整个单元里是没有柱子的,柱子藏到墙里,提高了机构占用比。第二是独立的管廊间,降低了水患风险。当然还有很多的错层设计,空调区降到1.5米,机房区1.3米,杜绝水患危险。园区有110进线,总供电量达到400。

16:37

胡兴赞: 花三五分钟介绍一下我们公司,中金数据有限公司,2005年建立,致力于国内高等级数据中心建设。现在在国内有四个数据中心布点,第一北京总部数据中心,规划面积超过五万平米,再就是华东数据中心是在昆山,武汉是集装箱的数据中心,再就是烟台的数据中心。这是数据中心大概的体量。包括还有一些成功的案例,主要是致力于高端用户,包括银行、政府机构等等。简单介绍一席花桥数据中心,位于上海昆山花桥镇,总规划28万平米,一期10万平米,包括其他的一些动力配套。这是一期的一些建筑。说几个主要的参数,第一数据中心有几个特点,大跨度柱网结构设计,整个单元里是没有柱子的,柱子藏到墙里,提高了机构占用比。第二是独立的管廊间,降低了水患风险。当然还有很多的错层设计,空调区降到1.5米,机房区1.3米,杜绝水患危险。园区有110进线,总供电量达到400。

16:37

胡兴赞: 后说一下薪酬低。这里有DCD的调研报告,这是中国数据中心从业人员的薪资,6万多美金。基础设施人员的薪资在7万美元。从薪资角度来考量,我们跟整个大的环境来说有些出路。再考证一下数据中心运维成本,为什么提数据中心运维成本,我们薪资空间就是从运维成本中支出的。一个兆瓦级的数据中心,大家去核算一下,一兆瓦运维成本是1到3美分,这不包括用电,包括人工工资支出、运维费用、易损件等等。如何提高数据中心运维人员的工资(薪资收入)?要压缩其他空间解决人员工资的问题。我可以给它量化一下,大概可以这么说,一千个机柜每个机柜5000瓦,这样的数据中心年运维成本是一千万左右,当没有出现SLA时,运营成本相对比较好,能支撑一线运维团队好的收入。总结一下,优化运维人员的培养机制。第二要建立覆盖全生命周期的管理平台。第三利用BIM技术构建智能运维场景。第四,四认证与风险转移结合。这就对应SLA法则,数据中心没有一个针对数据中心专门险种抗SLA法则,一旦出现问题,可能让你几年翻不了身,有没有一种险种转移这种风险,我希望行业里做保险的可以考虑这样的问题,把风险量化,来做转移。第五,验证融入各阶段。第六,建设DCIM平台,实现精益化运维。

16:37

胡兴赞: 刚才说了前面这些要求,行业里对数据中心运维人员也做了背景调查,其实一线运营人员基本上集中在千禧一代就是85后,他们对工作看重最多的是培训和发展的空间。他们更希望要有好的培训,要有很好的发展空间。要解决这个问题要从需求出发,如何做好培训,如何创造一个好的竞争环境。然后再说一下培训,培训可能从培训体系来讲,其实要展望的几点,第一培训内容要实用,第二要灵活、第三完整,第四科学性,第五游戏性。85后非常乐于创新,不太喜欢教条,在运维培训过程中更要强调游戏性即互动性,日常培训中已经融入了VR、沙盘推演等等创新性培训方式方法,提高他们的素养和技能。

16:37

胡兴赞: 测试引证就是在投产运营之前唯一的一次想怎么玩就怎么玩的机会。刚才说了人员的问题,我再大概说一下,这是一个典型的一线运维团队的组织架构,从用人来讲,对数据中心运维人员的要求有很多,可能会考察胜任力,考虑行为表现、技能等等,我们会列举很多需求,第一学历要求、体系要求、工作的要求、写作能力、持证上岗,同时要掌握这么多的经验。要命的是还要经常倒班。我们发现这样的要求输出之后根本找不到人,为什么?因为运维人员工作背景非常苛刻。我总结了几点,工作压力大;数据中心一旦出现故障,责任非常之大。第二就是技能要求高,很多要有懂网络的、懂UPS、懂各种设备、懂系统等等,再就是工作环境差,是冷冰冰的工作,每天对着设备做巡检、抄录数据,更重要的是噪音非常严重,工作环境非常差,竞争空间相对小。从组织架构模型上,运维人员上升路径不是很多,工作枯燥无味,有过无功,需要倒班,工资相对来说,从数据中心整个行业来说,一线运维人员是比较低的。我们要考虑到这些问题,就要解决这些问题。这里我给出很多好看的图片,这是国外一些优秀数据中心他们在充分考虑工作人员运维背景情况下,给他们创造了一个很好的工作氛围,很好的工作环境。我们在日后数据中心运维规划设计时,我们其实也更应该考虑要给他们创造一个好的工作氛围、工作环境。

16:37

胡兴赞: 再说测试验证的重要性,测试验证在数据中心每个过程中都有,比如说规划咨询阶段,我们要做什么?需求验证。什么是需求验证?验证我们的规划咨询,我们的需求是否符合战略规划。第二就是设计验证。当然现在很多数据中心在设计时把CFD作为设计验证一点,这一点我个人有不同观点,他只是从传统机械设计转化为科学设计的一个过程,所以如何验证设计是满足科学的、满足实际使用需求的,当然保证实施的验证,以及功能验证、性能验证,最重要还是可维护性的验证,这一点是我们最容易忽略的。特别是设计阶段,我们不太考虑这个设备出现故障之后,我们维护的空间,维护的可行性怎么样,这是我们测试验证时一定要加强做的一件事。我们很容易忽略这个问题。比如说我们数据中心一个冷机出现问题,这个冷机没办法维修,只能换一台,换一台可能没有换的路径,有很多的问题。测试验证还有重要的一点就是知识和技能的交互,测试验证完之后,如何把测试验证的知识与技能交互给第一运维团队非常重要。


16:37

胡兴赞: 为了加强可用性还要加强测试验证。我们交互运营的数据中心一定是经过测试验证可以投入使用的数据中心,而不是IT系统一旦上架之后,觉得系统有可能有某些故障,而且这些故障有可能导致我们出现很大的问题,所以加强测试验证是必不可少的一个阶段。我再围绕两点展开一下,一是加强供应商管理以及加强测试验证。

供应商管理也是一个非常重要的管理内容,如何做好供应商管理?为什么要做好供应商管理,前面提到因为数据中心设备种类繁多,对应用故障响应能力要求极为苛刻,数据中心运维人员又不可能招聘那么多高等级的设备工程师、系统工程师,怎么办?我们只能依靠供应商,要跟供应商达成合作共赢的模式,保证整个数据中心的达成。选择供应商要从几个方面入手,一是选,二是评,三是分,四是考核。首先要选择满足数据中心运营要求的合理供应商,把供应商做一个详细的评估,哪些可能会进入供应商管理体系,然后把这些供应商再应金级、银级等做详细的分级,分级完之后跟供应商签订合同约束,约束他们对我们的达成。签订合同时大家往往忽略了一点,支持数据中心厂家技术工程师的要求,供应商评了,资质很好,业绩很好,但供应商工程师能力也参差不齐,我们要加强对支撑数据中心运营供应链工程师的考核,他一定对我们系统相对熟悉,帮助我们第一时间找到问题,有更好的解决方案。所以我要强调的就是在签订合同时一定要加强指定的工程师,这个工程师一定是经过认真考核,对系统非常熟悉的人。所以选工程师还有几点,产品质量、资质、经验、售后服务、维保体系的要求。

16:23

16:23

我今天分享的就是要解决以上问题要做的一些顶层设计或者说基础层面的培养。先讲讲数据中心可用性。可用性说到底就是两个关键因素:第一是平均故障修复时间,第二是平均故障间隔时间,这两个因素决定了数据中心可用性。当然建设数据中心时从设计上就考虑到可用性,我们会设计成可冗余的,一切的目的都是保证数据中心可用性。数据中心出现问题时,第一时间把故障隔离开,保证业务的连续性。如何保证可用性?分为两个方面,第一个方面要提高MTBF,肯定要选用非常可靠的设备。第二个是平常做一些维护保养工作,好的设备还要有好的保养。

如何降低MTTR?可以从三个方面入手:第一,做好故障预判。根据运营管理平台发现设备在实际运行过程中会有哪些参数反映出来它即将有可能在某个时间段发生问题,这是故障预判问题。我们第一时间它出现故障的可能,这是第一。第二,要培养一线运维人员的第一反应能力和第二反应能力。什么叫第一反应能力?出现故障之后,第一时间要不故障隔离开(而不是处理),这是运维人员的第一思维,如何隔离故障。第二思维就是如何在最短时间内找到故障的问题,同时提出解决方案。这是第二点。第三,解决方案有了之后,我们有可能要修、要换,要建立一个备品备件库。这又牵扯到一个问题,数据中心牵扯到设备种类太多,数据中心就冷水系统阀门有两千多个,这么多设备、这么多产品如何建立完善的备品备件库,脱离不了供应商的管理,一定要加强供应商的管理。

第四,运维预算不足。
16:23

第二,运维人员不足。市场出现了“用工荒”的问题,有能力的没证,有能力有证的不太适合运维岗位工作。

第三,缺乏良好的运维管理体系。大家都觉得要建立一个以客户为中心,以流程为导向的运维管理体系真的太难了。当然我们可能有一些最佳实践,有ISO20000,但落地时发现了很多问题。

第四,运维预算不足。
16:23

各位专家、各位嘉宾、各位数据中心界的同仁们大家下午好及我是中金数据的胡兴赞。近几年数据中心行业出现爆发式增长,数据中心增长一直围绕着两个话题,一个是数据节能,第二是追求精准运维。运维实践也是一样的,为什么备受关注,我觉得有几点:第一,数据中心运维面临了很多问题,这些问题是共性问题,是大家都面对的。要解决这些问题要做一些基础培养以及底层架构设计解决这些问题。第二,之所以数据中心运维备受关注,还有一点是因为市场足够大,大家都非常关注。

遇到了哪些问题,这是国内一家权威机构对北上广一些大型数据中心做的一个调查。调查结果显示,数据中心可用性毫无疑问排在第一位。大家都把数据中心可用性放在第一位,都觉得要保证数据中心可用性太难了。这是第一点。

16:23

中金数据系统有限公司华东数据中心规划设计部总监 胡兴赞


16:15

主持人郭丰:谢谢陈经理的分享。对于数据中心来讲,运维非常关键,而且运维更多的是一种实证科学,现在我们就请我们中金数据系统有限公司华东数据中心规划设计部胡兴赞总监分享他们的绿色数据中心运维最佳实践。有请胡总。

16:15

今天介绍就到这里,最后诚邀各位到佳力图来参观和指导工作,再次谢谢大家!

16:15

下面介绍一下我们公司和案例。佳力图是2003年成立,2008年佳力图机房工程国产化,2011年引进高端人才开发磁悬浮技术,2015年变更为股份有限公司。佳力图目前新的厂房占地6.7万平米,厂区25000平米。目前佳力图磁悬浮案例只有一两个民用,大部分在商用数据中心行业。江苏银行是首例磁悬浮在数据中心的应用,这是北京南苑机场数据中心,磁悬浮作为冷源,利用二次换热方式实现机房散热。这是水冷式磁悬浮,采取磁悬浮冷水主机以及热管空调系统,进行机房内顶点散热和冷却。这是广东睿江科技在深圳的一个项目,佳力图提供了一整套方案。这是去年4月份北京孙河数据中心,一期采用6万磁悬浮一台,今年又增加一台,佳力图提供了一体化解决方案。

16:15

下面再介绍水氟转换的解决方案。当前有很多的特殊机柜,热负荷比常规高很多,有的机柜达到五到八个千瓦,常规机房只有三到千瓦左右,会产生机房的局部热点。针对这种情况提出了热管解决方案。通过水的二次换热实现整个机房散热。这是我们机房解决方案的模型,冷源采取风冷的冷水主机,在机房进行换热。同时还有一些其他的热管解决方案,包括吊顶置顶式的热管解决方案。同时可以实现房间及机柜级的散热,同时利用热管实现芯片级的散热。

16:15

下面看一下针对水冷的解决方案。大型的数据中心由于室外机面积以及成本问题往往采用水冷解决方案。我分享一个闭塔方案,也有三种不同的模式,第一种是压机模式,冷凝热是依靠冷却塔带走,同时为末端提供冷源,这跟普通中央空调系统一样。第二种模式,自然冷源就刚才风冷有异曲同工之妙,只是冷冻水直接进入闭塔然后进行散热,压机处于关闭状态,水冷解决方案比自然冷源范围进一步扩大。第三种模式是混合模式,冷冻水的高温回水先经过冷却塔进行预热,预热之后再进行压机处理,这牵扯到投资问题,系统初步设计时会往往增加冷却塔数量实现机房环境的散热。

16:10

下面我分享一下分冷自然冷却的解决方案。主要技术是磁悬浮水机、冷冻水泵等构成。有三种不同的模式,首先看第一种模式。常规的压机模式,当室外环境比较高的情况下,没有自然冷源可以利用,通过压缩机的机械制冷带走机房的热量。第二种模式是自然冷源模式,室外环境比较低的情况下,目前做到12度的温差,回水温度跟环境温度12度温差,可以实现完全自然冷源散热。压缩机处于关闭状态,整个机房热量完全依靠自然冷源盘管带走。第三种模式是混合模式,在一些南方更有意义,很多时候在一些过度季节,或者白天晚上温度变化大的情况下可以开启混合模式。机房空调高温回水,经过自然冷源进行预冷,我们设计是5到6度温差,通过预冷降低2度3度,这意味着介绍压缩机40%到60%的能耗,不足的冷量再由压缩机提供。佳力图在这种风冷的系统当中采用的磁悬浮冷水系统,磁悬浮是无机变频,可以稳定工作在低负荷情况下,比如说30%到40%负荷,这对混合模式的自然冷源利用有很大的意义。

16:10

在某种概念上讲了水冷系统究竟是安全还是不安全?从系统蓄冷来讲,在水冷系统当中有很多的优势。我们减少了室外机的数量以及场馆的布置。在很多时候,可能室外环境温度比较低,但室外机进风温度保持比较高的温度,没有办法用自然冷源,通过机泵的方式,工控可以得到进一步提升,冷冻水温度可以得到进一步提升。长江以北流域往南流域,都可以实现自然冷源的综合利用,这是国内气温的分布情况。

16:10

下面看一下氟利昂的解决方案,这是最常用的解决方案,佳力图技术也不断创新,目前主要采用直流变频技术,提高压缩机的能耗。同时采用一些风机,降低风机的能耗。佳力图在传统的机房空调基础上增加了氟泵模块实现机房节能,通过氟泵循环实现自动循环和散热,有三种模式可选。同时氟并可以实现纯氟泵,完全利用外面冷源实现机房散热。刚才提到的最传统的解决方案,下面分享一下佳力图冷冻水的解决方案。我们知道机房空调发展这么多年,包括数据中心规模越来越大,热力度越来越高,针对这些情况,我们佳力图提出了冷冻水的解决方案。冷冻水解决方案充分借鉴传统风冷技术,开发了风冷系统解决方案以及水冷系统解决方案,这又回归到最传统的中央空调解决方案,但在整个系统设计中,跟中央空调系统有所区别。风冷系统解决方案主要包括冷水主机、机房末端等等,分水主机可以利用自然冷源实现机房环境的节能,下面我逐一做分享。

16:10

下面分享一下佳力图的产品以及绿色解决方案。佳力图二十多年来,始终坚持为数据中心服务,坚持数据中心机房环境解决方案。目前产品主要包括冷源、机房空调末端两个方面,佳力图机房空调主要包括ME系列、Rcooling系列以及Guardian系列。包括风冷、水冷等,能够满足大多数机房环境的散热需求。同时佳力图针对数据中心发热特点以及我国气侯特点开发了氟泵空调,以及开发了ME直流变频系列,温度正负0.5,湿度正负0.2%的控制精度。

16:10

数据中心高速增长也带来能耗的上升,一方面是数据中心如火如荼建设,另外一方面,与国内数据中心当前能耗水平相关。能源PUE大多是2.2到3.2之间(这是已有的老数据中心)。数据中心耗电增加一方面为企业带来了沉重的负担,同时也造成了社会资源极大的浪费。下面看一下数据中心能耗情况,根据GDCT统计,2014年数据中心耗电量占社会总用电量1.6%,根据预测2024年数据中心耗电量将达到社会总用电量6%到8%。数据中心耗电过程中空调能耗占比较大的比重,占到30%到40%。空调系统节能水平影响到整个数据中心的绿色水平。


16:10

今天我的分享主要分为三部分:第一,数据中心发展及能耗现状;第二,佳力图产品及机房环境绿色解决方案,以及佳力图公司与案例的介绍。首先跟大家分享一下国内数据中心的发展及能耗现状。目前国内面临着产能过剩以及经济增速放缓的严峻形势,数据中心及相关产业全向向下,发展迅猛,每年新增数据中心投资额在一千亿左右,随着中国信息化社会的快速催生,以及云计算、互联网的崛起,数据中心作为重要数据载体与传输载体必将进一步发展。2014年国内数据中心保有量14.9万个,建成面积1.3万平米,到2020年中国数据中心保有量超过9万个,建筑面积将超过3000万平米。这是国内当前数据中心能耗情况。


16:05

南京佳力图机房环境技术股份有限公司技术部经理 陈胜朋:尊敬的各位领导、各位专家、各位来宾、各位朋友:大家下午好!


15:50

主持人:郭丰 谢谢查总的分享。说到降低数据中心的能耗,南京佳力图机房环境技术股份有限公司也有很多自己的心得和成功案例,下面有请南京佳力图机房环境技术股份有限公司技术部陈胜朋经理与我们分享佳品佳案—佳力图助力中国绿色数据中心发展。有请陈经理。

15:50

这是北京航丰路的一个项目,采取了大温差的设置,串联回路,把水泵系统可以降到更低,做了一些优化。整个刚投入,关于一些指标以后再汇报。另外在集成化解决方案方面有一些集成式冷冻站,已经把自由冷却、水冷离心机、冷却塔统统集成,对各种数据以及微模块系统可以快速融合进去。 关于这项技术,这一次作为六项制冷技术一项有幸入选推进目录。 最后用一两分钟介绍一下必信空调公司,必信是唯一一家只专注于磁悬浮技术,目前有两家公司只做这个行业,一家在美国,一家在中国。我们数据中心近两年刚进入中国,实际上在酒店行业、在工业冷却、在各个分支行业里已经有很多的案例,我们在进来时针对数据中心开发了自有的产品,我们团队早在2003年在美国时就开始专注于磁悬浮技术,所以我们在这一块领域里有非常多的经验。

15:50

这是北京航丰路的一个项目,采取了大温差的设置,串联回路,把水泵系统可以降到更低,做了一些优化。整个刚投入,关于一些指标以后再汇报。另外在集成化解决方案方面有一些集成式冷冻站,已经把自由冷却、水冷离心机、冷却塔统统集成,对各种数据以及微模块系统可以快速融合进去。 关于这项技术,这一次作为六项制冷技术一项有幸入选推进目录。 最后用一两分钟介绍一下必信空调公司,必信是唯一一家只专注于磁悬浮技术,目前有两家公司只做这个行业,一家在美国,一家在中国。我们数据中心近两年刚进入中国,实际上在酒店行业、在工业冷却、在各个分支行业里已经有很多的案例,我们在进来时针对数据中心开发了自有的产品,我们团队早在2003年在美国时就开始专注于磁悬浮技术,所以我们在这一块领域里有非常多的经验。

15:55

基于低压比技术,有风冷、蒸发冷、水冷不同产品,同时满足小型、中型不同密度的服务器,可以提供冷水以及液体冷煤。最早在北京三信时代做了一个项目,项目里面两个机器1600多个机器组,占地面积仅2平方米。原来这个机房设计时一边一台,一用一备,我们运行时两台各50%,而是作为热备份,一代换了一台马上能满负荷。我们离心机有一个特点,负荷率越低效率越高,如果数据中心装机容量少的时候我们非常开心。反过来,有很多专家会跟我们说数据中心没有部分负荷,没有部分负荷可以创造部分负荷,一用一备或者一用两备,原来有一台都是关着,换热器买着在睡觉,我们就会采取多个机器联合运行,这样就换回主机高能效运行。一旦出现有一台坏掉时,另外几台不存在重新启动的过程,就是快速加载的过程。

15:55

回顾80年代进入到中央空调主机,发展年代就是三十几年,数据中心发展就近十年的情况。在近十年的时间中,冷气已经进入疯狂的价格战,很少有国外厂家专门开发基于数据中心的冷却机组在这种背景下,我们研制了数据中心专门用的磁悬浮离心机。大家听说磁悬浮就会知道磁悬浮的列车,磁悬浮最基本的原理就是机器同性向离异性相吸,基于这样的技术生产制造了各类风冷、水冷模块化各个类型的磁悬浮冷冻机。这些产品最关键部件是压缩机,压缩机在里面是磁悬浮的轴承,整个运转是悬空的,就是这辆车里不用装机油了,一滴油都不需要了,没有油润滑以后就没有磨损。最高速度达到48000转,另外也非常小巧。特点与优势,节能、省电、尺寸非常小。实际运行中,都是采取单系统多个压缩机,机器里每个都是独立的变频技术,单机具有非常小的冗余性。阿里巴巴苏州总部也是采取我们的磁悬浮冷却机。基于对工业大型磁悬浮的经验,我们为数据中心专门开发了离心机。离心机有最低的低压比概念是1.5,机器最小只能做到10度,外面温度20度,机器只能做到10度,它也不能用,怎么办?我们有四个技术,一个是基于OPFlex数据算法控制,基于数据中心低压比优化算法控制,可以满足低压比下5到20度冷冻范围供水温度。可以满足冷却水的低至冷冻出水温度运行。多个机器联合优化控制,单系统多机并联技术。

15:55

我们具体来看一个典型的案例,这是2012年跟踪的北京机房情况,横轴是365天,每隔30秒钟跟踪的湿球温度,如果要到8度冷却水必须要用5度的湿球温度。北京最冷的有两个点,1月份到11月份,20度冷冻进水,湿球温度是15度,中间在6、7、8月要进行完全的机械制冷。在深绿色的过程中是很尴尬的情况,是采用自由冷却,还是机械制冷?很复杂,很尴尬。我们在数字上,笔头记录能效时很方便,点多少天就是多少能耗,但在实际运行时,运行师傅很难说白天机器制冷,晚上自由制冷,这是不现实的。为什么水温不能特别高,刚才很多专家谈到节能方向是提高水温,但不是水温越高越好,为什么?水温再次提高时,冷冻器里压差太小机油不能冷却。所有冷冻机冷冻出水与冷动进水之间必然有一个温差,温差过小就必须把冷冻水关小。我们看自由冷却是不是很美妙,免费制冷,这里面是四种自由冷却的方式。除了右下角这张图是采用冬天机械制冷时独立冷却塔,其他循环里,冷却塔跟主机并行在一起,在实际运行时,又让主机自由冷却又要让机器冷却,这是做不到的,这种方式又实现不了,现实中很少有多投几个冷却塔做这个工作的。


15:50

我们看一下数据中心能耗的构成。在数据中心IT设备占50%,空调37%(这是电子学会的统计数据),我看到华为的数据国外比这儿少一些,国外普遍比例是30%,空调比例是大范畴,空调比例又包括着冷冻机房、末端系统,在这里面,冷冻机房里要占到四分之三,冷冻机房大头是冷水主机,作为冷水主机的厂家来说,我们对效率的提升有义不容辞的义务。理解制冷的过程来看一个最基本的数据中心设备冷却过程。所有发热部件需要通过空气循环到水的换热器或者冷煤换热器,然后通过压缩制冷,进行冷凝放热,再放到室外去,这个过程是很通用的基本冷却的过程。其中压缩制冷部分占的能耗在整个空调系统里最庞大的。我自己又做了一张简要的图,这张图是什么,Y轴是温度,横轴是搬运的过程,我们做这么多年制冷就是一个搬运工,服务器要把热量带出去,通过水带动空气,很复杂,是一个漫长的过程,如果要提升效率,主要方向就是如何减少温度的差值,如何减少发热量。

15:50

非常容幸今天能够趁此机会分享此次入选首批绿色数据中心的产品,这个技术叫做数据中心低压比磁悬浮离心机。我汇报分五个部分,一个是目前数据中心的能耗情况,低压比开发的背景以及磁悬浮的特点是什么,以及低压比产品的案例。现在总能耗的情况越来越大,但同时也要关注一下一个数据中心在新建与投入的运行费用的比例关系,一个新建的数据中心投入的费用并不大,但运行费用要高达它的三到五倍,随着时间推移,数据中心能耗会越来越大。这是为什么?其中有一项,我们是做空调设备的,空调设备就像你的车子一样需要保养,但再保养也会衰退,包括电子部件都会衰退。整个能耗情况必须要持续的关注。!

15:45

苏州必信空调有限公司总经理 查晓冬:各位领导、各位与会专家、各位来宾下午好!


15:45

谢谢万总的分享。目前数据中心的能耗,有很大一部分是空调系统耗能,工欲善其事,必先利其器,空调系统也是在不断演化和进化。下面我们有请苏州必信空调有限公司查晓冬总经理和我们分享数据中心低压比磁悬浮离心机的研制和应用。有请查总!

15:45

最后总结一下,传统小微机房跟机柜数据中心的比较,从整体外观、规划、建设慢、占地面积等等各个点来说,机柜机房都是非常有优势的。这是我们各行各业做的案例,像银行、学校、公检法系统、派出所,有一个机柜的,有两个机柜的,有三个机柜的,最多做到八个机柜。这是我们跟海关总署做的一个案例,海关总署在全国86个海关信息中心同时建设监控指挥中心,这样的项目交付周期非常短,每个机房无人职守,场地要求比较高,因为监控指挥中心就是在大屏上面一小块地方,没有正规的环境,机房尺度非常不规则,最后一起采取机柜式数据中心的解决方案,从而保证了项目顺利快速交付。今天就跟大家汇报到这里,谢谢大家!

15:45

多个网点一体化机柜更需要考虑运维管理,因为很多地方都是无人现场管理的地区。比如说银行网点现场没有专人人员,小机房钥匙掌握在业务经理手里,这是我们要主动考虑的。所以一体化机柜要把上层平台的远程监控以及资产管理、容量管理、能效管理、可用性管理在一个平台上统一地做起来。所以机柜里就需要有一个智能硬件终端,有了智能硬件终端就可以把每个机柜U位利用情况以及资产使用情况等信息收集起来,然后把这些信息送到上层运维平台里去做统一管理,这是平台的界面。通过这个界面可以看到下面成千上千个网点所有基础设施的信息情况,包括实时的照明分析、精确故障定位等。在这个平台里,可以把这么多网点所有的资产,包括在架的资产以及仓库库存资产统一管理起来,包括IT资产,包括基础设施资产(UPS、空调等)在一个平台上做统一的管理。同时以前比较困扰大家的资产盘点现在变得非常简单的,只要点一个按纽,整个会全部出来。容量管理做得非常充分,我们知道这么多网点里有多少U位的剩余,多少电力制冷容量的剩余,还能在哪个地方比较好的放一台服务器。这是我们对每个机柜的管理,就是资产容量的管理已经细化到每一个机柜。还有一个就是说,我们也希望能够帮助客户管理机房,因为客户技术人员非常辛苦,节假日也需要值班,晚上也要值班,值班也非常枯燥,在我们公司总一个远程职守平台,到目前为止已经接入了上一千中小型数据中心,我们帮他们去值班,这样的话,帮助客户技术人员解脱出来,他去做更多聚焦于业务系统的事情。

15:45

今天的主题是节能,前面专家讲小型数据中心节能非常困难,但我们这个产品在非常小的功率情况下也能做到PUE1.5,里面有一些我们的专利技术。首先,这样一个机柜跟前面专家讲的微模块也能冷热通道隔离,提升空调效率。第二,无冷气泄漏。第三,空调因为是就地制冷,送风温度都调得比较低,这么小的空间里,送风温度可以调到22度也能保证里面温度达到国标要求,这样整个空调也显得越来越节能。另外空调里面有非常多的专利技术,包括盘管控制技术,使冷量跟IT负载匹配得非常好,我们空调已经得到了国家CQC节能认证,也已经入选采购清单。整个产品完全是IP5X全密封,对环境要求非常之低。另外噪音之低,我们之前做得很多项目都直接放在办公室里,也可以完全满足办公场地的要求。

15:45

机柜数据中心有什么特色?简单、可靠、节能、噪音比较小、还可以提供很多远程职守服务,替客户去做机房管理。一体化机柜占地面积非常小,与传统相比可以节约50%的占地面积。其次,我们有一个理念,希望让数据中心变得非常简单,让所有的产品在使用、安装方面非常简单,普通工人都可以完成。比如说我的空调已经做成了机柜里像一个抽屉一样快速插拨,后面冷煤管用快速的接头,冷煤预充,安装维护无需充注冷煤,整个安装调试非常之快。另外还有平板运维工具,一个平板上就可以把里面最关键的数据(电源数据、微环境数据、空调制冷数据、门打开的状态)都可以实时了解。这是我们的空调,我们是基于精密空调设计理念。这个空调是完全工业级的产品,制冷量从800瓦到3500瓦平滑过度,能满足低复杂应用场景也不会出现问题,像该有的排水、加湿等都有。对连柜的情况,可以做到多台空调形成冗余备份。这是机架式配电单元,也能做到电量实时监控,包括PUS跟电池包,现在已经把一些模块化PUS技术应用到20K以下中了,甚至可以做到98%的效率,PUS非常节能。另外就是输出功率因数可以做到0.9,在同样功率情况下可以更多负载。这是机架式消防单元。整个机柜完全密封,可以跟环境接轨,再也不需要对机房有更多的装修要求,就是一个普通的办公室,甚至包括在座的会议室都可以直接快速部署一体化机柜产品,当然紧急情况下还要考虑机柜控制单元能自动把密封机柜变成敞开的机柜,保证里面IT设备的温度仍然在正常范围之内。

15:45

这就是我们推出的机柜式数据中心的产品。在一个机柜里就可以把小机房里所要用到的水火水电,机柜、空调、UPS、电池、配电、管理工具、运维工具都集中在一个机柜里,能够满足客户小网点建设需求。一个机柜不够,可以两个机柜,最多可以做到八个机柜,利用机柜拼接的方式实现这样一个空间,满足小机房建设要求。我们对于小型微型机房的想法是怎样的?要充分利用里面所有的风火水电资源,做到能源使用效率最大化。我们共济的想法是什么?针对下一代小微型机房,在最下面边缘节点机房也会用到模块化、一体化、产品化的方式进行建设。这么多网点还需要在上层做统一的运维管理平台,提升小机房的管理效率,使小机房真正无人职守。这就是我们推出的机柜式数据中心的产品。在一个机柜里就可以把小机房里所要用到的水火水电,机柜、空调、UPS、电池、配电、管理工具、运维工具都集中在一个机柜里,能够满足客户小网点建设需求。一个机柜不够,可以两个机柜,最多可以做到八个机柜,利用机柜拼接的方式实现这样一个空间,满足小机房建设要求。

15:45

我们看一下边缘节点机房的现状。我们现在看到的现状,超大型数据中心它的规范性、人们重要程度非常高,但到了小微型机房不是很中国,规划乱、外观差、建设特别慢,很多小微机房都是租用的房子,搬迁起来非常麻烦,很多分支机构网点数量非常多,运维人员管理不过来,存在管理困难的问题,以及维护耗时耗力。小微机房别看体量小,能耗还是非常之大的。


15:45

大型以及超大型数据中心现在建设是方兴未艾,在这里面,很多很多节能的新技术,比如说微模块、分布式高压直流、飞轮储能等越来越应用到超大型数据中心建设里面。其实小微行机房在数据网络里也有海量的建设需求。举了一个例子,比如说银行的体系,他的总部有两地三中心大型数据中心的网络架构,但在每个省或者每个地市分行,到每个城市县城、乡镇下面的支行、营业网点,包括现在越来越多的自助银行、社区银行的出现,小网点建设需求越来越多。这是我看到的一方面。另外一方面,有很多小的初创型企业机房规模不大,出于安全性考虑要自建机房,不敢把商业机密放到公有云上面,所以小微机房有其存在的合理性。

15:45

各位领导、各位嘉宾下午好!今天我带来的演讲主题是对于下一代数据中心建设的一些想法。首先我来分享一下我看到的整个数据中心发展趋势。大家可以从左边图看到,随着民生、国家安全还有互联网行业的快速发展,国内包括国外数据中心从数量上来说增长非常之快,但里面有一个趋势,一方面大型、超大型数据中心发展速度非常之快;另一方面,左边小的微型数据中心(网点机房、边缘节点机房)也是快速增长的。也就是说大型数据中心和小型数据中心的需求都是非常旺盛的。


15:45

深圳市共济科技股份有限公司微模块产品线总监 万凯


15:23

谢谢李总的分享,随着技术和需求的发展,数据中心这一业界形态,也在不断的演化和进化。下面,我们来听一听深圳市共济科技股份有限公司微模块产品线万凯总监对下一代数据中心的建设新思路。有请万总和我们一起预建未来。

15:23

以上就是我分享的主要内容。谢谢大家!

15:23

模块化UPS全球发货是2015年、2016年是第一,集装箱数据中心解决方案连续两年排名中国第一,这是我们做的一些案例,其中贵阳有贵阳联通,是亚洲最大的仓储式数据中心,有2万个机架,也是华为帮助联通建设的。还有一些其他的成功项目,时间关系不一一介绍。

另外说一下华为云计算,要打造全国规模最大的公有云,2016年前面达到27个节点,今年要达到一共60个节点。截止到目前,产品解决方案已经在全球170多个国家得到了应用,服务于全球三分之一以上的人口。

15:23

第三个特点是非常可靠。微模块相比于传统工程,我们把它作为产品进行设计,也就是说这个产品不管部署在任何地方(北京、贵州等等),微模块表现出来都是一致质量、一致性能,同样的参数。因为我们是产品化的设计理念,带来的就是质量一致性。具体来讲,从架构上非常可靠。比如说内部供电架构采用环网架构,任何一个点出现了问题,不影响整个系统供电。对于PUS空调关键器件都有冗余设计。电池管理采取无线的方式,可以实时监测到每一节电池的电压、内阻,以及温度,一旦发现异常,比如说端值温度超过设定值就会报警。如果进一步提高的话,达到了设定值之后,空开会自动将这一组电池断开,从而避免火灾的发生。同样对开关做温度检测,温度高时自动报警。同时网络安全非常可靠。这应该来说是华为公司的强项,因为我们做通讯产品时,通讯产品卖给英国等发达国家时都要经过非常严格的网络安全测试,我们的管理系统、这一套解决方案是同一个平台,任何一个产品发布都是面向全球统一发布,所以华为的管理系统解决方案是经过严格安全测试,包括病毒扫描、漏洞扫描等等,网络安全绝对可靠。

由于时间关系简单分享了华为智能微模块运维简单,运行高效以及可靠等几个主要特点。第三部分简单分享几个成功案例。 微模块已经获得了DCD绿色数据中心奖,这是我们跟移动建立的数据中心,平均PUE低于1.2,由于卓越的设计获得了BCD绿色数据中心奖(号称是行业的奥斯卡奖),另外也获得了首批UPS能源之星认证等奖项。

15:23

其实建设一个数据中心就是一年甚至更短的时间,大家一旦数据中心建好以后运营可能是十年时间,所以更重要的是数据中心在建设投产之后,怎么样简单高效的管理数据中心就变得尤为重要。这里面主要是因为我们有一个强大的管理工具。首先有一个远程集中管理的平台,能够对全网数据中心做到统一管理。同时,我们还有移动的终端(手机上可以装APP),可以做到对数据中心随时随地查看,即使在出差也可以查看数据中心的状态。这是管理特点。

第二个特点就是非常高效。首先是运行非常高效。可以采用不同的技术可以做到不同的PUE值,跟传统数据中心相比,不采取自然冷却的前提下,可以做到1.45,跟传统相比节省20%以上,一千平米的数据中心,每年节省300万。这里我们有一系列专利促进达成高效,比如说冷电联动,空调跟负载实时联动,包括群控的算法,时间关系不一一展开。这是无锡联通6月份实际测的值PUE1.45。同时管理非常高效,能做到实时资产容量管理以及能耗管理,同时机房出现故障时能自动定位,快速修复。同时在用电上非常高效,给予一体化的PUS设计,将传统PUS模块、输入、输出,以及空调的配电,照明配电全部集成在一个柜子里,通过这种方式能至少节省一个柜位。带来的直接好处,对于一个机房来讲,传统方式只能部署68个机架,采用这个微模块可以部署84个机架,机架用于出租每年可以至少增加50万。

15:23

模块化第二个好处就是快速部署,节省工期。跟传统方式相比,节省30%到50%的时间。这里主要有两点原因:第一,所有的器件都是工厂预制化的(包括线也是预制),跟传统交互方式相比,机房在装修时,同步在工厂进行微模块生产制造。第二,现场硬件装配时间大大缩短,更为重要的是软件调试的时间,由于是模块化设计,变得非常之简单,现场调试,跟传统方式相比节省30%至50%的部署周期。

15:23

同时主要介绍一下FM2000的简单、高效、可靠的特点。首先看一下简单的特性,首先第一,建设非常简单。为什么这样说?微模块里所有的部件,像UPS都是模块化的UPS,所有接口都是标准化的,通过模块的方式实现IT的模块化。同时在一个大型数据中心里,从每一个房间、每一个楼层,到整个园区都是模块化的理念。模块化的好处就是按需部署,提升资金应用效率。

15:23

华为在数据中心基础设施里,能够给用户提供的主要自研设备有两大关键子系统,第一个就是从1到8不间断的PUS,另外有从20到3000瓦的精密空调,以及基于这两大关键系统推出的四个解决方案,分别是一体化微型数据中心以及面向小型数据中心单排模块化数据中心,以及中大型FM2000,同时推出FM1000,集装箱解决方案。

15:23

李国强 第四个挑战:人工维护模式效率低下,同时可靠性面临着巨大的风险。我们知道现在数据中心随着云计算、大数据的发展,数据中心规模越来越大,在一个数据中心里承载着成千上万个设备,同时由于云计算的发展,现在数据中心里面的机柜功率密度越来越高,由传统的三到五千瓦逐步提升到八千瓦,也给数据中心运维造成巨大的挑战。管理人员处理报警、处理故障的时间更短。根据调查显示,数据中心故障70%都是由于人为原因导致的。为什么?传统数据中心里很多运维都是靠人工方式运维,目前可以看到,市面上其实很难发现一款真正的很好用、能解决用户实际运维的工具与平台,这就是数据中心现在面临的挑战。人工运维的方式也会给数据中心运维带来巨大的隐患。我们不时听到数据中心由于PUS供配电、天气雷电原因造成中断的事件。举了一个例子,国内农商行由于电池原因导致机房起火,直接经济损失达到2亿人民币。某个第三方支付公司在香港数据中心故障,造成断电12个小时,很多用户业务受到中断。这些都是现在在建设、运维数据中心的挑战。

15:09

第三个挑战:数据中心能耗非常之高。给大家分享一个数据,全球数据中心电力消耗的数据。这是我去年在英国国际会议上,跟斯坦福大学教授时分享的一个数据,全球数据中心每年电力消耗是3000亿吨,相当于三个长江三峡发电量。一方面数据中心能耗非常之巨大,杨司长也介绍了,数据中心占到全社会用电量2%。另外一方面,我们对一个数据整个生命周期以十年来看,可以发现,电费占比达到60%。同时数据中心能效水平非常低下,我们通过很多实测、调研发现,现有很多数据中心能效水平都远远高于2,造成很多能源浪费,这里面节能空间潜力巨大。

14:59

第二个挑战:数据中心的建设是一个非常复杂的过程,涉及到工电制冷、消防布线等八大子系统,数据中心交付建设也面临着很多供应商施工界面交叉,现场管理非常之难,造成现场质量管控非常难,导致很多返工、工期延误。以传统方式建设数据中心,工期往往超过一年甚至两年时间。

14:59

第一个挑战:未来的业务具有非常大的不确定性,怎么样建设数据中心,使之匹配业务发展,同时快速进行投产。这里有一个例子,国内某个知名互联网公司,2011年仅2000台,四年时间内,2015年增加到10万台,四年时间翻了50倍,显然对数据中心的建设提出了非常大的挑战,怎么样快速建设数据中心同时又不造成过度建设。传统方式一次性规划投入,往往造成很多闲置的资源。这是第一个挑战。

14:59

我们知道未来世界是一个全连接的世界,所处的物理世界与数字世界将会双方融合,未来不光是人与人之间有连接沟通,未来的连接也发生在人与物之间,物与物之间。这里有一组数据,到2025年,全球智能终端数量由目前70亿台增加到400亿台,达到一千亿连接,数据流量达到180个ZB。我们想象一下,现在看到的很多视频都是低清视频,如果未来看的是高清4K视频,数据量将惊人。全球数据中心每年以10%负荷增长率高速增长,预计到2019年全球将达到超过400亿美金的规模。同时建设数据中心的过程中,我们与很多客户交流,也总结了几个他们共同面临的挑战。。

14:59

我的介绍一共分为三个部分。首先看一下数据中心的发展趋势以及面临的挑战。第二部分重点讲一下华为智能微模块解决方案如何应对这些挑战。第三部分重点分享一下成功应用实践。

14:59

微模块这块产品在中国很多人都知道,在华为大力推动下(我们把这个东西作为战略产品研发),在五六年前,提到微模块市场上能提供这种产品与解决方案的寥寥无几。但现在我们来看,市场上不能提供微模块解决方案的产品是寥寥无几,屈指可数,以前无论是做UPS、做空调、做机柜,所有厂家都能推出微模块解决方案。我今天讲的是华为跟市面上拼凑行的微模块的不同之处。

14:59

李国强:女士们、先生们,各位朋友大家下午好!非常容幸代表华为公司应邀来到爽爽的贵阳参加数博会,也非常高兴有这样一个机会跟大家分享一下华为在绿色数据中心领域所做的一些工作,取得的一些成功实践。华为公司一直以来非常重视绿色数据中心设计建设以及后期运维端到端全链路、全过程的绿色节能,一直以来数据中心持续投入非常之大,每年拿出营业收入10%投入到绿色数据中心相关的节能产品解决方案的研发中,也推出了众多节能技术与产品。比如说推出了高效模块化PUS,模块效率97.5%,是全球最高效的模块化PUS以及直流双变频的空调。由于时间关系,我重点讲一下智能微模块绿色解决方案。

14:59

华为技术有限公司网络能源产品线数据中心领域市场总监 李国强


14:59

谢谢王景。我是中国电子学会的郭丰。下面我们将进行本次会议的第二单元,针对数据中心先进适用技术及应用案例进行经验交流和分享。华为公司的智能微模块数据中心是此次先进适用技术入选技术之一,下面我们有请华为技术有限公司网络能源产品线数据中心领域市场总监李国强先生和我们共同分享“极智简单,云领未来—华为绿色智能微模块分享”的精彩演讲,有请李总。


14:59

第二单元 数据中心先进适用技术及应用案例解析   主持人:中国电子学会节能减排工作推进委员会副秘书长 郭丰


14:50

以上就是我调研分析的简单汇报。谢谢大家!

14:50

整体来讲,基于我们60个数据中心的调研分析,我们认为,数据中心绿色节能真的是一个长期的工作,尤其是一些绿色先进适用技术的应用效果,我们认为需要持续监测和关注,获得至少三年或者三年之上的数据是更加客观与公正的。现在有些数据中心只是积累两年数据,有些积累一年数据而已,在后续我们也会持续对不同数据中心进行监测和关注,获取更多真实的数据。再一次强调,先进技术的应用,还需要与运维水平的提升相结合,达到综合节能效果。

14:50

另外一些节能技术,比如说变频技术,供回水温度的优化,气流组织优化,循环水系统优化等等。我这里只是点了一下,如果要细讲起来,每一个里面都有很多有意思的实际案例和实际提升的过程。欢迎大家后面跟我们进行进一步讨论与沟通。

14:50

对于节能技术的应用,刚才也提到了也有几个方面,请大家可以参考。比如说照明系统的优化,现在有很多很好的照明系统,也不需要很大的改造。比如说UPS在线休眠技术,整体在线休眠技术,甚至具体到某个模块UPS休眠应用;再就是自然冷却技术的典型应用,都可以帮助数据中心提升能效水平。

14:50

对数据中心能效提升,我们提出一些策略,从宏观上说,数据中心绿色节能一方面是我们的国家政策,不只是数据中心这个行业,我们对其他行业也一样,我们对绿色节能环保现在关注程度越来越高,这是一个大的趋势,是不可逆的趋势,是必须要重视的一个方面即绿色节能。对于数据中心的绿色节能来讲,一方面比如说现在出台了国家绿色数据中心试点这样有意义的活动,引起全国范围内数据中心以及数据中心指导单位,不同地区行业、政府部门等越来越高的重视,对数据中心本身来说有实际的价值。数据中心绿色节能,对绿色中心来说,降低了成本。首先从电能来说,可以省电,提升使用价值。从宏观上讲,其实刚才在座的EEUE修正时已经提出了几个提升测试,EEUE的修正值含了几个方面,第一个方面是不同气侯条件里的修正值,气侯条件代表什么?规划数据中心时第一步先做好选址,比如说贵州就是一个非常好的适合建设数据中心建设和运营的地方;另外我们知道先进技术的应用和运维水平体相结合。绿色先进适用技术的应用以及运维水平结合能够得到绿色节能的综合提升效果。另外,从本地区或者不同地区来讲,根据需求小型数据中心与大型数据中心的配置与结合,综合提升绿色节能水平。

14:45

按地区来统计分析,刚才提到了调研样本主要分布在京津冀、西南、华南、长三角、东北地区(东北地区量相对少一些),从折线图上看到,各地区PUE值在1.2到2.5之间数据中心最多,符合实际数据中心的能效水平。

14:45

其他补充的两个典型技术应用就是采用微模块技术的数据中心目前有8家,根据我们与被调研单位的沟通与讨论,发现目前数据中心使用微模块技术意愿趋高,模块化数据中心增长比较明显。另外就是能耗监测系统的应用,比较多地应用于数据中心,群控系统嵌入能耗监测或单独的能耗监测在数据中心得到比较明显的应用。


13:15

广州赛宝计量检测中心服务有限公司技术支持部经理王景

14:30

标准依据数据中心所处气侯类似、安全等级等给出相应的调整值,修正值在实测值基础上考虑各种影响因素而获得的电能使用效率,修正值计算方法为实测值减去数据中心所适用的调整值。通过EEUE实测值进行调整,形成了EEUE修正值可以用与全国范围内不同数据中心进行能效评比。

14:30

在标准中明确规定了数据中心能耗测量的方法,在测量上应选用精度为一级的电度表,用电量数据应该以电度表统计而不是用功率表抽量进行测量。一天当中也会出现峰谷;其次是季节变化对数据中心影响非常巨大。以北方为例,8月份能耗可以达到2月份1.2倍,如果数据中心采用了板块自然冷源的方式,此比例将更大。

14:30

下面我将对标准中主要内容进行介绍。主要是EEUE基本公示。数据中心电能使用效率EEUE为数据中心总耗电量除以数据中心信息设备电能消耗。我们觉得PUE不太准确的地方,power是功能的意思,用功能衡量数据中心能效是不太准确的。

13:15

我的报告分为五部分,刚才节能司的领导对国家绿色数据中心评价指标体系进行了详细的解释,在指标体系中能源利用中58评分项主要依据于我将介绍的国家标准。首先根据背景,本标准颁布于2016年8月29日,2017年3月1日实施。本标准给出了电能能效等级及影响能源能效的因素,提出了数据中心能源能效的测量方法和计算方法,适用于数据中心电能能效的测量及能源使用效率的计算,也可用于分析数据中心能源能效状况,供数据中心的设计、建设、运维、改造参考,可作为数据中心电能能效水平的评级依据。


13:15

中国电子技术标准化研究院 工程师 刘宇
我主要介绍一下数据中心资源利用的第3部分,电能能效要求和测量方法

14:27

这次主要的评价内容是试点单位在先进适用技术推广使用、运维管理体系建设、能效提升、水资源利用、可再生能源以及清洁能源等方面的工作开展的情况。下面简单介绍一下评价指标。首先是能源使用效率,占比达到一半的分值,根据相关文件以及政策文件要求,计算出效率,以此为依据计算出得分。往下是电能系统的改造以及能效提升的管理制度,以及安装电能的计量系统。


14:24

工业和信息化部节能与综合利用司 阳紫微: 标准解读:《数据中心资源利用第3部分:电能能效要求和测量方法》(GB/T 32910.3-2016)

14:14

国家绿色数据中心先进适用技术(第一批)入选单位表彰




14:04

感谢你们来到这里,来共同探讨中国绿色数据中心的发展趋势和未来。同时,我也要感谢长期以来关心和支持我们机房分会工作的各界人士,因为大家能够在号召下也随我们一起参加会议,十分感谢。

今天来到这里,我首先要祝贺2017中国国际大数据产业博览会,尤其在这次会议上有电子学会和中国计算机用户协会机房分会共同组织的中国绿色数据中心发展论坛的召开。同时我要代表中国计算机用户协会机房分会向到场各位领导和来宾表示热烈的欢迎和诚挚的问候!

14:04

尊敬的杨铁生司长、尊敬的各位来宾,女士们、先生们下午好!


中国计算机用户协会机房设备应用分会 常务副理事长 蔡红戈 致辞

杨铁生 “十三五”时期,我们将紧紧围绕资源利用效率,以传统工业绿色化改造为重点,以绿色科技创新为支撑,以法规标准制度建设为保障,实施绿色制造工程。加快构建绿色制造体系,大力发展绿色制造产业,推动绿色产品、绿色工厂、绿色园区、绿色供应链的全面发展。建立健全工业绿色发展的长效机制,提高绿色国际竞争力,走高效、清洁、低碳、循环的绿色发展道路。推动工业文明和生态文明和谐共融,实现人与自然的和谐相处。

工业是我国经济的根基所在,改革开放三十多年来,我国工业发展取得了长足进步,建成了门类齐全、独立完整的工业体系。有利于推动经济社会快速发展。但是,随着我国经济体量不断增加,制约进一步发展的问题也在不断涌现,2016年全国能源消费总量达到了43.6亿吨标准煤,工业能耗占国内一次能源消耗的比重接近70%。另外工业大宗资源消耗量达到全世界90%,水资源消耗量约占四分之一,主要矿产资源对外依存度不断增加,资源保障和能源安全面临极大的挑战。加快破解资源和环境的约束,实现工业绿色发展是当前迫切需要。当前,我国工业发展正处于新旧动能持续转换,结构转型升级的关键时期,加快实现工业绿色转型发展已成为我国实现经济绿色转型的必然选择。2015年,国务院发布了中国制造2025,全年部署实施制造强国战略,强调全面推行绿色制造,为工业未来发展指明了方向。明确了目标。

杨铁生 借此机会,讲三点意见:一,工业绿色发展是生态文明建设的必由之路。党的十八大作出了推进生态文明建设的战略部署,把生态文明建设纳入五位一体总布局,党的十八届五中全会提出了创新、协调、绿色、开放、共享五大发展理念。把绿色发展放在前所未有的重要位置,这些都对我国工业和通信业发展提出了更新的更高的要求。一方面,我们要加快推进工业化进程,力争通过三个十年的努力,建设成为引领世界制造业发展的制造业强国,另一方面生态文明建设要求加快转变发展方式,形成节约资源和保护环境的空间格局、产业结构和生产方式、消费模式,实现绿色发展。

工信部节能与综合利用司副司长 杨铁生 致辞


 

中国电子学会副秘书长刘明亮

各位领导、各位来宾,大家下午好!非常欢迎大家来参加中国绿色数据中心发展论坛。首先我们有请中国电子学会刘明亮副秘书长做开幕致辞并介绍与会嘉宾

14:59

各位领导、各位来宾,大家下午好!非常欢迎大家来参加中国绿色数据中心发展论坛。首先我们有请中国电子学会刘明亮副秘书长做开幕致辞!


14:59

中国电子学会科普培训与应用推广中心副主任王娟主持





13:15

中国绿色数据中心发展论坛

本次论坛将邀请国家相关主管部门领导对国家绿色数据中心试点工作评价指标体系进行讲解,对入选第一批绿色数据中心先进适用技术目录的技术单位进行表彰,将围绕绿色数据中心行业发展趋势、技术产品、解决方案和发展模式等领域展开探讨,旨在为国内外企业提供绿色数据中心能效合作交流平台,分享国内外绿色数据中心设计、建设和运营优秀案例,促进数据中心产业绿色发展

本次报名已经结束,如您对活动或绿色数据中心节能技术感兴趣,请留下联系方式

会议日程
第一单元 会议开幕 主持人主持人:中国电子学会科普培训与应用推广中心副主任 王娟
12:40-13:30 签到  
13:30-13:35 会议开幕 中国电子学会副秘书长 刘明亮  
13:35-13:45

工信部节能与综合利用司副司长 杨铁生 致辞

中国计算机用户协会机房设备应用分会 常务副理事长 蔡红戈 致辞

13:50-14:00 表彰活动:国家绿色数据中心先进适用技术(第一批)入选单位表彰
14:00-14:05 国家绿色数据中心评价指标体系要求解读、发布 工业和信息化部节能与综合利用司 阳紫微
14:15-14:30

标准解读:《数据中心资源利用第3部分:电能能效要求和测量方法》(GB/T 32910.3-2016)

中国电子技术标准化研究院 工程师 刘宇
14:35-14:50 演讲题目:绿色数据中心能耗现状深度分析 演讲人:王景 职务:广州赛宝计量检测中心服务有限公司 技术支持部经理
第二单元 数据中心先进适用技术及应用案例解析 主持人:中国电子学会节能减排工作推进委员会副秘书长 郭丰
14:30-14:50 演讲题目:极智简单,云领未来—华为绿色智能微模块分享 演讲人:华为技术有限公司网络能源产品线数据中心领域市场总监 李国强
14:50-15:10 演讲题目:【预“见“未来】下一代数据中心的建设新思路 演讲人:深圳市共济科技股份有限公司微模块产品线总监 万凯
15:10-15:30 演讲题目: 数据中心低压比磁悬浮离心机的研制和应用 演讲人:查晓冬 职务:苏州必信空调有限公司总经理
15:30-15:50 演讲题目:佳品佳案——佳力图助力中国绿色数据中心发展 演讲人:南京佳力图机房环境技术股份有限公司技术部经理 陈胜朋
15:50-16:10 演讲题目:绿色数据中心运维最佳实践 演讲人:中金数据系统有限公司华东数据中心规划设计部总监 胡兴赞
16:10-16:50 圆桌对话:数据中心节能关键技术

主持人:江苏省邮电规划设计院有限责任公司暖通空调总工程师罗志刚

对话嘉宾:

对话嘉宾(排名不分先后):

  1. 中国移动南方基地总经理 林湧双
  2. 联通云数据有限公司运维与服务部总经理 康楠
  3. 网宿科技股份有限公司绿色云图技术总监 李棒
  4. 中国计算机用户协会机房设备应用分会专家 王建民
华为技术有限公司液冷技术专家 王超
16:50-17:10 演讲题目:冷墙全新风技术的最佳实践 演讲人:叶扬 职务:上海科力玛数据科技有限公司总经理
17:30-17:50 演讲题目:务实创新 绿色节能——数据中心机柜级动态均衡送冷技术 演讲人:汪德明 职务:广州汇安科技有限公司总经理
17:50 会议结束
最新资讯
《国家绿色数据中心试点评价指标体系(2017)》通过评审
由中国电子学会起草、中国电子技术标准化技术研究院参与编写的《国家绿色数据中心试点评价指标体系(2017)》日前通过专家评审。
现场花絮
入选技术
  • 低压比优化设计磁悬浮离心式压缩机智能控制技术
  • 天然气分布式供能技术

  • 冷板式液冷服务器技术

  • 华为高效模块化UPS技术
  • 华为智能微模块数据中心技术
  • 直流变频行级空调技术
  • 中兴积木式数据中心技术
  • 全密闭动态均衡送风供冷节能技术
  • 热管背板冷却技术
  • 直空调室外机雾化冷却节能技术
本届演讲嘉宾
  • 刘明亮

    中国电子学会副秘书长

  • 杨铁生

    工信部节能与综合利用司副司长

  • 王娟

    中国电子学会科普培训与应用推广中心副主任

  • 蔡红戈

    中国计算机用户协会机房设备应用分会常务副理事长

  • 阳紫微

    工信部节能与综合利用司


  • 刘宇

    中国电子技术标准化研究院工程师

  • 王景   

    广州赛宝计量检测中心服务有限公司技术支持部经理

  • 郭丰

    中国电子学会节能减排工作推进委员会副秘书长

  • 李国强

    华为网络能源产品线数据中心领域市场总监

  • 万凯

    深圳市共济科技股份有限公司微模块产品线总监

  • 查晓冬

    苏州必信空调有限公司总经理


  • 陈胜朋

    南京佳力图机房环境技术股份有限公司技术部经理

  • 胡兴赞

    中金数据系统有限公司华东数据中心规划设计部总监

  • 叶扬

    上海科力玛数据科技有限公司总经理

  • 汪德明

    广州汇安科技有限公司总经理

往届演讲嘉宾
  • 李孝众

    百度数据中心资深架构师

  • 张广河

    华为网络能源数据中心总工

  • 李震

    清华大学教授

  • 查晓冬

    苏州必信空调有限公司总经理

  • 蔡伟

    天来节能科技(上海)有限公司总经理

  • 林湧双

    中国移动通信南方基地总经理

申报单位
中国电子学会
中国电子学会(Chinese Institute of Electronics)于1962年在北京成立,现拥有个人会员 10万余人,团体会员600多个,专业分会46个,专家委员会8个,工作委员会 8个,编委会1个和一个近200人的秘书处,秘书处是工业和信息化部的直属事业单位。25 个省、自治区、直辖市有地方学会组织。 中国电子学会的主要工作是开展国内外学术、技术交流;开展继续教育和技术培训;普及电子信息科学技术知识,推广电子信息技术应用;编辑出版电子信息科技书刊;开展决策、技术咨询,举办科技展览;组织研究制定和应用推广电子信息技术标准;接受委托评审电子信息专业人才技术人员技术资格,鉴定和评估电子信息科技成果;发现、培养和举荐人才;奖励优秀电子信息科技工作者。
中国电子学会
机房360