机房360首页
当前位置:首页 » 服务器资讯 » 下一代Xeon服务器:Ice Lake-SP通用云平台设计预览

下一代Xeon服务器:Ice Lake-SP通用云平台设计预览

来源:腾讯网 作者: 更新时间:2021/3/1 11:03:31

摘要:在SC2020超级计算大会上,Intel公布过下一代Xeon Scalable处理器(代号Ice Lake-SP,对应的双插槽服务器平台代号Whitley)的一些细节。比如10nm+制程工艺,每颗CPU支持8个DDR4内存通道,以及PCIe 4.0等。

  - Whitley ICX 2S概览:PCIe Gen4、8通道内存等

  - 风冷限制:270W TDP,1U机箱支持到205W

  - FAN cage、Front drawer:模块化机箱/免工具服务

  - 2种中板、OCP网卡/U.2/EDSSF SSD灵活设计

  - 互联网/云计算“不感冒”的NVMe RAID卡

  在SC2020超级计算大会上,Intel公布过下一代Xeon Scalable处理器(代号Ice Lake-SP,对应的双插槽服务器平台代号Whitley)的一些细节。比如10nm+制程工艺,每颗CPU支持8个DDR4内存通道,以及PCIe 4.0等。

  根据之前看到的新闻,IceLake-SP有可能就在今年上半年正式发布。近日我看到OCP(Facebook发起的开放计算项目)公开的一份技术文档《Junction City -Whitley ICX 2S Common Cloud Platform》,就在这里带大家解读一下。

  这个只是1U服务器的结构模型图。大家数一下,是不是每个CPU插槽对应8个内存通道?

  代号Junction City的服务器是为云优化的系统方案而设计,ICX 2S就是Ice Lake-SP的简称。资料中写的支持19英寸机架式1U或者2U机箱,不过具体介绍的只有1U部分。

  注:本文中讨论的云计算特指公有云服务,不包括与传统企业级IT基础架构接近的私有云。

  从主板PCIe Gen4连接到前面板的设备可以有:

  - 2个OCP 3.0网卡;

  - 6个EDSFF SSD;

  - 4个U.2 SSD;(实际可以支持更多,详见下文)

  至于它们之间具体是和还是或的关系,后面我会列出示意图来解释。

  服务器供电部分我们看到2个模块(支持冗余),我理解如果机柜提供12V应该可以直供;也可以支持48V直流电源模块(Power Shelf Busbar adapter)。当然,如果想改成110/220V交流电源的设计也不难。

  上面图表是详细一些的规格。首先主板PCB是12层;CPU插槽没有意外为双Socket P4,LGA-4189。

  Ice Lake-SP的UPI互联速率提升到11.2GT/s,当前的Xeon Gold和Platinum x200系列CPU为10.4GT/s。

  PCH芯片组小幅更新到C621A,毕竟现在内存和PCIe控制器都在CPU里面,“南桥”的功能不需要多少变化。

  风冷限制:270WTDP,1U机箱支持到205W

  点开图片后可放大,以下同

  上图我引用了Intel龚海峰在OCP China Day 2020会议上的演讲资料《Air to Liquid Cooling Transition》。从左到右的4种系统设计分别为:

  - 1UCPU插槽在散热风道上前后遮挡(双节点共4颗)——35℃进风温度情况下,典型支持到170W TDP;

  - 1U Socket左右并排——典型230W;

  - 2U Socket左右并排——典型270W;

  - 2U带有扩展面积风冷(ExtendedVolume Air Cool)设计——典型支持350W。

  具体到DIMM内存的数量和间距也不一样,比如最左边的2节点各自支持16条,但间距要求大一点达到0.37”。

  存储方面,最右边的2U EVAC平台只支持8个SSD,应该是为了减少对进风气流阻碍。

  风量要求,这几种设计中2U 270W TDP相对最低只要75 CFM;1U双节点则需要100 CFM,类似的2U 4节点和刀片服务器通常也会是更高的风扇转速。

  1U和2U机箱都可以用这种通过导热管扩展面积的风冷散热片(在当时这款服务器上,是为了补偿那个低密度的散热鳍片)。

  FAN cage、Front drawer:模块化机箱/免工具服务

  通用化前面板布局——如上图,Junction City设计上可以支持横向放4个U.2 NVMe SSD(上下还可以2排),右边一个OCP3.0网卡;也可以像左下角那样左边再加一个OCP网卡,此时受限于宽度横向只能排列3个2.5英寸驱动器(最多6个)。

  这部分还涉及到不同的中板连接,下文中会继续给大家介绍。

  上图左边是模块化的FanCage设计,可以免工具服务;风扇的锁紧装置是自上而下维护的。

  右边为模块化的机箱前部抽屉,里面包括SSD、OCP3.0网卡、中板和前面板操作的FIO Board及部分。这个Front drawer也是免工具服务(更换),根据不同的应用可以有多种选择。

  这种模块化设计能够使工厂定制更加方便,我理解对于物料库存准备也可以更灵活高效。等到IceLake-SP服务器正式上市时,大家可以留意下有哪些机型符合这一特点。

  2种中板、OCP网卡/U.2/EDSSF SSD灵活设计

  点开后可放大

  上面从左到右依次为主板、中板(Midplane)、PCIe Riser卡和Front Panel Board。

  中板这块有2种选择——如果不需要在机箱前部放置OCP网卡,就可以容纳一横排6个热插拔U.2 NVMe SSD。具体的连接方式和路径如下。

  上图可以看作前文中“通用化前面板布局”的进一步解释。位于左右2端的OCP网卡都提供了PCIe 4.0 x16连接支持,U.2 SSD只需要PCIe x4。

  这里也能侧面印证Ice Lake-SP的PCIe信道数量为64 lane。

  在Junction City平台已经通过中板支持底部一排6个U.2 SSD的情况下,上方一排可以从主板上预留给EDSSF的6个(PCIe 4.0 x8,这里只用到x4)接口加上线缆连到驱动器热插拔背板,这样1U机箱最多支持12个U.2 NVMe。

  具体到支持EDSFF(E1.S或E1.L)SSD的机箱长啥样?这份资料里却没有提。特别是E1.L,我感觉更多是针对存放温冷数据的高密度闪存系统,U.2仍然主流是因为与2.5英寸SAS/SATA驱动器可以通用槽位(机框)。

  互联网/云计算“不感冒”的NVMe RAID卡

  写到这里,大家可以再次看出互联网/云计算行业对定制化服务器的要求——规格基本上是够用就好,增加成本的“花哨设计”尽量少搞(或者说追求性价比吧)。具体到OCP的Junction City平台,我们没有看到RAID卡,也没有看到PCIe Switch/SAS Expander。

  责任编辑:张华

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/202131/n3383137402.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片