机房360首页
当前位置:首页 » 业界动态 » Yan Zhao:OCP 硬件设计:服务器和存储

Yan Zhao:OCP 硬件设计:服务器和存储

来源:机房360 作者:yoyo编辑 更新时间:2015-9-14 17:59:54

摘要:2015年9月10日-11日,由中国电子学会、开放计算项目(Open Compute Project,OCP)、美国劳伦斯伯克利国家实验室联合主办的“中美绿色数据中心研讨会暨中美开放计算标准交流会”在上海浦西万怡酒店隆重开幕。以下是嘉宾演讲实录。

  2015年9月10日-11日,由中国电子学会、开放计算项目(Open Compute Project,OCP)、美国劳伦斯伯克利国家实验室联合主办的“中美绿色数据中心研讨会暨中美开放计算标准交流会”在上海浦西万怡酒店隆重开幕。以下是嘉宾演讲实录。

  Yan Zhao:大家好,我是Yan Zhao,我是非常少的做硬件的工程师一个,我们做Servers,我们公司也做存储,网络,但是非常奇怪,你们作为互联网的公司,为什么做很底层的硬件,为什么要做Servers,Storage等等,这些已经有很多公司在做了,你为什么要做,当公司规模大到一定程度的时候,你发现你去做比你去买要便宜得多。

  我相信很多公司做产品非常好,但是他们在做决定我们做什么样的Servers的时候,有很多因素面对成百上千的客户,要做出来满足客户需要,可能做出来四不象的东西,你买东西可能买到不需要的功能。对我们来说,我们去发现我们想用的Servers,想用的Storage等,我们不买不到。

  我们线上出现一个问题,第二天就解决掉这个问题,事实上花很长的时间去处理,对我们很快节奏公司来说,不能够承受时间上的损耗,这是我们为什么自己做自己的底层的硬件一些原因的大方面。 我们做这些的时候有几个原因,第一点我们希望价格越低越好,我们不是单纯看一个Servers卖多少钱,一个Storage卖多少钱,你买电源做机器更要注意价钱,我们价钱非常低。第二更关心可服务性,我们希望一个人到数据中心区,换一个硬盘,他不会说我做的东西太不好,费了很大劲牵扯出来,然后费很大的劲拧螺丝换下来,我们希望一把放上去一换30秒钟,我们公司做产品的时候我们希望跟客户紧密交流,请他们看,这样做是不是好,你喜欢不喜欢,还可以提高,我们更加紧密的,天天都在一块儿去看这样一些东西,所以我们尽可能的去做东西,又简单又好用,很方便做维护。

  第三个我们不想做很多很多种的,我们就希望做很简单的东西,我们像搭积木一样放起来,根据很基本的积木块,搭很基本的结构,机架里面放不同的东西,然后把几个东西放一起,完成一个大的功能。我们希望做的越简单越好。我们用很少的东西,可以做出很多事情。

  第四个餐巾纸上画的东西,我们做好的东西,喜欢跟大家分享,我们画好了以后,非常大家去分享,不管爱因斯坦第一个小板凳还是第四个,总归拿出来看,我们拿出来看一些。你可以看到我们所有的这些东西,基本上可以拿去生产了。

  2-socket Server,design,这是带针的CPU,CPA接上去,我们三个Servers放一块儿了,然后后面两个电风扇,我们控制温度,不是一个机柜或者几个机器一块儿,我们每个Servers都可以控制他们的,我们觉得CPU比较热了,我们再给一个CPU,我们可以很自由的调电风扇转速,我们花很大力气,有很多传感器在上面,我们做到每个Server调电风扇做到最优化,可以省很多电。

  前面比较有意思的是,我们这边可以扩展很多东西,这是我们传统意义上的2-socket Server。

  我们的机械图,电风扇故障率非常低的,两个一块儿坏的可能性非常非常小,如果有一个坏了,我另外一个平时是25%到35%的情况,平时一个坏了以后,另外一个可以100%的情况下转,在你没有及时换电扇的情况下,我还可以同时及时进行工作。我们两个PCLE的卡槽,16纳米槽和8纳米槽,你可以扩展你的大小,这样我们利用场合非常多了,很灵活了。OCP mezz,这是我们网卡,这个我们是10g的网卡,我们很灵活,各种各样网卡芯片,我们都可以用他们芯片做卡插上去,这样我分析下来,价格最低最便宜的一种方法,最灵活的方法。一个CPU在运行75%,另外一个只有15%,和25%的情况,你花钱让两个CPU一块儿跑,你花钱但是没有得到你想要的一些东西。我们想,我们为什么非得把两个CPU放一块儿呢,我们做了两个东西,一个CPU,一个Server,我们机箱里,两层的高度。如果一层楼多住两人怎么办,我们该第二层楼。这里4个Server共享一个网络接口,电风扇一样,电源从后面进来12伏,实际上12.5伏,这样一个结构下来,结构非常简单,我们从后面看的话,只有一个电源进来,所以你就没必要拆东西换东西,所有服务都可以从前面去弄,然后你到一个把手一扯就扯出来了,三个东西放一块儿非常沉的,我们换成三个很灵活,对可服务性提高非常大的。

  这样我们做成模块化的东西,非常方便大家去做Servers,然后我们前面只有一个网卡一个口,一根线从这儿接到上面去,这个结构看非常简单很灵活。Architecture是这样,我们有四个Slot1/2/3/4,前面有一个东西给所有主板供电,前面是一个网卡,我可以做到4×10g,如果4G希望每个Slot拿到10个g,如果是50g的话我们希望拿到Slot5个g,我们希望管理一个Server,我每个项目独立温度的传感器,我进风口一个传感器,出风口还有一个传感器,整个大的盒子前面有,后面也会有,加上每个CPU的传感器,我们比较关心的地方都会放传感器,这样我们可以拿到很多数据,拿到这些数据以后,利用这些数据控制这些fan,这样可以让CPU跑到比较好的温度上面,另外我们不要消耗更多的电。

  我们除了正常情况下访问BMC,我可以通过slot访问BMC,BMC去访问Slot。从网络接口过来,不是给BMC留的,那就跑到Slot1/2/3/4,这样你接一个串口,从网络上可以看到BMC怎么工作的。这是我们第一个Slot。我们为什么叫slot1呢,我们做成跟CPU没有关系的,我从他们这儿买一个给你,我可以另外一个卡比如我买一个Powerpc等,我放上去都可以用了。我们这个CPU用14mm intel Xeon d-1500soc的,然后有两个2channels,6×4pcle,gen3 links to edge Connectors,需要cpu帮我们算东西,阿曼达(英)帮我存东西,然后我需要从硬盘上获取,然后我需要一个网络接口,这样子四个东西基本有了,这就是很全面的一个小的服务器或者非常好。

  你怎么把这个东西搞成跟CPU没关系呢?你可以插各种产品上面去跑。好处就是Bridge ic芯片,只有一条线,BMG在赛特曼(音)上面,他管四个服务器的,他其实看到到底是什么样的Server,其实他不关心这是什么东西,但是这个东西站在Bridge的立场上管理这个服务器,比如GPL有一些错误信息,用GPL传过来,或者很多传感器,所有电压电流都要测量放到信号里面去,我们把所有东西包装在一起,BMC根本不关心你什么东西在背后。我们现在公司已经把两种Server放在OCP里面去,大家可以看一下我们为什么要做这样一个东西。我们Server很简单的服务器了。

  我们存储的体系结构是这样的,硬盘都可以撤出来,没有必要断电。

  我们第一代产品Knox,我相信OCP以后很多人在用了,我们这里分两层,每一层15个盘,前面有一个卡,还有需要一个2s Server as head node,Storage subs-system,avago/lsi6g sas Hba,Avago/lsi uG Sas expander。你可以根据你的需要去组合一下。

  2s Server非常强,我们两个CPU,但是Storage不是CPU里面一个东西,很多情况下不需要CPU做做个东西什么的,他就是只要做很简单很基本的管理工作就行了,后来想我们干嘛搞非常贵的东西,而且利用率非常低,后来我们用了一个Micro Server ,我们定义了一下,我们用比较弱的open Server,TDP只有20W的情况,然后Storage可能BUS比较多,所以我们有4个SOD,上面两个,下面两个,这上面需要放一些东西,我们下面会讲更多的东西,这是我们现在最新的做Storage的东西,现在已经在用了。

  Panther-micro -server Card,就是CPU了,所有东西都放在一起了,一个芯片都放在一起了,然后两个电扇,这些卡插在这里。主板是两个一样的阿板特卡(音)想把它磁化了,我们底下想叫BMC管理,那么通过BMC拿到一些数据,可以更好管理这样一些东西。有网卡,跟以前一样Mezz card,我们可以去另外一个公司拿,插上去用。这是Sas Controller,我们这边有expander,可以接到这上面去了,我们这边对接,然后你可以看到第二层还有15个硬盘,第二层用sas Expander。

  我们还做服务器做Storage就是这样,我们做交换机,我们有一个40g的Switch,去年放OCP上面去了,我们去年还建了,Rack很多CLASS之间相互怎么交流的东西,我们有一篇很好的文章专门讲这件事情,说我们cold.com Facebook.com,上面有很多这个工作怎么做的。

  我们在做东西的时候,我们所有的东西都要去算,不能说根据我以前的经验,我就可以做到什么什么,这个是不可以的,你说话要用事实,用数据去做,你不能说别人告诉我怎么怎么好,在制作以前经过大量的工作,确保我们不会出很低级的事情,在这个东西的时候,PCB大概三个月,三个月以后第一次做PLATFORM没有改一根线,没有改任何东西,就可以了。

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/20151126/n623375100.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片