机房360首页
当前位置:首页 » 数据中心资讯 » 为什么数据中心需要一款新的架构

为什么数据中心需要一款新的架构

来源:机房360 作者:litao984lt编译 更新时间:2018-2-9 10:07:23

摘要:本文作者Steve Gillaspy是英特尔RSD(Rack Scale Design)架构的产品管理高级总监。

  本文作者Steve Gillaspy是英特尔RSD(Rack Scale Design)架构的产品管理高级总监。

  可组合的解耦基础设施补充了虚拟化和SDI技术,充分满足了当今超大规模的数据中心效率和灵活性方面的需求。

  当涉及到数据中心的高资产利用率和灵活敏捷性时,几大推动因素便脱颖而出了:可组合性、可扩展性和开放性。可组合性意味着您企业数据中心可以将硬件与特定类型的工作负载精确匹配,直至特定的硬件组件(例如,CPU、内存、存储器、FPGA、NVMe模块、协处理器、网络连接等)。高可扩展性意味着您企业数据中心可以根据需要使用尽可能多的组件(即使这些组件是分散在物理机架中),也可以即时汇集运行任意规模大小工作负载所需的计算能力。开放性意味着您企业数据中心可以选择和集成基于最适合您的工作负载的组件,而不会出现人为的兼容性问题。

  可组合的解耦基础设施(Composable Disaggregated Infrastructure,CDI)是一种旨在提供细化的硬件可组合性,高可扩展性和开放管理API的架构方法。CDI与虚拟化和软件定义基础设施(SDI)合作,通过克服固定比例的计算、内存、存储、加速器和网络资源的服务器带来的限制,提高数据中心的效率和灵活性。

  CDI是满足超大规模数据中心要求所需的难题的关键部分。那么,当前企业数据中心所面临的哪些挑战导致了其对于CDI的需求增长呢?

  当前企业数据中心的挑战

  一些创造了更为动态化的硬件配置的趋势包括:

  超高速增长和超大规模——诸如云计算和边缘计算等新的计算模式正在推动服务提供商迅速扩展其数据中心,以至于传统的部署和管理方法已然无法跟上其需求的步伐。

  超高密度——对更多计算和存储容量的需求意味着数据中心运营商们正在努力通过在设备、制冷、地面空间和电力上的预算花费来完成更多的计算任务。

  新的工作负载——当涉及到新的工作负载类型,包括大数据、物联网(IoT)、人工智能等等方面的时候,数据中心已然受到了来自这些工作负载的巨大影响。另外,这些应用往往表现出很大的需求变化,以及随着时间的推移而快速的增长需求。

  DevOps和微服务——在过去,大多数应用程序是在一台机器上运行的,并且是静态的和单片式的。而相比之下,对于目前的应用程序而言,这些应用程序由物理上分散而相互连接的软件组件组成,不断升级,并进行了优化,以进行动态扩展。硬件也必须能够扩展。

  新的硬件技术以及新型应用程序已经有了各式各样的支持硬件——不同类型的处理器、存储器和互连,使得任何固定的“一刀切”硬件效率均显得非常低下且不灵活。

  当今的数据中心越来越多地被要求运行更大、更复杂的工作负载,这些工作负载往往彼此非常不同。因此,运行这些工作负载的硬件要求可能会因工作负载而异,并且可能会在一天内甚至几个小时内发生要求变化。例如,一些工作负载可能需要更多的处理或内存容量。还有一些则可能需要NVMe存储或专用处理器。此外,为了降低总拥有成本,在不同的时间跨多个工作负载利用高端设备也是可取的。

  如何判断您的数据中心是否处于压力之下

  这些新挑战的实质性影响是什么?你怎么知道你企业的数据中心是否受到这些新挑战的影响?数据中心压力的一些实际性的指标包括:

  数据中心的管理仍然复杂,需要大量的技术人员。

  即使虚拟化环境的平均利用率也很少超过50%,而非虚拟化数据中心的利用率也只有20-30%左右。

  用于新应用程序的配置硬件还需要几天或几周的时间,并需要聘请多位专家。

  智能平台管理接口(IPMI)已有20年的历史,由于其协议和位级编码技术而具有其固有的局限性。数据中心需要一套更具扩展性、安全性和互联网友好的管理标准。

  来自不同供应商的设备和管理软件之间的互操作性通常是有问题的,从而限制了功能性和可编程性。

  CPU升级通常需要更换整个服务器机箱和服务器中的所有资源,并尽快撤销存储、电源、风扇和网络适配器。

  应用程序开发人员的工作进程因当前的采购,部署、验证、配置流程而放缓。

  对不可预见的应用程序容量要求的变化反应太慢,且为劳动密集型。

  所有这些挑战都有一个共同的来源:数据中心运营商无法轻松地分配高粒度和大规模的特定硬件元素,以满足特定的工作负载的需求(无论是单独的还是作为一组的工作负载),因为硬件要求在不断变化。

  虚拟化和SDI的局限性

  虚拟机(VM)允许多款应用程序在一台服务器上运行,帮助更好地利用服务器的硬件,实现快速配置和负载平衡,并增加管理的自动化。容器化也提供了许多这些优势,因为其使得应用程序能够与其所有依赖项打包在一起,并动态部署到服务器,以响应工作负载的变化,这进一步提高了硬件的利用率及其灵活性。

  除了计算服务器(包括文件服务器、存储集群和网络交换机)之外,SDI还扩展了硬件抽象的概念,以涵盖其他基础设施元素,因此整个数据中心基础设施就像软件一样可编程,就像操作环境和运行的应用程序一样在其之上。仍然缺少的是能够在数据中心的任何地方配置服务器中的元素(即按需组装特定的硬件资源)。而可组合的解耦基础设施(CDI)则提供了这些缺失的部分。

  CDI的优势

  在CDI支持的数据中心中,每台服务器中的各个计算模块、非易失性存储器、加速器、存储器等被解耦分解到共享资源池——因此可以在软件控制下单独和共同管理它们。分解后的组件可以在软件控制下重新组合,或作为工作负载优化的服务器,而不管物理上托管的具体组件是什么。研究表明,CDI可以实现高达63%的TCO收益(55%的资本支出,75%的运营成本),而技术更新则能够节省44%的资本支出和77%的劳动力开支。

  这些节省所带来的结果是:

  由于解耦分解了通用管理API和供应商互操作性而带来了更快、更容易的扩展;

  提高了应用程序开发、配置和生命周期管理的灵活性;

  提高了资源利用率,并减少了过度配置和动态负载调整,提高了效率;

  独立的升级周期(即只需要更换目标资源,而不是整台服务器);

  通过自定义的配置(包括快速非易失性存储器(NVM)和加速器等)优化了性能;

  更加自动化的基础设施管理和员工工作变得更加高效。

  Facebook,谷歌及其他一级云服务提供商(CSP)正在积极研究其数据中心的解耦分散架构。他们的一些部署模式是自定义的,大多数使用专有软件和API。为了匹配最大的CSP的收益,不具备谷歌或Facebook这等规模,但同样需要商业现成CDI解决方案的任何企业都可以采用。开放技术标准的共同性将有助于该行业实现规模化,并使得CDI可以从供应商处普遍获得。

  开放的CDI蓝图

  英特尔RSD(Rack Scale Design,Intel RSD)架构的目标,就是围绕基于CDI的通用数据中心架构开创数据中心行业创新的蓝图。英特尔RSD是一款实现规范,有助于支持硬件和软件供应商之间的互操作性。

  英特尔RSD定义了实现CDI的逻辑架构的关键方面。第一大方面是设计规范,即定义模块、机架和数据中心级别所需的硬件和软件功能,以实现基础架构的粒度可组合性和可扩展软件控制。第二大方面是一套通用的开放式API,可以将这些功能应用到来自多个开源或商业供应商的更高级别的业务流程管理软件。

  这些API是在Redfish中定义的,这是一套开放的,可扩展的且安全的标准,其基于Web友好原则(RESTful APIs、JSON数据模型),用现代的开放式管理框架取代IPMI。Redfish是分布式管理任务组(DMTF)可扩展平台管理论坛的产品,该论坛是博通公司(Broadcom)、戴尔、爱立信公司、惠普、英特尔、联想、微软、美国超微电脑股份有限公司和VMWare公司于2014年9月发布的行业计划。英特尔RSD扩展定期提交给Redfish可扩展平台管理论坛,作为纳入官方Redfish标准的建议。

  英特尔RSD的规格文档可通过访问intel.com/intelrsd获得:

  英特尔RSD平台硬件指南涵盖平台硬件和组件的一般规格和设计指南。

  基于英特尔RSD规范的商品化产品现在可以从许多供应商处购买,包括戴尔、EMC、爱立信、华为、Inspur、Quanta、Supermicro 、Wiwynn和其他公司。所有这些供应商都有一个共同的目标:最终以尽可能细粒度的级别释放数据中心的全部功能潜力,并使用一组通用的开放管理API在所有工作负载上扩展这种能力。商品化的CDI产品将帮助我们的行业迎接今天的数据中心运营商所面临的各种挑战。

  责任编辑:DJ编辑

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/201829/n7026102118.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片