机房360首页
当前位置:首页 » 数据中心资讯 » 为什么数据中心需要一个新的架构

为什么数据中心需要一个新的架构

来源:中国IDC圈编译 作者:DJ编辑 更新时间:2018-2-11 10:32:54

摘要:当涉及到数据中心的高资产利用率和敏捷性时,主要有几个推动因素:可组合性、可扩展性和开放性。

  当涉及到数据中心的高资产利用率和敏捷性时,主要有几个推动因素:可组合性、可扩展性和开放性。可组合性意味着企业可以将硬件与特定类型的工作负载精确匹配,直至特定的硬件组件(例如,CPU、内存、存储器、FPGA、NVMe模块、协处理器、网络连接等)。高可扩展性意味着企业可以根据需要使用尽可能多的组件(即使分散在物理机架上),也可以即时汇集运行各种规模的工作负载所需的计算能力。开放性意味着企业可以选择和集成最适合自己的工作负载的组件,而不会出现人为的兼容性问题。

  组合/解耦基础设施(CDI)是一种架构方法,旨在提供细化的硬件可组合性、高可扩展性和开放式管理应用程序编程接口(API)。可组合/解耦基础设施与虚拟化和软件定义基础设施(SDI)合作,通过克服固定比例的计算,内存,存储,加速器和网络资源的服务器带来的限制,提高数据中心的效率和灵活性。

  组合/解耦基础设施(CDI)是满足超大规模数据中心要求所需的难题的关键部分。那么当今数据中心面临什么样的挑战导致对组合/解耦基础设施(CDI)的需求呢?

  数据中心面临的挑战

  一些需要动态硬件配置的趋势包括:

  。超高速增长和超大规模 - 云计算和边缘计算等新的计算模式正在推动服务提供商迅速扩展数据中心,以至于传统的部署和管理方法无法跟上这种发展。

  。高密度- 对更多计算和存储容量的需求意味着数据中心运营商正在努力通过在设备、制冷、机房空间,以及电源花费的预算来完成更多的计算。

  。新的工作负载 -当涉及到新的工作负载时,大数据、物联网、人工智能和其他数据中心被这些工作负载的规模所限制。此外,随着时间的推移,这些应用程序经常显示出需求的巨大变化和快速增长。

  。DevOps和微服务 - 过去,大多数应用程序是在一台机器上静态运行。与目前的应用程序相比,这些应用程序是由物理分散的、连续升级的、动态优化的相互连接的软件组件组成的。硬件也必须能够扩展。

  新的硬件技术以及新型应用程序已经有了各种各样的支持硬件 - 不同类型的处理器,存储器和互联设备,这使得任何固定的"一刀切"硬件都变得都变得低效而呆板。

  如今的数据中心越来越多地被要求运行更大、更复杂的工作负载,这些工作负载往往彼此不同,所以运行它们的硬件要求可能会因工作负载而异,并且在一天甚至一小时内也可能发生变化。例如,一些工作负载可能需要更多的处理能力或内存容量。还有一些可能需要NVMe存储或专用处理器。此外,为了降低总拥有成本,在不同的时间跨多个工作负载利用高端设备也是可取的。

  如何判断数据中心是否处于压力之下

  这些新挑战的实质性影响是什么?组织如何知道自己的数据中心是否受到这些挑战的影响?数据中心面临压力的一些实际指标包括:

  o数据中心管理仍然复杂,需要大量的技术人员。

  o即使虚拟化环境的平均利用率也很少超过50%,而非虚拟化数据中心的运行率则在20%-30%左右。

  o为新应用程序提供硬件仍需要几天或几周,并需要多个专家实施。

  o智能平台管理接口(IPMI)已有20年历史,由于其协议和位级编码技术而具有固有的局限性。数据中心需要一个更具扩展性、安全性和互联网友好的管理标准。

  o来自不同供应商的设备和管理软件之间的互操作性通常是有问题的,这限制了功能和可编程性。

  oCPU升级通常需要更换整个服务器机箱和服务器中的所有资源,并尽快更换存储设备、电源、风扇,以及网络适配器。

  o应用程序开发人员因当前的需求、部署、验证和供应流程而变慢。

  o对应用程序容量需求的不可预见的变化的响应太慢,并且劳动强度大。

  所有这些挑战都有一个共同的来源:数据中心运营商无法轻松地分配高粒度和大规模的特定硬件设备,以满足特定的工作负载(无论是单独还是作为一组),因为硬件要求不断变化。

  虚拟化和软件定义基础设施(SDI)的局限性

  虚拟机(VM)允许多个应用程序在服务器上运行,帮助更好地利用服务器的硬件,实现快速配置和负载平衡,并增加管理自动化。容器化还提供了许多这些优势,因为它使应用程序可以与其所有依赖的选项打包在一起,并动态部署到服务器以响应工作负载的变化,这将进一步提高硬件利用率和灵活性。

  除了计算服务器(包括文件服务器,存储集群和网络交换机)之外,软件定义基础设施(SDI)还扩展了硬件抽象的概念,以涵盖其他基础设施元素,因此整个数据中心基础设施就像软件一样可编程,就像操作环境和运行的应用程序在上面运行。此外,组织缺少的是在数据中心的任何地方配置服务器中的元素(即按需组装特定的硬件资源)的能力。组合分解基础设施(CDI)提供了这些缺失的部分。

  组合分解基础设施(CDI)的美德

  在启用组合分解基础设施(CDI)的数据中心中,每台服务器中的各个计算模块、非易失性存储器、加速器、存储器等都被分解为共享资源池,因此可以在软件控制下单独进行管理。分解后的组件可以在软件控制下重新组合,或作为工作负载优化的服务器,而不管物理上驻留的组件是什么。研究表明,组合分解基础设施(CDI)可以实现高达63%的TCO收益(55%的资本支出,75%的运营成本),其技术更新节省了44%的资本支出和77%的劳动力。

  这些节省的结果是:

  o由于进行分解,通用管理API和供应商互操作性可以更快、更容易的扩展,

  o在应用程序开发、配置和生命周期管理方面更加灵活,

  o由于更好的资源利用率,更低的过度配置和动态负载调整,

  o独立的升级周期(即只需要更换目标资源,而不是整个服务器)

  o通过自定义配置(包括快速非易失性存储器(NVM)和加速器等)优化性能

  o更加自动化的基础设施管理和更有效地利用工作人员。

  Facebook、Google和其他主要云计算服务提供商(CSP)正在积极研究其数据中心的分解架构。它们的一些实现是自定义的,大多数使用专有软件和API.为了匹配最大的云计算服务提供商(CSP)的收益,没有这么大规模的组织需要采用的商业现成的组合分解基础设施(CDI)解决方案。开放技术标准的共同性将有助于行业实现规模化,并使得组合分解基础设施(CDI)一般可以从供应商的选择中获得。

  开放的组合分解基础设施(CDI)蓝图

  这是英特尔RSD(Rack Scale Design)的目标,这是围绕通用的基于组合分解基础设施(CDI)的数据中心架构引发行业创新的蓝图。英特尔RSD是实现跨硬件和软件供应商的互操作性的一种实现规范。

  英特尔RSD定义逻辑架构的关键方面来实现组合分解基础设施(CDI)。第一个是设计规范,定义模块、机架和数据中心级别所需的硬件和软件功能,以实现基础设施的粒度可组合性和可扩展软件控制。第二个是一套通用的开放式API,可以将这些功能公开到来自多个开源或商业供应商的更高级别的编排软件。

  这些API是在Redfish中定义的,这是一个开放的、可扩展的和安全的标准,它基于Web友好原则(RESTful APIs,JSON数据模型),用现代的开放式管理框架取代IPMI. Redfish是分布式管理任务组(DMTF)可扩展平台管理论坛的产品,该论坛是Broadcom、Dell、Ericsson、Hewlett-Packard、Intel、Lenovo、Microsoft、Supermicro和VMWare于2014年9月发布的行业计划。英特尔RSD扩展定期提交给Redfish可扩展平台管理论坛,作为包含在官方Redfish标准中的建议。

  英特尔机架规模设计软件文档涵盖了英特尔RSD软件各种组件的功能和API.

  戴尔EMC、爱立信、惠普、华为、浪潮、广达、超微、Wiwynn等厂商现在都可以提供基于英特尔RSD规范的商用产品。 所有这些都有一个共同的目标:最终释放数据中心的全部力量,并使用一套通用的开放式管理API跨所有工作负载扩展数据中心的能力。商业CDI产品将帮助行业应对当今数据中心运营商每天面临的挑战。

  责任编辑:DJ编辑

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2018211/n3002102157.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片