机房360首页
当前位置:首页 » 数据中心资讯 » 设计下一代数据中心 (2)

设计下一代数据中心 (2)

来源:机房360 作者:CC编译 更新时间:2017/11/14 10:29:55

摘要:下一代数据中心(NGDC)设计包含一个统一的方法,在数据中心框架的每一层应用5个架构原则。这种方法影响软件、过程和支持整个交付栈的人员。

  下一代数据中心成功的的五项原则

  下一代数据中心(NGDC)设计包含一个统一的方法,在数据中心框架的每一层应用5个架构原则。这种方法影响软件、过程和支持整个交付栈的人员。

  五项原则是:

  可扩展性:在下一代数据中心(NGDC)中,资源库会在不破坏原来技术层面的前提下,跨过数据中心,不断的向外延展。预测业务需求可能需要2年、3年或者5年,这是一个不确定的问题,因为您的基础架构是在随着需求的变化而逐步扩展的。对于线性发展、以及预测的能力、性能的增长以及保证质量的服务(QOS)对在下一代数据中心必不可少,这使得数据中心的可扩展性成为下一代数据中心的核心。

  稳定性:数据中心原有性能只占下一代数据中心解决方案的一半。服务质量控制保证必须包含数据中心全部的基础设施或,不然,质量保证就是纸上谈兵。传统的基础设施规划设计不是为了平衡后期扩容网络带宽而设计的与大型数据中心预期的服务水平,同步的适合云服务的基础设施。在下一代数据中心中,像CPU、内存、带宽、存储容量和存储性能这样的资源都会被动态管理,满足需要交付的应用程序的需要,以及对应用程序预期达到目标的期望。

  管理自动化:企业IT部门担负着支持企业创新、增长的使命与责任。如果IT发展不畅,企业会给企业带来税收损失的风险,同时,在遇到比自己发展IT更为迅速的竞争对手时,会给自己带来重大意义的破坏。因此,可以采用通过软件管理,来实现自动化管理,从而通过软件来管理关键点的变化,无论是硬件还是软件,都可以通过实施管理。在使用策略驱动的配置以及资源合理分配的前提下,下一代数据中心将所有业务尽可能最大化的自动化管理,,并消除了以端点为中心的管理。如果预期的服务交付需求能够达到规模,自动化任务编排工作流是企业的基础。

  数据的安全性: 下一代数据中心保证在没有配置应用程序的情况下,数据中心基础设施配合到位,保障数据信息的安全性。数据保证工程可以被比作设计地震建筑物;没有任何建筑物能保证能承受所有地震活动,但抗震结构设计能指数级地降低灾难发生的可能性。在下一代数据中心规划中,整体规划师允许数据中心出现故障,同时建立一个自我修复、容错性的架构来降低故障发生的可能性。

  全球效率:传统的数据中心模型建立在这样一个前提之上,即更多的能力需要更多的资源——无论是物理的、金融的,还是人力资源。在下一代数据中心中,企业没有不会拥有过多的IT资源。启用全球效率首先需要提高服务器平台、网络和存储协议的利用率,以及支持每一层的供应商和IT团队。


  可扩展性

  在下一代数据中心中,软件控制的基本原则是在对数据中心的高度可扩展性中体现出来的。由于能够提供无缝的、透明的资源扩展,而省去传统基础设施迁移的成本,以及实施期间的复杂性,因此可扩展性将成为企业IT部署的主要架构。

  扩容与可扩展性

  扩大架构允许扩展有限的变量,因为每个组件的能力限制了它们的集体性能。数据和应用程序通常会激增,最终,在一个规模扩大的架构中,最终将达到最大容量。

  随着应用程序的增加,基础设施资源也会被分散,性能也会下降。使用一个扩容(scale-up)架构,您所操作的硬件决定了您的限制,并且更快的硬件可能需要大量的迁移工作。

  相比之下,可扩展(scale-out)架构是一个分布式架构。它不局限于单个机器的资源容量。它提供了所有变量的线性扩展,允许您通过集群资源进行扩展或缩小。可扩展架构提供了广泛的资源扩展选项,允许企业长期的跨过数据中心基础设施对IT设施进行长期投资。

  成功实现可扩展(scale-out)架构的关键是确保其他节点的性能可以通过QoS功能进行智能配置。

  如果工作负载在性能方面不能彼此保护,那么应用程序所有者将不支持合并。 可扩展(scale-out)架构是为企业设计的,IT资源的增量增长是全球IT战略的一部分。

  可扩展性趋势:

  传统数据中心的资源集群依赖于专用的、物理的服务器以及其他资源。这些服务器以及它们的足迹,规定了可以管理或存储的最大数据。VMware、 VSphere之类的虚拟化技术是基于将隔离资源集中到共享池的概念构建的。

  这种策略是在云中并行处理应用程序、负载平衡、容错(冗余)的关键。共享资源可以帮助它实现快速的、非破坏性的修改,使用单一的控制软件。将另一个服务器添加到资源库中有效地扩展了CPU和内存,并且可以通过扩展或输出资源来满足不断变化的业务需求。

  叶脊(leaf-spine)拓扑网络:

  在采用以太网结构之前,网络拓扑结构分层构建,层次结构类似于分层结构,通常分割成多个禁止VM和其他设备位置的Pod。为企业网络而设计的传统模式包含在内核心路由器,汇聚交换机和接入层传统上需要使用Spanning的交换机树协议(STP)来促进缩放。 这种拓扑给网络设计和网络设计增加了很多复杂性故障排除。

  叶脊(leaf-spine)拓扑网络:叶脊网络拓扑结构现在事实上是一个标准——供应商的各种以太网产品设计基本都可以应用在这种结构。因为叶脊网络拓扑结构有几个理想的特性,能充分发挥网络的优势。所有横向的主机在网络位置上是平行的。叶脊网络扩大接入和汇聚层。一个主机可以通过叶支交换机(leaf)和另一个叶支交换机上的主机进行通信,而且是独立的通道。这种网络可以大大提高网络的效率,特别是高性能计算集群或高频流量通信设备,叶脊网络里使用所有的互连链路,是传统的三层设计采用生成树一预防环路协议。如前所述,生成树检测回路,然后在回路的位置进行标记和隔离,以防止形成回路。这意味着,双路接入交换机只能使用两个上行链路其中的一个。而新的代替协议,如SPB和TRILL允许接入设备之间的所有链接都接入网络,使网络规模随着流量增长。

  叶脊结构设计只有两层:叶子和脊柱。叶子层中的访问交换机连接到VM、防火墙、边缘路由器和负载平衡器等设备。网络的骨干是带有交换机的脊椎层执行路由。

  每个叶脊交换机通过动态第3层路由和等价多路径(ECMP)与每个主干交换机相互连接。调整和确定最佳路径是基于对网络变化的响应。 随着叶脊架构扩展到数千个节点,接入层交换机之间的延迟和瓶颈。在传统架构中很常见 - 因为这些交换机距离不到一个单跳,所以最小化。

  ECMP(Equal-CostMultipathRouting)等价多路径,存在多条不同链路到达同一目的地址的网络环境中,如果使用传统的路由技术,发往该目的地址的数据包只能利用其中的一条链路,其它链路处于备份状态或无效状态,并且在动态路由环境下相互的切换需要一定时间,而等值多路径路由协议可以在该网络环境下同时使用多条链路,不仅增加了传输带宽,并且可以无时延无丢包地备份失效链路的数据传输。

  ECMP最大的特点是实现了等值情况下,多路径负载均衡和链路备份的目的,在静态路由和OSPF中基本上都支持ECMP功能。

  但是实际情况是,各路径的带宽、时延和可靠性等不一样,把Cost认可成一样,不能很好地利用带宽,尤其在路径间差异大时,效果会非常不理想。例如,路由器两个出口,两路径,一个带宽是100M,一个是2M,如果部署是ECMP,则网络总带宽只能达到4M的利用率。

  像Arista这样的网络供应商正在使用这种NGDC拓扑来支持速度、密度、可预测性和可伸缩性。即使在计算和网络管理员开始利用云的效率时,固态数组仍然是静态的。

  在现有存储中,企业别无选择,只能使用单独的存储网络和不同的资源库

  ,用于不同的性能级别和关键应用程序。管理传统的扩容(scale-up)架构的管理员需要添加一个固定数量的驱动器架子来增加容量。

  这些磁盘阵列需要为未来的扩展所需的所有资源预先投入资金。

  固态阵列正在扩展曾经的孤立的、静态的存储生态系统。在下一代数据中心中,存储库(GB、IOPS)是共享资源。集群这些资源的能力提供了增量的、需要的、需要的扩展;它只购买和管理今天的业务需求。

  下一代数据中心扩展存储提供了独立的灵活性,可随时间以可预测的线性模式无中断地扩展容量和性能。 这意味着企业可以策略性地扩大或缩小数据范围,并在任何数量的节点上分配数据和流量,同时增加数据服务的范围。

  IT通过在存储层中利用云的弹性,并与所有其他服务、资源和云管理平台紧密集成,从而提高效率。

  保障性能

  在下一代数据中心中,提高性能只是解决方案的一半;仅仅提供服务还不够好。服务质量资源控制必须在数据中心整个基础设施中贯穿,否则看不出效果。CPU、内存、带宽、存储容量和存储性能都是动态管理的,以交付预期和所需的应用程序体验。

  保障性能的趋势

  监控系统的数据就是数据中心重要信息。 监控自控化管理工具向管理人员实时提供IT情况,包括IT 使用管理情况以及IT所需资源。企业通过软件监控得出的报告,进行实时分析。 这些工具可以提高服务水平,管理安全风险并降低运营成本。

  Splunk公司是建立领导力的公司之一在监测工具中的位置。 IT Service Intelligence(ITSI)是数据中心基础设施可视化监控分析平台。

  ITSI在生产环境中使用可视化面板管理性能指标(KPI)和基础设施,并提供用于问题评估的挖掘数据。该软件是为其在前提、云端或混合环境中的操作而开发的。用户引用事件调查、更强的安全性、可用性和商业洞察力作为实现该软件的好处。该软件是为其在前提、云端或混合环境中的操作而开发的。用户引用事件调查、更强的安全性、可用性和业务关键洞察作为实现该软件的好处。

  在下一代数据中心中的网络QoS,企业架构师通过将网络流量划分为优先级队列来管理性能,同时控制存储或应用程序中使用的管道的数量。

  网络QoS的设计是在不影响其他数据流的前提下,保证核心应用程序流量的使用,并允许对带宽进行优化控制。

  在网络层应用QoS是一个主要的推动因素促进融合和端到端的服务水平

  协议。 英特尔的营销项目经理BrianYoshinaka解释了网络基础设施的影响

  选择:

  “今天,随着IT部门准备部署内部云环境,评估网络的重要性

  基础设施的选择将影响云的能力满足其服务水平协议(SLA)。 一般条款

  用来描述云计算功能,比如:迅捷性,灵活性和可伸缩性应该绝对适用于

  底层网络也是如此。“

  在存储系统中使用存储QoS,术语QoS在行业供应商中缺乏一致的定义,这在IT决策者中引起了质疑。现有存储模型在离散的存储资源上操作各种虚拟工作负载。

  该模型是为了保护单个应用程序在单个存储阵列中的性能和可用性,当每个应用程序都有一个必须支持的不同的输入/输出模式时。尽管这些系统可以按需提供容量,但它们却难以有效地分配性能资源,因为它们不是为了支持集体工作负载的单个容量和性能需求而构建的。

  然后,企业购买的存储空间超过了他们所需要的,从而提高了成本,降低了效率。ESG实验室分析师特拉维夫考夫曼解释了遗留平台的挑战:

  “传统的存储基础设施已经演化为更好地满足企业工作负载的需求,因为它们可以利用新技术。

  但“进化”和“融合”意味着妥协;这与为任务而构建的目的不一样。传统的存储架构可以配置为满足当今大多数合并工作负载的SLA,但这样做通常需要对基础设施的过度供应和过度开销,这些基础结构是不灵活的、复杂的管理,以及对业务需求的响应缓慢

  在下一代数据中心中,存储服务质量意味着性能通过确保控制在粒度级别上执行

  保证每个存储资源的数量应用。

  无论任何其他应用程序活动,容量级别或I / O模式如何,为每个预配置的应用程序分配了保证的IOPS数量,并保持分配的IOPS始终如一。

  下一代数据中心使用基于节点的无共享存储设计,可以在不增加应用程序的情况下扩展和整合工作负载。 它可以根据对业务的要求和价值提供一致的,可预测的性能

  ,同时隔离并保护其他人的工作负载或硬件/软件故障。

  对于下一代数据中心的确保存储设计中的性能与容量之间的精密平衡,使得确保真正意义上的QoS性能得到保障、同时降低运营成本。

  下一代数据中心存储体系结构中现在提供了计算资源中启用的虚拟化功能:资源库与隔离单独的资源,保留资源用于关键工作负载以及动态地移动工作负载。

  责任编辑:DJ编辑

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/20171114/n498299959.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
推荐图片