机房360首页
当前位置:首页 » 技术解构 » 软件定义服务器的未来:为应用而定制优化(一)

软件定义服务器的未来:为应用而定制优化(一)

来源:机房360 作者:Harris编辑 更新时间:2014-9-19 10:18:47

摘要:服务器可以说是数据中心里最核心的IT基础设施,网络、存储从根本上讲是为围绕服务器来部署的,因为数据中心本身最重要的作用是在于对数据的执行上,而这个执行的基础就在于对信息的处理与数据的生成,否则网络上没有数据需要传输,存储上也没有数据需要存取。

    服务器可以说是数据中心里最核心的IT基础设施,网络、存储从根本上讲是为围绕服务器来部署的,因为数据中心本身最重要的作用是在于对数据的执行上,而这个执行的基础就在于对信息的处理与数据的生成,否则网络上没有数据需要传输,存储上也没有数据需要存取。因此,从另一角度上讲,服务器是离企业应用承载最近的IT设备,它效率的高低直接影响着企业应用的表现,进而关乎企业的竞争实力与发展的未来。
  
  当软件定义之风盛起时,最先波及到时的也是服务器,同时也因为其与应用的紧密关系,从而让软件定义在与服务器结合之初,就与应用结下了不解之缘,我们可以总结为“为应用而定制”,这一原则也在指引着服务器发展的未来。
  
  软件定义服务器的典型案例:服务器虚拟化
  
  由于服务器虚拟化主要由虚拟化管理器(VMM)来实现,所以传统的服务器虚拟化就是典型的“软件定义”,从它自身的发展过程中,就能很好的体现出“软件定义”的由来、优势和其与硬件之间的关系。
  
  与所有流行的技术一样,虚拟化技术的诞生,是与用户需求密不可分的,这也从侧面印证了软件定义本身也是需求引发的产物。
  
  在很早以前,人们就已经发现服务器内部的计算资源(CPU+内存)并不是长期处于满负载的工作状态下,很多时候CPU占用率只在10%甚至更低的水平,有的服务器长期处于5%以下的CPU利用状态。而当IT对于企业越来越重要之后,IT的投资也在逐年增长,渐渐的,对于这笔投资的回报率,也走进了企业高管的视野——我投了这么多钱买服务器,实际只用了这么点资源?但是当时的应用架构,在兼容性与可靠性方面,也决定了服务器使用方式,一个应用一个服务器,这在确保应用之间互不影响的同时,也划定了服务器的应用模式。然而,对于成本的考量,以及对资源物尽其用的要求,使得人们开始研究如何“复用”一台服务器的技术,这就是当前已成主流的虚拟化。借助于VMM,它让一台服务器上可以运行多个虚拟机,每个虚拟机再承载不同的应用,在逻辑空间上实现隔离,既保证了应用间的独立,也让服务器的资源获得最大化的利用,CPU占用率长期保持在50-70%左右,相较于原来的水平,相当一台服务器顶原来的5至10台来用,效益可观。
  
  当前,我们已经很熟悉服务器虚拟化所带来的好处,虽然它与云计算并没有直接的联系,但谁都不否认它是实现云计算的一大捷径,尤其是云计算所强调的自动化资源配置,没有服务器虚拟化的帮助,很难想像会如此动态而灵活的计算资源调度——借助软件层对硬件抽象层的全局管理,计算资源打破了物理机箱的限制,而在数据中心级别实现汇总与融合,进而为新一代的应用诞生提供了必要的土壤与未来进一步发展的核心理念。
  
  但是,对于当今占据数据中心主流的x86平台来说,在很长一段时间里,因为硬件性能的限制,x86服务器虚拟化都单纯依靠软件来实现,从而造成了虚拟化后的性能较物理机性能有较大幅度的下降,平均达30%左右,这足以抵消CPU换代升级所获得性能提升,也因此长期制约了服务器虚拟化的普及,直到CPU虚拟化技术的出现将虚拟机的性能损耗降低至5%以下,才打开了服务器虚拟化在x86市场兴盛的大门,并进一步促成了x86服务器在数据中心里的领导地位。
  
  从这一点来说,就明显能看出最早的软件定义在服务器上的体现,以及其与服务器硬件平台发展的关系,而这种“相辅相成”的互动,也在日后的发展中随处体现,而软件定义也不再仅仅局限于服务器虚拟化,它更强调了针对不同应用场景的底层支撑软件的适配,与硬件一起,更好的为应用服务。
  
  为不同的应用场景而诞生的服务器
  
  在IT最早诞生之初,应用的类型是非常单一的,甚至有些公司认为全球只需要几台大型主机就够了(IBM),也有一些IT名人在当时认为计算机的内存有640KB就足够了(比尔-盖茨),但显然随着人类文明的进步与IT技术自身的发展,IT越来越多渗透至更多的应用领域,也让其自身的形态发生了根本性变化。这就如同汽车最早发明时,只是轿车,但后来随着汽车技术的成熟,逐渐出现卡车、大客车以及特种车辆(最典型的就是军用、消防等车型)一样,不同的应用场景也带来了不同应用的需求,而这也就意味着服务器也必须发生改变,同时再借助相应的软件定义技术,为相关应用提供了更好的承载平台。
  
  时至今日,不同的应用对于服务器不同负载指标均有不同的需求
  
  在这一发展过程中,以英特尔至强为主要CPU平台的x86服务器借助于开放、标准化的平台设计,获得了广泛的生态支持,成为了可以覆盖最多场景的应用平台,而相关的服务器厂商在这其中的摸索则不断充实着服务器为应用而定制优化的发展之路。
  
  作为完全采用x86作为其服务器平台的世界顶级IT供应商,戴尔(DELL)公司在x86服务器平台的研发上有着积极的创新。这其中,在2010年专门为云计算应用而推出的PowerEdgeC服务器的推出就是一个典型的例子(今天已经为至强E5v3而全面更新),戴尔亚太区解决方案副总裁PhilDavis表示,“现在很多大型的数据中心,尤其是巨型网站的数据中心,所采用的服务器都是定制的,它们有很明确的定向需求,一般都是结构很简单,但能效比很高的设计。然而这种设计在一定程度上也极大限制了硬件扩展与搭配的灵活性,适用面很窄,而云计算时代则让很多企业的数据中心也向这样的模式靠拢,但需求又没有如此的苛刻,所以在某种程度上又将形成一个通用的市场,这就是PowerEdgeC的机会所在。”从PhilDavis的介绍中,我们可以看出服务器的定制化设计早已成为大型客户的服务范畴,但云计算本身的渐行通用化,则让这一大规模Scale-Out应用场景得以普及,并带动了相关通用服务器形态的变革。
  
  PowerEdgeC推出之后获得很大的成功,在当时迅速成为了模块化服务器设计的领导者,也意味相应的应用场景正在大规模普及,如今,类似于PowerEdgeC6100的2U4节点结构,已经成为互联网与大规模云计算基础设施的典型设计
  
  另一个在x86服务器领域长期占据全球市场第一名的惠普公司,则在其他领域为我们呈现了为应用而优化的设计思路。
  
  第一个就是数据分析领域,随着互联网的普及,它以越来越快的速度在吸收着各种各样的数据,在这些数据中则蕴含着丰富的商业机会,为此新的数据分析应用场景诞生了,而当今最为响亮的声音莫过于Hadoop与SAPHANA。早在2012年,惠普就在世界顶级服务器厂商中,率先提供了Hadoop集群解决方案——AppSystemForHadoop。
  
  AppSystemforHadoop是惠普面向大数据分析领域的最新解决方案,其基于现有的VERTICA实时分析应用系统(已升级至6.0版本),在原有的关系型数据分析能力基础上,借助Hadoop集群与AutonomyIDOL10分析引擎的集成,极大增强了其面对非关系型数据的处理能力。惠普公司企业集团融合应用系统产品管理总监ManojSuvarna强调,HPAppSystemforHadoop是业界第一个企业级Hadoop解决方案,率先为用户提供了基于Hadoop架构的大数据分析平台。
  
  AppSystemForHadoop采用Cloudera的解决方案(CDH,Cloudera'sDistributionincludingApacheHadoop,如今已经和英特尔结盟,为英特尔平台全面优化),它可以说是类似于服务器虚拟化的一层软件定义平台,只是针对数据分析应用需求,就相当于虚拟化针对资源复用需求一样。在硬件上,全部采用的是英特尔至强E5处理器,至于原因则很简单,惠普公司企业集团系统及解决方案副总裁MartinWhittaker表示,“数据分析是一种对计算能力需求非常强烈的应用,所以在做系统架构时,突出的需求就是要快、更快,可以说对速度的追求是无止境的,这一点很像高性能计算。因此,英特尔至强平台是显而易见的选择。”
  
     编辑:Harris

机房360微信公众号订阅
扫一扫,订阅更多数据中心资讯

本文地址:http://www.jifang360.com/news/2014919/n829461787.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片