机房360首页
当前位置:首页 » 技术解构 » 融合存储服务器:应对不同类型大数据挑战

融合存储服务器:应对不同类型大数据挑战

来源:机房360 作者:my编辑 更新时间:2012-8-7 16:18:14

摘要:大数据正和云计算一起,推动着整个IT产业的发展。所谓大数据,IDC对其的定义为:“为了更经济地从高频率获取的、大容量的、不同结构和类型的数据中获取价值而设计的新一代的架构和技术。”

  大数据正和云计算一起,推动着整个IT产业的发展。所谓大数据,IDC对其的定义为:“为了更经济地从高频率获取的、大容量的、不同结构和类型的数据中获取价值而设计的新一代的架构和技术。”大数据具有高容量、高价值、多样化和持续性的特点,尤其是非结构化的特性,使得大数据的保存、管理、挖掘等成为了当前企业面临的挑战。而正因为如此,大数据催生了一个迅猛发展的市场。有关数据显示,2010年全球大数据以及相关硬件、软件和服务市场仅为30亿美元,而到2015年该市场的规模将超过170亿美元,平均年增长速度超过50%。
  
  大数据造就Hadoop
  
  大数据也给企业带来了新的机遇。例如,通过评估某位客户在网站上的行为,企业可以更好地了解他们需要什么支持或寻找什么产品,或者弄清当前天气和其他条件对于送货路线和时间安排的影响。此外,大数据分析更加注重实时性,特别是涉及到与网上交易或者金融类相关的应用。比如,网络成衣销售行业的在线广告推广服务需要实时的对客户的浏览记录进行分析,并准确地进行广告投放。因而,未来将会有更多的TB级数据集用于商务智能和商务分析,这对计算和存储甚至是分析平台带来了新的市场机会。
  
  大数据的迅猛增加,使得传统的数据分析软件面对当今的海量数据显得力不从心。新的海量数据分析引擎已经出现,如Apache的Hadoop、LexisNexis的HPCC系统和1010data的以云计算为基础的分析服务。特别是开源的Hadoop,它已经在过去5年之中证明了自己是市场中最成功的数据处理平台。Hadoop将海量数据分解成较小的更易访问的批量数据,并分发到多台服务器来分析和处理,这种方式就像把一大块食物分解成小块更容易让人消化一样。
  
  存储和服务器融合支持开源Hadoop
  
  Hadoop是一个能够对大量数据进行分布式处理的软件框架,它可在单一的Linux平台上使用,但是运行在由机架服务器组成的集群才能更大地发挥它的力量。
  
  由于大数据更加强调实时处理,Hadoop集群中的节点服务器除了对计算性能有更高的要求外,对存储也是追求大容量,以便节点机直接对存储在服务器内部的数据进行访问和分析。而伴随着英特尔等相关厂商的推动,服务器和存储融合的趋势愈发明显,这也使得存储服务器成为了Hadoop集群首选的计算平台。
  
  我们不妨来看看英特尔是如何推动存储和服务器的融合的。
  
  首先,x86架构为两者的融合提供基础。随着英特尔在处理器芯片的不懈开发,x86架构不仅仅在服务器上获得巨大的成功,很多存储架构也日趋采用英特尔处理器;其次,固态硬盘让服务器存储融合更为智能。随着英特尔等固态硬盘厂商的大力推动下,固态硬盘的出现,使得服务器存储在计算方面更趋智能;第三,海量存储让服务器更为充实,TB级大容量SATA盘的出现,使得服务器的容量得到极大的提升。
  
  此外,作为SAS技术的推动者之一,英特尔在其Romley平台上集成SAS交换功能,这实际上也是服务器与存储走向融合的一种体现,这种做法能够让系统厂商充分利用系统主板空间和PCI-E端口资源,降低系统开发复杂性和成本,并让用户在系统使用和系统维护工作上更加简单和容易。

  责任编辑:my编辑

本文地址:http://www.jifang360.com/news/201287/n606438933.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片