机房360首页
当前位置:首页 » 技术前沿 » 应用于数据中心的新技术Infiniband架构

应用于数据中心的新技术Infiniband架构

来源:机房360 作者:许剑 更新时间:2010-1-22 15:45:01

摘要:如果你还没有关注InfiniBand,那要准备好应付铺天盖地的相关信息,甚至是产品。经过多年的酝酿,和使其成为规范的努力,以及实验室的开发。InfiniBand即将横空出世。不管你最终采用InfiniBand,或是放弃,亦或是等等看看,你都要了解这种用于数据中心的新型互联技术。

  InfiniBand架构是一种支持多并发链接的“转换线缆”技术,在这种技术中,每种链接都可以达到2.5Gbps的运行速度。这种架构在一个链接的时候速度是500MB/秒,四个链接的时候速度是2GB/秒,12个链接的时候速度可以达到6GB/秒。InfiniBand技术不是用于一般网络连接的,它的主要设计目的是针对服务器端的连接问题的。因此,InfiniBand技术将会被应用于服务器与服务器(比如复制,分布式工作等),服务器和存储设备(比如SAN和直接存储附件)以及服务器和网络之间(比如LAN,WANs和theInternet)的通信。我们为什么需要InfiniBand?采用Intel架构的处理器的输入/输出性能会受到PCI或者PCI-X总线的限制。
  
  如果你还没有关注InfiniBand,那要准备好应付铺天盖地的相关信息,甚至是产品。经过多年的酝酿,和使其成为规范的努力,以及实验室的开发。InfiniBand即将横空出世。不管你最终采用InfiniBand,或是放弃,亦或是等等看看,你都要了解这种用于数据中心的新型互联技术。
  
  双核以及多核技术的采用使得处理器的性能不断提升,网络带宽也在不断增加,但是你是否注意到了,为什么我们依然会感觉服务器不够快?问题就在于I/O。说到I/O,有关Infiniband技术应该引起用户的足够重视。身世InfiniBand是由InfiniBand行业协会(IBTA,InfiniBandTradeAssociation)定义的一项标准,它是一种基于通道的、采用交换结构的I/O体系。
  
  IBTA成立于1999年8月31日,由Compaq、惠普、IBM、戴尔、英特尔、微软和Sun七家公司牵头,共同研究发展的高速先进的I/O标准。最初的命名为SystemI/O,1999年10月,正式改名为InfiniBand。InfiniBand是一种长缆线的连接方式,具有高速、低延迟的传输特性。据星盈科技李泌介绍,InfiniBand用于服务器系统内部,主要用于处理器/内存与I/O(如硬盘、网卡等)的连接,由于InfiniBand具有长缆线连接的特性,从而使得处理核心与I/O在保持运作一致性的同时,在实际的配置上,实现分离的配置。据李泌介绍,星盈科技推出的超级刀片计算机,就采用了类似的技术。
  
  但是InfiniBand用于服务器系统内部并没有发展起来,原因在于英特尔和微软在2002年就退出了IBTA。在此之前,英特尔早已另行倡议Arapahoe,亦称为3GIO(3rdGenerationI/O,第三代I/O),即今日鼎鼎大名的PCIExpress(PCI-E),InfiniBand、3GIO经过一年的并行,英特尔终究还是选择了PCI-E。因此,现在应用InfiniBand,主要是用于在服务器集群,系统之间的互联。
  
  需要说明的是,即使在系统之间的互联,InfiniBand也还面临着竞争对手,这是因为自英特尔、微软退出IBTA之后,IBM、惠普也在不久后退出,并在第二年提出RDMA(RemoteDirectMemoryAccess,远程直接内存存取)技术,期望用10GbpsEthernet搭配TOE(TCP/IPOffloadEngine,TCP/IP负荷卸载引擎)的硬件加速设计,以更标准、低廉的方式与InfiniBand进行竞争。此外,由Broadcom、Chelsio、惠普、NetApp和微软等厂商推动的iWarp,一种用于远程直接内存访问、远程直接数据放置的保护协议,它淘汰了两端的网卡,也是一种标准的协议。另外,英特尔的I/O加速技术也与InfiniBand具有一定的竞争关系。工作原理
  
  与其他网络协议(如TCP/IP)相比,InfiniBand具有更高的传输效率。原因在于许多网络协议具有转发损失的数据包的能力,但是由于要不断地确认与重发,基于这些协议的通信也会因此变慢,极大地影响了性能。
  
  需要说明的是,TCP协议是一种被大量使用的传输协议,从冰箱到超级计算机等各种设备上都可以看到它的身影,但是使用它必须付出高昂的代价:TCP协议极其复杂、代码量巨大并且充满了各种特例,而且它很难卸载(所谓卸载就是不占用CPU的运行时间)。
  
  与之相比,InfiniBand使用基于信任的、流控制的机制来确保连接的完整性,数据包极少丢失。使用InfiniBand,除非确认接收缓存具备足够的空间,否则不会传送数据。接受方在数据传输完毕之后,返回信用来标示缓存空间的可用性。通过这种办法,InfiniBand消除了由于原数据包丢失而带来的重发延迟,从而提升了效率和整体性能。

本文地址:http://www.jifang360.com/news/2010122/n19144384.html 网友评论: 阅读次数:
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。
相关评论
正在加载评论列表...
评论表单加载中...
  • 我要分享
更多
推荐图片