摘要:所谓的聚合数据中心,是一个整体的系统方案,包括计算组件、存储组件和网络连接组件。最重要的是,聚合数据中心中的各个部分并不是简单捆绑在一起的一堆硬件产品,而是有机组合相互协作的一个整体系统,能够进行工作负载的协调分配,并根据工作负载进行资源调配和优化。 |
许多企业数据中心使用以太网网络来传输LAN和IP数据流量,而另外使用单独的光纤通道(FC)网络来传输存储区域网络(SAN)流量。随着在数据中心中越来越多地采用万兆以太网(10GbE),再加上以太网光纤通道(FCoE)和新的无损耗10GbE技术的应用,用户现在可以在同一以太网基础架构上将FC数据流与LAN和IP数据流量进行整合。网络聚合使您可以保住在FC存储中的现有投资、降低数据中心成本和复杂性并简化网络管理。
“如果您在一个机架上部署了很多服务器,特别是VMware机架,那么您可能需要为每台服务器配备10条GigabitEthernet铜线连接和2条FibreChannel连接,”位于田纳西州的连锁医院WellmontHealthSystem的技术总监DarrenRamsey说道。“假如您的机架上有10台服务器,那就需要120条电缆。这要耗费大量的人力,是非常不灵活的布线,并且会产生大量的热量。同时,交换机端口也不便宜。”
在他的数据中心中,Ramsey最近通过使用Cisco的Nexus线在8个虚拟化Dell服务器机架中引进了网络聚合。他将每台服务器上的10个NICS和2个主线适配器(HBA)合并为2个QLogic聚合网络适配器(CAN),从而为冗余的顶级机架Nexus2232FabricExtenders提供2条10GbEFCoE连接。全部共8对Nexus2232FabricExtenders将上行流连接到2台冗余的Nexus5020交换机上。存储和数据流量通过FCoE聚合到Nexus5020上。这样,存储流量就可以返回到本地FibreChannel,然后连接到存储区网络(SAN)中的一对CiscoMDS9506Director交换机上。生产数据流量会继续连接上行到Catalyst6509交换机。
“FCoE优化并减少了我们所需的FibreChannel端口数,因为所有的主机现在都直接在Nexus上运行,”Ramsey说道。“我们不再需要从服务器直接连接到MDS上。同时它还减少了每个机架的复杂性。当我们在每台服务器上使用2条10Gigabit连接时,我们就能够在该设备上运行更多的虚拟机。” (责任编辑:yayo)