专题——《EMC World 2012 变革——IT+业务+你自己》
ChinaByte比特网 5月20日(文/黄亮)今年的EMC World 2012将于5月21日——也就是明天开始在美国拉开帷幕。在本文中笔者将提前对这次大会做一些展望,在讨论Project Thunder(雷电计划)和最近刚刚宣布被EMC正式收购的XtremIO各自的市场定位之前,我们先来看看EMC VMAX 40K(即新一代VMAX)。
VMAX虚拟矩阵连接加倍:理想与现实?
EMC VMAX 40K 与 VMAX 20K(即原Symmetrix VMAX)对比
在我们编译的“EMC VMAX 40K:闪存海啸前最后的大型阵列?”一文中,国外媒体已经提前泄漏出EMC第二代VMAX高端存储系统比较详细的资料。其中后端磁盘接口由FC改用6Gb/s SAS、增加2.5英寸驱动器支持,以及硬件平台由Intel Xeon(至强)5400升级为Xeon 5600都在意料当中。CPU核心增加、主频和效率提高,以及内存容量翻倍自不必说。对于虚拟矩阵(Virtual Matrix)连接由每个Director(上图中所示的一个VMAX引擎中包括一对,即2个Director)2条增加到4条RapidIO,这一点我曾听到过业内人士对VMAX采用的内部互连技术(可能指的是带宽?)有所微词。
EMC Symmetrix VMAX虚拟矩阵架构示意图(点击放大)
Symmetrix VMAX——即今天的VMAX 20K虚拟矩阵架构的总互连带宽为80GB/s,其中满配包括8个引擎(如上图),也就是平均每个引擎这部分的I/O带宽是10GB/s,单一Director对应5GB/s。现在VMAX 40K将每个Director上的RapidIO连接数量由A/B增加到A/B/C/D 4个,这样带宽就翻倍了。不过也不能说一点副作用都没有,那就是由此带来的线缆数量加倍,以及MIBE交换设备端口数量需求的增加。举一个相反的例子:低端版本的VMAX 10K(重新命名的VMAXe)由于只支持4个引擎,其整体互连必然比VMAX 20K简单,尽管使用的技术是一样的。
惠普P10000 3PAR V800全网状背板互连示意图(点击放大)
那么除了使用RapidIO还有什么更好的方式吗?纵观今天Scale-out(向外扩展,或称横向扩展)设计的高端阵列,惠普P10000 3PAR V系列的8个控制器节点之间,通过“全网状背板”实现点对点的PCIe连接——即每个V800节点分别提供7条通向另外7个控制器的独立连接(如上图)。各节点之间的通信互不影响,最大内部连接带宽为112GB/s,如今EMC VMAX 40K应该超过了这个数字。而在惠普收购3PAR之前就有的F和T系列则使用PCI-X点对点互连。
还有一种实现起来比较简单也更加普及的连接方式——InfiniBand。不过在支持PCIe 2.0的服务器平台上,无论40Gb/s还是56Gb/s的IB HCA卡受限于x8 PCI Express(5Gbps速率理论带宽4GB/s,实际效率大约在60~70%之间)都无法充分发挥。可能就是这个原因,去年推出的IBM XIV Gen3“网格存储”节点间互连只使用了20Gb/s InfiniBand,当然该产品的定位也要低一些。
诚然支持PCIe 3.0的Intel新一代Xeon E5是个不错的选择,但别忘了企业级存储产品的研发/测试周期,特别是针对关键应用,对可靠性有着苛刻要求的高端阵列。我们相信在EMC的实验室中一定会有Xeon E5相关的产品,不过它们很可能还处于研发阶段。
用于安装、连接3PAR控制器节点的机箱框架和背板
由于PCIe控制器在Intel Xeon 5500/5600平台上位于IOH芯片组中,Xeon E5的PCIe 3.0控制器更是集成到CPU,在x86系统中比RapidIO和InfiniBand更加直接,从理论上说可以实现更大的带宽和更低的延时。当然