在IDF 2012的技术展区,Intel展出了EPSD推出的2U 4节点高密度服务器准系统,每个节点上都是2颗Xeon(至强)E5-2600处理器。让我们来看一下该平台的设计特点和应用吧。
Intel EPSD的2U 4节点Xeon E5服务器。从上图我们看到互为冗余的一对电源模块位于中间,每个节点上的网络模块是可选的,VGA输出在机箱后侧,而管理端口和硬盘连接都在前面。
上图中笔者注意到2点:首先,两颗CPU上使用的散热片不同,一个是全铝,而另一个则是铜底+密度较高的铝鳍片。我对此的第一想法“风扇气流向后吹先经过那个铝散热器(节约成本),而到达铜底散热器的进风温度已经升高,同样的CPU功耗则需要更好的散热措施”得到了Intel工程师的确认。另外,每个CPU对应只有4个内存插槽(也就是每通道一条),Intel工程师表示在这个机箱中还可以搭配一款更宽的主板,上面提供较多的内存插槽。
Intel还表示,在使用Xeon E5处理器入围Top 500 HPC(高性能计算)集群排行榜的10款系统中,有6款搭建在EPSD的产品上,其中4款主板都选择了上图中的S2600JF。例如,第一个Appro公司提供的排名第15位的HPC,就是使用S2600JF的5U 10节点服务器。
为什么像这样的高密度服务器,也包括SuperMicro的类似产品、戴尔PowerEdge C系列等如此受到HPC的欢迎呢?理由就是与刀片服务器相仿的计算密度,同时成本接近机架式服务器。虽然没有刀片的管理那样方便,却有着相对最好的单位空间性价比。
重叠放置风扇的一个好处是可以增加风压,当然最重要的还是冗余,其中一个故障不影响系统正常运行。Intel这款平台每个节点采用单独的散热设计,尽管EPSD工程师表示该机箱长度符合标准19英寸机架,但笔者还是觉得空间有进一步优化的余地。
每个Xeon E5服务器节点上可以通过转接板安装2块半高PCIe扩展卡,通过上图印有“RMM4/IOM”字样的位置和白色连接器,可以选配下图中的网卡模块。
上方是一块使用LSI SAS2208第二代6Gb/s SAS RoC芯片的8端口RAID卡,下面就是Intel专用的双SFP+端口万兆以太网(10GbE)扩展卡。
这台笔者在IDF展区看到的MSI(微星)S035 2U 4节点服务器Barebone,不允许抽出来拍照。原因很简单——它是尚未正式发布的双路Xeon E5-2400平台产品。当然其特性我们早已了解的差不多,与E5-2600相同的C600芯片组、每CPU 3通道内存/双CPU一共12条最大384GB等…