速度的渴望:存储性能亟待提升

围绕应用性能和它与数据存储性能之间的直接关系有很多的讨论。服务器虚拟化、虚拟桌面基础设施( virtual desktop infrastructure,VDI)和业务智能/大规模数据是驱动对速度的需求的主要力量。服务器和网络越来越快,但是磁盘驱动器和围绕其建立的存储系统不能跟上它们的脚步。还有一个逐渐明显的性价比的不平衡,数据中心的存储的每IOPS( I/O per second,每秒I/O能力)成本在上升。

应用性能不是一个“特殊”需求。有些应用大部分时间都需要高性能。不过我们经常要针对10%到20%的性能很关键的时段来构建我们的系统,其中会包括很多的应用。

IT专业人士想要把虚拟和物理服务器的比例从10:1提高到50:1,不过存储成了限制因素。有些公司需要有成百上千的虚拟桌面访问一个单一的存储池,而他们被启动风暴所限制。而大数据分析通过海量的每秒事务量驱动对速度的需求;有些方案是对处理这种业务所优化的,但是它们价格很高。

你可以提高存储的性能,但是你肯为性能付多少钱呢?为了提高IOPS你要增加磁盘驱动器的数目,建立更大规模的条带并采用缩短行程。但是这种优化可能会非常昂贵。或者,你可以加入很多很多个固态硬盘(SSD),但这也不便宜。对你的环境合适的价格、性能和容量的平衡点在哪里呢?如果你不需要很多的容量,你是不是真的需要只为提高IOPS而买很多的磁盘呢?不过,如果你需要大量的容量,那么买SSD可能价格上就不是很有吸引力,而且技术上可能实施起来不现实。

通过在服务器里面放置密集而快速的存储器, Fusion-io在市场口碑和IPO方面都很成功。不过 Fusion-io的方案缺少容量和高可用性,而且它是一个昂贵的不可共享的资源。还有一个要考虑的是它90%的销售额来自少数的几个客户。

存储系统供应商也看到了更高性能的趋势,几乎所有人都支持SSD来作为回应。有些支持自动分层并在层间以子LUN级别移动数据,这包括Dell Compellent 的 Data Progression ,EMC的FAST,日立数据系统的 Hitachi Dynamic Tiering(日立动态分层)和HP 3PAR的 Adaptive Optimization 自适应优化。所有这些方案通常都基于活动/非活动来升级/降级一些数据页或者可变尺寸的数据集合。

Xiotech则有其独特的方式,通过它的 Hybrid ISE中的 Continuous Adaptive Data Placement(持续自适应数据放置CADP)用SSD和磁盘创建一个单一的存储池。不同于基于活动/非活动来升级/降级的方式, Xiotech监视应用性能并基于用户是否会感知到实际的提升来决定把数据放在SSD还是磁盘上。目标是确保价格、性能和容量达到一个最佳的平衡。

还有些值得注意的创业公司,包括 Nimble Storage。 Nimble以它的具有SSD和磁盘,通过在线数据压缩来优化容量的iSCSI方案席卷全球。

另外,还有些纯SSD的存储系统,例如来自 Nimbus 数据系统和 Violin Memory的。另外像 Texas Memory Systems这样的固态存储中坚力量也因为对高性能存储的新的关注而得到振兴。

潜在的客户被淹没在带有不可思议的IOPS和吞吐量性能的各种选择中。数十万甚至上百万的IOPS……价格还可以接受!但是一个我这样的老牌怀疑论者知道性能取决于多个因素。而且,所有那些你被灌输的宣传数字都是基于最佳情况的。

如果有东西出了问题,性能会怎样?如果一个驱动器坏了(我们不光在说磁盘,SSD没有活动部件但也可能会坏的)?如果一个控制器失效了性能会怎样?如果有一个任务例如镜像在运行,主应用性能会受到怎样的影响?随着容量利用率的升高性能会怎样?随时间推移:在实施之后1年、2年、3年性能会如何变化?这些问题很少被提及,而一旦被问到,通常会让存储供应商跌跤。

应用性能是很热的新需求,而存储是其瓶颈。数据中心中的不平衡是现实存在的,如果按现在样子发展下去的话它还会加剧。服务器和桌面虚拟化,以及大数据分析逐渐成为主要应用都突显了基于磁盘的存储系统与生俱来的性能劣势。好消息是正有大把的投资被用来解决这个问题。坏消息是IT专业人士的可选项多得使他们头晕;我们都知道那会有多慢而且容易出错!