解读NetApp Data ONTAP 8.1

 NetApp不久前在日本东京召开了面向技术人员的NetApp Innovation 2011 Winter Tokyo讨论会,以云和大数据为关键词介绍了该公司研发的存储产品和套件管理系统等。此次,笔者特别关注的是该公司的最新存储操作系统“Data ONTAP 8.1”,本文将着重介绍Data ONTAP的集群模式(Cluster-mode)。

  ■ Data ONTAP集群模式实现“随时连线”的系统

  Data ONTAP 8代的集群模式是一种到现在为止的NetApp FAS系统上从未有过的全新方式。在推出Data ONTAP 8.0.1开始,就已经实现了集群模式,但它不过是原封不动地沿袭了以Data ONTAP GX作为目标的特殊客户端。可是,Data ONTAP 8.1的集群模式被改进为高通用性的规格,即使在企业IT环境也可以充分地有效的利用。

  在以前的Data ONTAP 7G和Data ONTAP 8的7-mode中,1台(采用高可用构成时为2台1套)存储控制器为来自客户端(访问存储系统的服务器计算机或者客户端PC的)连接口。虽然可通过追加软盘架来扩充软盘容量,但是,如果达到了规格上的上限就必须准备新的存储控制器。

  同时,在性能方面的扩展也很难,要想得到更高的访问性能,只有将存储控制器变更为高端机型,或者在其侧面排列新的存储系统而分散连接口。其结果是,扩充存储系统的时候,不得已临时停止服务,或者由于系统配置的复杂化增大用户的运用负担。

  Data ONTAP 8代的集群模式正是应对这样的课题。集群模式,将多套NetApp FAS系统或者NetApp V系列做成集群,如同单一巨大的NetApp FAS系统一样发挥作用。能在不停止服务的情况下增加节点,同时能扩展软盘容量和访问性能。

解读NetApp Data ONTAP 8.1:横向与纵向的高度融合

  实现Scale out(横向扩展)型存储基础的Data ONTAP 8代的集群模式

  另外,支持高端机型和低端机型,以及旧机型和新机型的混在一起使用,可根据访问频度和重要程度实施数据的最优化配置(存储分层化),也能应用于从旧机型向新机型的在线数据转移等。

  再者,来自客户端的连接口将成为某一个节点,如后面介绍的那样,能从客户端看到的连接口是作为单一的逻辑接口(LIF)提供,不需要用户自己分辨物理连接口。

■ 节点间松散耦合 沿袭NetApp产品的便捷性

  一般来说,象7-mode那样的存储构架称为Scale-up(纵向扩展)型,而象集群模式那样的存储构架称为Scale-out(横向扩展)型。

  说到横向扩展型的通用存储,作为代表例子可举出EMC Isilon横向扩展NAS和HP 3PAR公用存储系统。这些存储器产品的特征是,将全部数据分散地配置在多个节点上,各个存储卷是以跨节点的形式所构成的。

  另一方面,NetApp的集群模式,不需要跨节点构成一件存储媒体,而是在各节点内构成独立的存储媒体。并且,在命名空间上以符号链接那样的形式对这些存储介质进行分层,营造出仿佛有跨节点间的存储介质般的环境。

解读NetApp Data ONTAP 8.1:横向与纵向的高度融合

  集群模式在各节点构成存储介质。通过在命名空间上分层次性地使这些存储媒体进行链接,看起来宛若有跨过节点间的大型存储媒体一样

  根据这样的差异,在EMC Isilon和HP 3PAR中,如果增加节点便可使访问性能迅速提高,但是,NetApp的集群模式,如果用户不能充分理解各节点的特性并且积极地加以区分使用,则很难达到访问性能的提高。如果就象计算集群那样进行分类,是否EMC Isilon和HP 3PAR有像紧耦合,NetApp的集群模式有像松耦合之处呢?

  但是由于特意采取了象松耦合般的构成,能照旧享受既存的NetApp FAS系统为我们所提供的各种各样功能和好处。同时,使新旧各种各样的机型(旧机型最大推荐第2代前)混在一起使用也成为可能。笔者认为:NetApp FAS系统,与其说是要达成突出的性能,倒不如说是优先考虑可以在各种各样的用途灵活使用而设计的。

■ 来自客户端的便捷性与无停止运用的高度逻辑层

  集群模式是以利用2台存储控制器来提高可用性的Active和Active配置的NetApp FAS系统或者NetApp V系列作为1个节点。并且,将2~24个这样的节点做成1个存储集群。在节点间,通过10GbE彼此连接。

  这样构成的集群可提供物理层,但是,为了实现来自客户端的便利性和系统整体的无停止运用,向客户端展现出一个虚拟的存储系统(Vserver)。Vserver,是以跨1节点或者多节点的形式所构成的,每节点最大可构成125台。

  Vserver作为虚拟的存储系统发挥作用,在其基础上分配以作为与存储媒体(FlexVol)和LUN、客户端的连接口的逻辑接口(LIF)。在Vserver中还提供了命名空间,能分层次地挂载Vserver上的存储媒体。由此,可以无缝地在系统无停止状态下扩展到数PB。

解读NetApp Data ONTAP 8.1:横向与纵向的高度融合

  在集群模式下工作的存储集群,是由物理层和逻辑层所构成的。物理层是通过对若干组的NetApp FAS系统或者NetApp V系列集束而构成的存储器的资源库。而逻辑层则是以共享这个资源库的形式,提供作为假想性存储系统(Vserver)、逻辑存储媒体(FlexVol和LUN)、连接口的逻辑接口(LIF)的等

  LIF,是动态地对集群内的任意物理端口进行分配的逻辑端口。客户端以LIF为连接口,经由NFS、CIFS(SMB)、FCP、FcoE和iSCSI其中之一来访问Vserver。Vserver端提供DNSlook-up的功能,一边维持数据的存取,一边链接负荷最低的物理端口和LIF。同时,可根据负荷的变化,采用手动或者自动某种方式,进行在节点间的LIF再分配。

  在Vserver内,可不中断数据存取而在节点间移动存储媒体。可在不破坏重复数据删除、存储媒体压缩、Snapshot和SnapMirror等设定的情况下,在后台运行差异副本,以通信量少的定时切换到新的位置。这样的透过性存储媒体移动,对回避RAID障碍时产生的性能影响,或进行细致入微的性能调整发挥重要的作用。

解读NetApp Data ONTAP 8.1:横向与纵向的高度融合

  无论是在集群内的哪个地方,都能在线移动存储介质。因为从从客户端可看到的存储媒体的姿态未发生变化,实现了在不中断访问的情况下的透过性存储媒体的移动

■ 选择最优化路径的SAN访问和pNFS

  LIF可映射低负荷节点的物理端口,但是想要访问的数据未必处于同该节点直接连结的磁盘上。

  利用CIFS和NFS进行数据存取时,如果在位于连接地址节点下面的磁盘上无数据,则会经由连接节点间的集群互连实施远程访问。当然,如果与对本地磁盘的访问相比,在数据传输性能和延迟(等待时间)上,必须付出一定程度的牺牲。

解读NetApp Data ONTAP 8.1:横向与纵向的高度融合

  通常利用NFS和CIFS进行数据存取时,并不能保证所选择的路径最适合想要访问的对数据位置。pNFS(并行NFS)正是为应对这样的课题。Data ONTAP 8.1的集群模式(Cluster-mode),在业界率先支持pNFS。再者,在FCP、FcoE和iSCSI的SAN访问中,将根据ALUA的结构始终选择最佳路径

  与此相对,在FC、FcoE和iSCSI这种基于块的SAN访问中,可通过在SPC-3(SCSI Primary Command 3)中所规定的ALUA(Asymmetric Logical Unit Access:非对称逻辑单元访问),进行最优化路径的选择。客户端将使用MPIO(多路径 I/O)对LUN进行访问,但是其最优化路径则是由ALUA加以判断的。因为可对数据进行本地访问的路径,被赋予了“主动最优化完毕”的状态,将根据该状态来选定最佳路径。

  再者,Data ONTAP 8.1的集群模式,新支持pNFS(并行NFS)。NetApp公司深入参与了NFS标准的制定,成为领先其他公司决定采用pNFS的形式。在pNFS中,当客户端访问文件时,根据文件存储形式(file layout)的信息,事前对文件的保管位置进行检查。如果与连接地址不同的节点上有文件,则切换为到最佳路径之后再进行文件传输。尽管结构上与ALUA多少有所不同,但是能始终以最佳路径进行访问这一点是相同的。