近年来,软件定义数据中心(Softwares Defined Data Center,SDDC)备受业界关注,业内专家指出,SDDC可以让企业以更少代价获得更灵活、更快速的业务部署、管理和实现。因而,SDDC的概念从诞生之日起就长盛不衰。
软件定义存储(Software Defined Storage:SDS)的好处与SDDC的优势如出一辙:更快、更灵活的业务支撑所带来的敏捷性;随业务需求可动态伸缩资源的弹性;以及软件定义机制避免重复硬件投资和资源浪费带来的成本节省。
事实上,传统存储在扩展性、性能、价格方面应对企业私有云建设已开始力不从心。软件定义存储成为云数据中心的最佳解决之道。对于云数据中心来说,SDS可谓生逢其时。
那么,对于企业用户特别关心的存储系统扩展性、性能等核心问题,SDS如何在系统设计层面去应对?目前业界又有哪些可供选择的SDS解决方案呢?
带着这些问题,我们一步一步走近SDS的世界。
传统存储面临生死挑战
近年来,随着云计算和大数据技术的迅猛发展,用户新业务层出不穷,数据规模呈指数级增长,传统存储局限性被无限放大,日益成为制约业务增长的瓶颈。云计算平台对存储提出的诸多要求,传统存储方式无法直接搞定。
传统的存储,包括SAN、NAS等集中式存储,在构建企业云数据中心时存在三大明显的局限性。
一:扩展瓶颈,传统集中式存储的控制器数量难以扩展,严重制约系统性能和容量。
二:运维管理复杂,传统存储结构复杂,系统部署周期长,操作管理难度大,对运维人员素质要求比较高。
三:硬件定制化带来的高成本。传统存储多采用专用硬件,用户采购成本高,且易形成厂商依赖,异构存储平台之间的数据互联互通也会增加用户系统的难度与成本。
既然传统存储存在着这些不足,那么,云数据中心对于存储到底存在哪些具体需求呢?
首先是数据的可靠性。生产数据是关乎企业存亡的关键,任何情况下,数据决不能丢失。
其次是云规模的扩展性要求。存储系统应能够根据业务需要可持续扩展,容量能够从TB级平滑扩展到PB级,性能也能随之线性增长。
再次是高性能。存储系统应能高效发挥新型存储介质(如 NVMe SSD)的性能,同时对系统资源消耗要尽可能低。
最后是成本问题。包括存储系统的购买和运维成本。购买成本应考虑软硬件采购价格,而运维成本则是系统在运行过程中的维护代价,其中主要是人力成本。
当然企业在构建线上存储系统时还会有各种针对性需求,例如:多租户支持、服务间IO隔离等。
SDS应云而生
需要说明的是,SDS与之前企业级存储领域的存储虚拟化有着本质的区别。SDS是一种脱胎于SDDC概念下的全新存储管理模式,是一种软件与硬件松耦合的方式,可以让服务器直接访问底层存储设备;而存储虚拟化是管理异构硬件的统一存储管理模式,扩展性较弱。
其实,SDS之所以兴起,与大数据、社交媒体、移动性及云的发展,以及影响和主宰企业用户业务的创新不无关系。包括谷歌、FaceBook、阿里云、百度、腾讯等这些国内外互联网公司、公有云厂商、社交媒体企业都采用软件定义存储的方案,实现自身更优质、低廉的数据存储模式,同时在长期应用过程中,也在促进SDS技术架构的优化与创新。此外,开源云计算产品如OpenStack、Ceph的广泛应用,也在很大程度上促进了SDS在企业用户中的普及。
全球第三方分析机构IDC分析认为:软件定义存储 (SDS)解决方案则截然不同,其存储控制软件与基础硬件分离。SDS 运行于工业标准(COTS)硬 件上,以“云规模”交付的完整存储服务。当然,SDS可以作为单独的系统部署,也可以作为云框架一部分部署。SDS 解决方案支持如文件、块及对象的各类数据组织模式,支持资源编配及交付模式。
当然,SDS应云而生,应云而发展的最根本原因在于:软件定义存储可以帮助用户在公有云、私有云、混合云环境中实现资源整合与自动化管理,并有助于企业数据更好地被利用以发挥其最大价值。
实际上,在医疗、金融、媒体等领域,SDS解决方案已经被证明是非常成功的,如中国移动、中国电信等运营商建立的通信数据中心,采用SDS的分布式存储架构,其高扩展性、高灵活性和高性能都得到了长期的验证,其投资回报率(ROI)得到了明显改善。可以说:SDS可以帮助企业用户构建一个高性能、高可用、高扩展、高性价比的基础存储系统,正是企业梦寐以求的。
怎样的SDS设计更适合云数据中心?
首先,要将数据的可靠性植入系统基因中。同时,系统应能够提供灵活的数据保护策略,让客户可以根据业务需求设定数据保护级别。
其次,架构上,需要摈弃传统存储系统中的集中式元数据服务器,抛弃系统扩展性瓶颈,让系统插上可扩展的翅膀。
再次,一个良好的SDS系统内部需要进行大量优化以最大限度地发挥出硬件性能,如减少IO路径,提高网络并发性等;。
最后,需要支持现代企业存储的一些高级特性,例如:快照、克隆、精简配置等对客户极其有价值的附加功能。
SDS性能到底牛在哪里?
从SDS市场发展趋势来看,云数据中心对于软件定义存储系统的需求将越来越多。这里特别介绍两个国内与国外的SDS存储系统。
一个是业界大名鼎鼎的EMC收购过来的ScaleIO,一个是来自上海霄云信息科技的碧海存储系统BlueOcean Stor。
ScaleIO是在2014年初EMC收购的以色列存储厂商提供的块存储解决方案。ScaleIO完全采用标准硬件,通过软件定义的方式来为应用提供高可靠、高性能、高可扩展的存储能力。ScaleIO可以在单一集群中扩展至数千节点。
ESG在ScaleIO的测试报告就指出,ScaleIO借助通用硬件就可以构建一个弹性的、融合的、可伸缩的数据平台。
因为集群中的每个服务器和本地存储设备都被并行地用来处理I/O操作和保护数据,利于将额外的服务器和存储设备添加到配置中,具有可以线性扩张的系统性能。同时ScaleIO自动重建和重新平衡数据资源,存储和服务器的添加、删除不影响系统运行,也不用停机,从而实现了系统自治与自愈能力。
ESG实验室采用最小配置的3节点ScaleIO集群,使用思科UCS-C240M3S服务器,配置两颗10核心2.8Ghz Intel Xeon E5-2680v2 CPU,内存为64GB。每个服务器使用一块美光P320 700GB PCIe闪存卡作为数据存储。使用FIO软件测试,在4KB随机读情况下,ScaleIO三节点集群能够实现660k的IOPS,平均每个节点220k的IOPS。
ESG又在相同的硬件环境下陆续做了32节点、64节点和128节点的测试。
其中:128节点集群随机读取IOPS超过3100万IOPS, 混合工作负载(70%读30%写)场景的IOPS可以达到2670万。意外的是:128节点测试中随机读IOPS平均每个节点为24万,但是3节点的测试结果是每个节点随机读IOPS为22万。ESG没有解释平均每个节点IOPS结果存在2万差异性的原因。后来仔细读了一遍ESG测试报告,原来是128节点测试中使用内存模拟硬盘,内存速度自然高于PCIe闪存卡,ESG测试结果也说明ScaleIO的单节点IOPS上限就是24万。
需要说明的是:ESG在测试中将测试客户端与存储节点混合部署,这会产生一定的性能损失。
对于ScaleIO性能伸缩性测试能够做到3节点、32节点、64节点、128节点的分别实测,这点确实说明了EMC很土豪,也证明了EMC对于ScaleIO性能测试的重视和客观。这一点,不得不佩服EMC ScaleIO对测试的严谨和客观态度。
那么,霄云科技自主设计的碧海存储系统BlueOcean Stor又表现如何呢?
霄云BlueOcean Stor的分布式块存储解决方案架构系统组件由管理模块(Monitor)、数据服务模块(DS:DataServer)、接入模块(客户端 BClient、iSCSI网关等)组成。
管理模块(Monitor)主要负责集中化的系统配置、管理、状态监控以及系统拓扑分发。管理模块部署在2个不同的存储节点上,以提供服务高可用。
数据服务模块(DS:DataServer)主要提供数据读写服务。数据服务模块部署在每个存储节点上,存储节点之间完全对等,存储节点可以大规模扩展。
接入模块主要针对不同的应用类型提供存储系统访问接口。接入模块包括 Native客户端、iSCSI网关、NFS网关等。接入模块可以智能感知数据是否位于本地并提供最短的最短I/O访问路径。
去中心化的架构设计,让霄云BlueOcean Stor彻底消除传统存储中元数据服务器所带来的扩展瓶颈,单集群可轻松扩展至上千节点。
支持数据多副本与强一致性,数据副本保存在不同存储节点与机架中,支持磁盘、节点、机架多级容错。BlueOcean Stor采用在线和离线修复双重机制保障数据高可靠。在线修复机制在数据访问时实时检测数据损坏并进行即时修复,离线修复机制则定期扫描系统数据集并修复损坏数据。
智能IO修复。BlueOcean Stor可根据系统I/O负载,自动调整修复速率,在系统工作时减少对正常业务的冲击,而系统空闲时以最大速率修复数据,降低数据丢失风险。
霄云BlueOcean Stor从通信协议设计、编解码方式、缓存管理算法、I/O 调度算法、基于事件驱动的高并发编程模型、基于零拷贝的缓冲区管理等多个关键环节都进行了优化设计,充分发挥存储硬件性能,满足云计算数据中心虚拟机、数据库等业务对高IOPS和低延迟的性能需求。
测一测,让我们知道你到底怎么样?
所谓“光说不练假把式”。基于软件定义存储SDS 设计理念,采用分布式架构的块存储系统,霄云BlueOcean Stor到底性能几何?
作为SDS国产存储初创公司,霄云科技仅靠自身财力,无法做到如EMC ScaleIO那样分别针对32、64、128节点实测,业内朋友也清楚,要实现128节点的实测,没有千万元的预算是很难完成的。不过,霄云科技找到了中国银联电子支付研究院,以企业级用户自身的环境为基础,做了两个批次的测试,我们来看看中国银联电子支付研究院针对霄云BlueOcean Stor的两次测试情况。
首次测试,中国银联电子支付研究院采用的硬件环境为:测试用例服务器为浪潮服务器NF5270 M3,带有两颗8核心的 2.4Ghz Intel Xeon E5-2630v3 CPU,配置了32GB RAM。部署4个存储节点,每个存储节点挂载了4块600G容量的Intel DC S3500 SATA SSD盘。
数据保护级别为双副本模式,最终测试结果表明:4k随机读IOPS达到83.2万,单节点平均为20.8万;4k随机写IOPS达到32.15万,平均单节点为8万。测试表现出来了良好的线性扩展能力,4个节点集群性能达到单节点性能的4倍,充分发挥出SSD盘的性能。
测试过程中,系统运行稳定,压力测试中未出现明显的性能波动。
第二次测试,中国银联电子支付研究院采用硬件环境为:浪潮服务器NF5270 M3,配置两颗8核心的2.4Ghz Intel Xeon E5-2630v3 CPU,配置了32GB RAM,每个节点配置了一块1.2TB容量的Intel P3600 PCIe SSD盘。
P3600 PCIe SSD的性能指标还不错,采用了PCIe传输接口,消除了SAS / SATA瓶颈问题,性能获得大幅提升,官方标注性能随机读取可以达到2800MB /S,IOPS达到46万;随机写入达到1900MB/秒,IOPS达到9万 。
另外值得注意的是:中国银联电子支付研究院测试采用了一块万兆网卡双端口绑定的方式,更利于测试存储软件的真实表现。
测试结果颇为惊人:4KB随机读IOPS性能值达到143万,单节点平均为35.75万;4KB随机写IOPS性能达到43.5万,单节点平均为10.8万。测试也表明了,在提供性能更强劲的硬件配置条件下,BlueOcean Stor可以获得更佳的性能表现。对于土豪用户来说,这绝对是一个福音。
除了中国银联电子支付研究院的这两次测试之外,上海市教育委员会信息中心也同样进行了BlueOcean Stor的特定场景测试。
上海市教育委员会信息中心部署了20台规模的霄云BlueOcean Stor节点,采用浪潮服务器,配置两颗16核的2.5Ghz Intel Xeon E5-2682v4 CPU与128GB RAM,其中10个节点每个配置12个800GB SATA SSD,另外10个节点每个配置12块4TB SATA 硬盘。
根据用户业务需求创建了两个存储池,一个是SSD存储池,10个节点总计容量96TB;另外一个是SATA磁盘存储池,10个节点总计容量为480TB。
为了评估系统性能,首先在配置SSD的服务器上使用FIO软件进行本地性能测试,单个SSD的随机读为6万,12个SSD盘总的随机读IOPS为24.3万,这说明单个服务器的RAID卡性能上限就是24.3万IOPS。
使用10节点客户端测试,BlueOcean Stor表现如下:
测试表明了,10个存储节点的随机读性能为243万IOPS,达到单个节点本地性能的10倍,说明霄云BlueOcean Stor具有不错的线性扩展能力。
霄云BlueOcean Stor系统部署相当快捷,20节点240个盘的存储系统在15分钟内就可搞定。
三大解决方案谋定SDS
无论是被国际权威分析机构认可的ScaleIO,还是国内存储技术初创公司霄云BlueOcean Stor,在性能、扩展性上都表现不俗,那么软件定义存储在云数据中心都有哪些具体应用场景呢?
霄云BlueOcean Stor相关人员指出,包括虚拟化、云计算、VDI、海量文件存储、企业关键业务的数据库、邮件服务器等场景都非常适合使用。霄云BlueOcean Stor基于分布式块存储技术,为客户提供整套存储解决方案,已经在金融、教育等领域获得了成功应用,也为自己在SDS领域的进一步发展赢得了更广阔前景。
方案一:云计算、虚拟化与VDI应用
当前,云计算大行其道,各种云平台层出不穷,代表性的有VMware vCenter、Openstack、ZStack,霄云BlueOcean Stor不仅对主流云平台有着完善的支持,也支持主流的虚拟机VMware Vsphere、KVM、Xen、Hyper-V,更是利用其高效IO性能完美解决了让用户头疼的虚拟机启动风暴问题,也能够让用户真正享受到云计算带来的敏捷性与按需扩展的能力。
方案二:传统企业核心业务数据库、邮件服务器等应用
软件定义存储系统对标准化协议的完整支持也让用户受益匪浅。如霄云BlueOcean Stor支持标准的 IP SAN 协议iSCSI,支持Windows、Unix、Linux等操作系统,支持VMFS、GPFS等集群文件系统,可取代传统的SAN存储。这样,企业的核心业务(如数据库系统、邮件系统等)在迁移至新兴的SDS系统时便不再有任何阻碍。
而且,相比于传统SAN,BlueOcean Stor的iSCSI网关可随系统扩展而增加,进一步打破了传统SAN的机头数量瓶颈,系统吞吐量更大,延迟更低。
方案三:海量文件存储应用
海量无结构化数据存储也是企业当前面临的难题之一。霄云BlueOcean Stor的全分布式架构设计,结合其天生的高性能、特色的数据分布、高效可靠的数据保护技术,在文件共享、医疗图像、归档与备份等场景中具备广阔的应用空间。
每个公司都有自身的行业优势与发展特点,霄云科技凭借三大行业解决方案,针对企业用户的云计算与数字化转型的需求,提供更为灵活高效、随需扩展、高性价比的SDS方案,势必吸引更多用户的关注与合作。
小结:SDS商业价值凸显
诚然,SDS目前的市场规模与传统存储阵营相比还相对弱小。但是来自软件定义存储催化的商业价值,却表现得越来越明显,影响力也越来越大。
北美已有差不多50家左右的SDS初创公司,国内与SDS相关的公司也有近40家。而且,目前全球所有服务器与存储厂商,几乎没有哪一家不支持SDS解决方案,可见大家对于SDS所带来的商业价值还是非常认可,积极投身于存储行业的下一波技术浪潮。
展望未来技术变革,云计算与大数据还会深入发展,并继续在多行业、多领域得到普及,SDS作为数据中心的核心组件,也势必成为大家争夺的市场高地,其市场潜力还是相当吸引人。(Aming)