IDC亚太论坛:Force10谈虚拟数据中心基础架构

DoSTOR存储在线 11月29日北京消息:"IDC亚太区IT架构前景论坛"今日在京成功举办。IDC根据对数据中心的调研结果与参会嘉宾分享了目前数据中心的现状与未来发展趋势。以下是来自Force10公司中国区总经理 张传国 先生题为《10 GbE 虚拟数据中心基础架构》的主题演讲:

首先谢谢IDC组织这么好的大会,让我们相关的厂商和技术人员有一个交流和分享的机会。接下来我也想非常感谢来宾,大家百忙之中能够听一下我的演讲,还有很多朋友是从外地来的,非常感谢大家。

下面我直接进入主题。大家可以看到,今天早上英特尔、Novell、HP、艾默生的演讲都有一个规律,就是数据中心从上到下。唯一不同的是艾默生是在最上面,我们是在最下面。

我在演讲之前我先讲一下和数据中心有关的东西。Force  10是一个网络公司,今天我们是唯一一个讲网络设备、网络技术的一个主题,前面大家听到了很多关于数据中心虚拟化、数据中心整合、新建数据中心的一些思路和想法。我就结合这些思路往前延伸一步,讲一下网络和数据中心之间的关系。

新一代数据中心,大家谈到真合和虚拟化,它给网络带来的挑战是什么呢?就是当数据中心更集中,性能更高的时候,对网络要求有很多,包括性能、扩展性、功耗、总体运营成本以及整体数据中心、网络架构整合等很多方面都有很多新的挑战。

首先,网络技术的发展。高性能的网络技术的发展,是现在目前新一代的数据中心称为可能。刚才艾默生也讲了,整个的数据中心网络,从中心化到分散化再到中心化。那么来自什么呢?其中一个原因就是来自网络设备的变化的发展,同时数据中心的整合进一步推动了网络的发展。

这个图就显示了数据中心的发展。从80年代到90年代,刚刚开始都是大机,后来是分布式。当时受限于网络带宽的影响,因为网络带宽很贵,网络设备没有那么高的性能,没有那么高的密度和处理能力,所以不得不做分布式。随着网络设备的发展,随着带宽行业的进步,很多分布式都集中化了,集中化的原因来自于我需要节省成本、我需要节约人力成本、需要节约电。它直接面临考虑的范畴就是把更多的服务器汇聚到一起,把更多的存储汇聚到一起,主要的目的是节省空间、节省能源,降低成本。它带来的对网络的要求是集中化以后的网络,要求数据中心网络性能更高,密度更高,可靠性更高。这样才能保证网络的稳定性和数据中心的稳定性。

那么,数据中心的整合实际上推动了网络的整合。原来可能是10台设备在两个机房里,现在可能是要求三台设备在一个机房里,我们怎么做到这些?

那么整合使虚拟化成为可能。那么虚拟化就要网络透明化,就是要网络看不见,网络什么时候用什么时候有。这需要带宽很宽,需要服务器的反映速度很快,需要没有任何中间的环路。那么整合使虚拟化程度可能,当然整合有很多的原因,虚拟化更是这个原因。虚拟化可以使很多不同的功能定位集群汇集成一个,可以使单单元的使用效率提高。他带来的效果就是单机的使用效率提高,可能原来是几百台服务器要干的事情现在十台服务器就可以做了。他下面的需要就是要求网络效率很高。

这张图就是图形化的现实,以前不同的服务器和集群变成数量很小的集群,效果就是数量很小,效率更高。那么VMware在使用虚拟化架构之前,单机的使用率在10%左右,在使用虚拟化之后,单机使用效率可以提高到70%。大家可以想象,服务器提高到70%的时候处理得信息量就会很多。同时网络设备需要支撑的流量要高,要快。

那么总结一下,实际上虚拟化整合对网络要求是一致的。首先要求高密度,高容量。再一个要求高可靠性,高安全性。相当于你把更多的鸡蛋放在更少的篮子里。所有的电都集中在一起的时候,所有的服务器都集中在一起的时候,业务都集中在一起的。如果一断电受不了。

再一个就是要求性能。我们要求网络的性能不断是在晚上还是在白天,什么时候我的性能都要稳定。不能说网络性能根据不同的服务发生变化,而影响整个的服务效率。所以要求透明化。希望网络架构简单化、同质化。就是虚拟化带来的好处就是我可以非常快的增加服务。比如说一个企业,我需要增加一个服务,需要增加一套服务器。以前我可能要建一个网,要建一个服务器。现在虚拟化以后,我在已有的硬件架构上,可以更好的把服务提供起来。这个时候需要网络非常简单,需要网络同质化,我随时的可以调整网络配置,增加一个端口,或者是减少一个端口,而不影响整个的网络架构。这个就要求网络除了性能和可靠性之外,还可以按照不同的规划可以非常快的变化。

下面谈一下网络。刚才我说了,在集中化和虚拟化之后对性能提出很高的要求。我这里直接谈一下瓶颈问题。那么业界经常从上到下或者从下到上谈瓶颈问题。那么瓶颈问题有很多,比如说CPU问题,服务器网卡问题,那么在业界这个瓶颈一直在变化。所以可以看到,原来PCI的时候,瓶颈在这,那么PCI提高以后,瓶颈就在网卡。现在网卡也可以走到万兆了,而且成本也下降了很多。那么下面是不是把瓶颈推到网络了?网络不是,网络一直走在前面。从以太网出现以来,网络从来都不是瓶颈。那么现在网络已经走到下一步,就是网络永远走在前面。现在网络已经走到了4万兆到10万兆。

下面说一下可扩展性的问题。虚拟化的整合重新定义了扩展性的问题。那么这个扩展性到底局限在什么位置呢?扩展性以前通常讲就是端口密度、高转化率,每秒钟可以处理多少。这是比较直接的定义。但是虚拟化之后你要重新看可扩展性。在高效能、高密度的数据中心的架构下,我需要在不同的负载情况下,不同的业务下,不同平台的情况下,我的性能不受影响。

那么另外同时已经从本地的网络拓展到远程的网络。就是说已经不仅局限在设备上,而是在系统上的概念。就是把更多的鸡蛋放在更少的篮子里。这张图显示了直接的当机的时间到你的钱。因为现在很多的企业是靠网络运营的,这里有一些行业,每小时当机带来的经济损失。这里我们可以看到,股票交易所,一小时的时间是650万美元的损失。这里还没有说股民直接带来的损失。

其实当机对业务的影响远远不只直接的损失。还包括上市公司市值的反映情况,还有生产力怎么样,还有维修,员工的加班时间等等,所以可靠性是非常关键的。可靠性从以前数据中心就是机房,机房以外的不管。现在的数据中心是所有的东西都在,已经远远超出数据中心机房本身的概念。

在整合之后,在虚拟化之后,对网络要求是一个综合的东西。包括可靠性、安全、扩展性,的下面我想讲一下Force  10和TCO,那么我们为什么要整合?其中一个很重要的原因就是节能提效。这里有两张图,这个是一个网络的架构,一个是传统的架构,一个是Force  10的架构。那么在目前的虚拟化整合的驱使下,很多东西要合并,不同的机构,不同的物理位置都要合并。合并带来的是什么?就是网络必须要进化,网络必须要透明化。那么以前的三层网络能不能一层网络做,带来的效果是什么?

这里举了一个非常简单的例子。我们可以看到左边是用两层网络做的,我举一个具体的例子,比如下面放了48台服务器的小集群,汇聚到一台交换机。在这种结构情况下,面临的网络是一个拥塞的网络,因为你下面的是48个千兆,上面顶多放两个前兆到四个前兆,你的使用率只有24比1,得到的结果是你下面买的是千兆的服务器,服务器的网卡是一个千兆网卡,但是实际上你得到了流量是50兆,1/24。这相当于你买了一个好车,但是没有加油,跑不起来。

那么Force  10的网络是简化了的。把两层网络变成一层网络,这个是很多原因迫使的不得不这么做。我需要把多个集群放到一起,带来的结果我是如果是网络设备性能足够好,密度足够高,我可以把所有的服务器直接一对一的接到核心交换机上,那么每台服务器得到的带宽一个千兆就是千兆,我我下面放48千兆,上面就是48千兆。这样以前的网络交换变成了一个机器的交换。网络延迟减少了,故障点减少了,带宽增加了,一个服务器想跑多快就跑多快。能够跑到物理端口的限制速度。效能提高了24倍。以前吞吐量只有50兆,现在可以跑千兆。以前CPU可能跑15、25%,但是现在CPU使用率可以达到70%、80%,带来的结果就是可能需要400台服务器,我这可能用100台、200台就够了,带来的直接结果是我省了很多钱和空间。一台服务器在中国要几万块钱,我少买200台就可以省几百万。我花在交换机上的钱可能在里面都显都不显,因为你原来可能要买10台交换机,这时候买两台就足够了。那么再看省的电钱,这个更不用说,每年省下的电钱都是非常大的数字。

这里有举一个具体的例子,实际上我们给互联网建设中,我们比较了两个方案,方案一用700台服务器,用了两层或者是三层的混合架构,那么做了实验的效率是每台服务器CPU的使用率是15%,因为单台I/O速率只有50兆。那么方案二是用一层网络进行优化,CPU的使用率达到了50%,I/O速率可以到200兆,这实际上可以再优化,这是没有考虑任何虚拟化的问题。如果加了虚拟化软件,把单机效率再提高的情况下,服务器的数量还可以下降。那么目前只是从网络架构的方向,原来700台服务器通过网络优化以后,400台服务器就可以做了。这样省下了几百万购买服务器的费用。还不用说后来省的电钱,省的机柜。

电脑商报:这是一个分量化的图,预算一、预算二可以看到,就是服务器预算大大缩减,省了30%到40%,带来的效果是你的有效率提高了,而且故障点减少了,维护成本也降低了。原来可能要700台服务器,现在可能是只要400台。原来可能要10个人维护,现在可能2、3个人就够了。

大家在采购的时候有一个误区,为了将来省钱现在是不是要多花钱?实际上这两个是统一的,我现在省钱将来也要省钱。

这个图是我们公司网上的工具,把你的数据填进去,他可以给你大概算出来1年到5年后续维护成本的费用。那么结构的优化,在未来五年带来的TCO效率非常高。因为经常有企业在进行采购和规划的时候看不到数据,你只看到我今天花多少钱买多少设备,而没有看到在今后几年维护的设备。因为在当今社会,人力成本越来越贵、土地成本越来越贵,电力成本越来越贵,所以这个远远超过你的预算。

可以看到目前来讲,CIO关心的前三大问题。第一个问题就是太多太多的热量。第二就是电源不够。第三是空间不够。这三个问题直接的解决方案就是怎么样优化数据中心设备,怎么样使数据中心更有效。

这张图也很有意思,就是一个机房里面真正有多少电是给IT设备用的,其实只有30%的电是给设备用的,剩下的70%是给维护设备用的。反过来讲IT设备减少,你的空调设备就会减少,电就会减少。所以这样数据中心的整合和优化,以及网络的优化和整合,很大程度上决定着未来网络经济向什么方向发展,怎么样使你的企业更加有效,更加有竞争力,成本更低。这个是一个综合系统的考虑。

最后我想讲下UnifiedFabric,就是在一个网络里面有很多的服务其和数据中心,有不同的网络设备的要求。比如说我们有做计算的,我可能需要一些专门做计算的网络连接。存储有专门的存储网络连接。数据中心可能就用以太网传输。实际上目前以太网的技术一直朝什么方向发展呢?以太网自从产生以来一直是以发展速度快,成本低,广泛使用,广泛的标准化为特点。所以以太网其中一个很大的发展趋势就是尽可能多的统一现在网络界,包括计算界,包括存储界所需要的网络连接。目前世界上最大的几家做存储的厂家已经考虑用纯IP的存储,而且可以做到10G的速度。所以存储网络可以融入到万兆以太网的网络中来。

现在很多的计算厂商也开始在接受用10G来做计算的工作。广域网在02年10G出来的时候,他们做了一个努力,就是把10G从局域网扩展到了广域网。万兆以太网可以做到几十公里,几百公里甚至上千公里的传输。所以以太网现在已经越来越多的可以做到整个所有的数据需求,不管是本地的还是远端的,不管是计算的还是存储的,都可以通过以太网来做。这样带来的好处就是人员的培训,我的管理,我的网关软件都统一化,降低成本,简单化。

这张图说了ISCSI到了天际,很快主流存储厂商向IP、以太网来迁移。

下面花一点时间讲一下Force  10。Force  10公司是一个做高性能网络设备的厂商,在硅谷。我不知道在座的有多少个知道Force  10和了解Force  10和使用Force  10。我想说一点,Force  10其实一点不陌生,我可以百分之百保证每个人每一天多次上Force  10网站。为什么呢?基本上所有的互联网公司从大到小,Google、雅虎、百度等很多公司使用Force  10工具,因为它可以保证每天都可以上Force  10网站。我没有一个具体统计的数字,90%的互联网,无论是上雅虎还是E-mail,还是到Google搜索还是百度搜索,保证你要上Force  10网站。

企业当中有很多案例,就不详细说了。

回到Force  10公司,它是99年在硅谷成立,主要是做万兆产品。为什么叫Force  10。10的来源就是在九几年5月份的时候,HOE802.3的组在做万兆的网络,那么万兆的网络当时是我们公司的首席专家在主推,我们也是第一家真正的在01年年底做了万兆平台。同时,我们在做什么呢?做以太网的下一代,现在Google和雅虎都在谈怎样给我用,像东京、伦敦、德国、美国硅谷西海岸很多互联网交换节点的地方是多个万兆捆绑在一起才达到万兆的需求,而我们达到了下一代的发展速度。我们已经成立了一个小组,是更高速的研究小组,是来顶一下一代的数据中心。在今年9月份的时候,投票表决,下一代以太网的速度是40G是针对服务器来使用和网络来使用的。预计在09年的时候标准完成,这时候我们的产品也会出来。

介绍一下我们的产品,从高端和低端都有,主要是有非常高的性能和非常高的密度。刚才我提到几点都在里面,可扩展性、可靠性都在里面。

这些核心的设备在百度、新浪等都在使用,这是一些低端的设备,还有核心的设备。

你看这张图密密麻麻的很多端口,按照这个配置可以做到600多个千前兆,以太网无论是光的还是电得都可以做。或者换不同版可以做到一千多个千兆。

这些设备我不说了,这是C300,这也是非常高密度的一个非常典型的终端企业级网的数据中心。

这个设备比较有特点,很小,大概这么厚,24个全万兆,在什么地方用呢?网易的搜索引擎就由它来做。这么小的一个设备的交换能力是480G,非常高密度的一个芯片在里面,可以做到300个纳米,它的速度到微秒以下。这个设备是业界没法做到这样的性能。

另外是E-Series这个设备,我们有很多CPU,就像计算机群一样,每个版都有CPU,主板有三个CPU,我们三个CPU分开干,一个搞路由,一个管交换协议,一个管网络管理。好处是什么?除了处理能力强,你有一个内存,我有三个内存,我比你快,还有一个好处是安全性。为什么呢?网络设备最大的弱点,一旦网关被黑客知道了,攻击网管地址,一旦网管地址被暴露,CPU的使用率提高,这样就被锁定了,机器就瘫痪了,网关想上去就上不去。而我的网管CPU和路由、交换CPU是分开的,即便是网络CPU被暴露出去了,我的路由和交换CPU,没有外面地址,只有机器内部地址,你打吧,在受到黑客袭击时而我的机器没有问题,除此之外还做了很多内部的保护,我的CPU使用超过80%的时候内部设定保护机制,我进行限制,保护不被黑客。

另外是背板,背板可以做到5个T,16个槽位,每个槽位大于300G带宽,因为我们Force  10成立的时候就为了两个技术做准备,你看任何有持久发展背景的厂商,基本都跨越2到3个,我的背板的每个槽位做到337个点,一个点是200G。另外还有一个特点,我的背板全部是无源,可靠性提高很多,功耗降低了。因为在这么大密度和容量下,有很多复杂的问题在里面,包括插拔。

另外是线速性,在百分之百的情况下,我测的小包、大包都没有丢失,虽然有的说是百分之百的线速,但无法做到。

我总结一下,你们可以上网查一下,802.3HSG这个组已经成立了,他们现在已经走向下一步,就是统过两个速度。下一步会寻找方案来解决,怎么样做到Higher  Group。那么一个组是来自服务器,比如说服务器下一个速度需求是40G。那么网络里面是一个组,所以是两个速度。

最后我以一张图来结束,这是一个实际的图,这是一个高密度的数据中心,一共是两台设备,一台设备做了1080台服务器,原来1080台服务器你需要多少空间、多少电来做,而现在一台设备就可以做。布线也优化了很多,一百多根线,一根线是六个千兆,通常在国内我的电受限,一个机柜就是几安培电,我可能只放十台服务器,从空间来看可以放20台服务器,但经常放10台服务器。我用两根线或者三根线就够了,否则要用一捆线。而我这个放在集线器上,所以可以省很多。可以看到在整个布置当中省去了很多。

对于网络的进步促使数据的优化向下发展。Force  10在过去几年里面,在数据中心方面做了很多工作,尤其是在全球上,我们可以敢说我们做了全球最大的几家数据中心。Google大家知道是几十万台的服务器在一起,我们做了最大的数据中心。

谢谢。