Unified Wire----这是什么?为何要关注它?

    现状
  
    根据要求的存储类型,联网存储可能包含几种技术。最常见的是光纤通道存储局域网络 (SAN),大多数大型企业都部署了这种经过良好验证的、可靠的高性能数据块级存储网络。多年以来,光纤通道技术经历了几次演变,链路速度从 1 Gbps 提高到了 2G;现在,有些首次推出的测试版产品可以支持 4G 链路。除了用做存储设备、交换机和服务器间的连接之外,光纤通道链路还可用来将刀片服务器系统中的刀片服务器连在一起并连接到存储设备。在这些刀片服务器系统中,有第二套链路,它们使用以太网,承载非数据块级的传输量,如文件级传输量和系统管理传输量。采用两种连接技术以及系统冗余要求意味着刀片系统内有两个冗余交换结构。在 1G 到 4G 的链路速度范围内,从经济的角度出发,HBA 或控制器芯片以及光纤交换机端口的成本可以支持这种体系结构。当然,与采用一种连接技术相比,这种体系结构并不能简化多结构系统的管理工作。
  
    另一种采用多种技术的存储方案使用了网络附加存储 (NAS) 设备,亦称 外存贮器;这些设备(更适合)处理文件级存储传输量,而非数据块级。直到一年前,所有外存贮器还只是在前端配置了以太网连接。外存贮器的内部磁盘存储可通过后端的光纤通道端口进行扩展。与外存贮器的所有内部存储一样,所有扩展都是数据块级的(外存贮器展现出来的存储数据是文件级视图),所以外存贮器厂商通过前端光纤通道端口增加了前端数据块级接入功能,或通过外存贮器前端以太网端口支持的 iSCSI 目标模式软件增加了 iSCSI 接入功能。如同刀片服务器一样,当链路速度在 1G 到 4G 的范围内时,外存贮器能够通过多个 HBA 支持集成的数据块/文件存储。
  
    下一代链路速度会有多高? 10G?还是8G?
  
    光纤通道 10G 端口首次出现在 2002 年的主机总线适配器原型演示中;2003 年 9 月,演示了第一个光纤通道 10G 交换机端口。在演示中,交换机端口可在两种模式下运行–充当大型光纤通道交换机之间的 ISL (交换机间链路),或者与 FC HBA 一起在主机连接模式下实现交换互操作性。当时的设想是,2G FC 之后的下一次迁移将达到 10G。但发现了几个问题,使这种假设降到了两倍,即 4G。首先是 FC 驱动器侧发生了变化,驱动器接口迁移到了 4G。开发出了 4G SERDES 芯片内核,使交换机和 HBA 的其他 4G 基础设施的功能组件达到了 4G。第二个问题是,10G 无法向后兼容 1G 和 2G。在从 1G 到 2G 和 4G 的迁移过程中,光基础设施保持不变,利用现已安装的 50/125 和 62.5/125 微米多模光缆实施短距离应用(最长 550 米)。但是,当速度达到 10G 时,这种光缆的距离不能超过 100 米,最短只有 33 米。为了达到最佳的 10G 多模性能,人们制定了新的光缆规范, 850 nm、激光优化、50/125 微米光纤,有效模式带宽为 2000 MHz*km。这种光纤可使用 10Gbase-S 接口达到 300 米的距离。更加详细的讨论,请参见 10G 以太网联盟网站 (www.10gea.org)。这个网站上讨论了用传统 1G 和 100M 链路部署 10G 时的一些非常重要的光缆基础设施注意事项。
  
    因此,尽管10G光线通道技术可成功运行,但是 10G 链路的高成本(10G 光收发器目前的价格在 1000 美元左右)加之现在很少有人需要这种带宽,使得 FC SAN 10G 应用近期只能限制在 ISL 中;这种情况甚至可能持续很多年。
  
    10G 以太网的情况如何?在以太网方面,10GbE 端口已经上市两年了,大多用作 ISL。如果 FC SAN 近期不需要 10G 带宽,以太网/ IP 存储领域的发展趋势会推动 10G 主机连接的应用吗?是的,肯定会。如我们讨论过的,在过去的几年中,“融合存储”得到了初步部署–主要包括结合数据块级和文件级存储的设备。考虑到 10G 光口的成本,很难为一种流量类型(数据块或文件)采用一条 10G 链路。但是,如果可以在单一 HBA 上支持多种流量类型,允许使用单一 10G 链路连接融合存储设备,则可以解决 10G 的成本问题。我们可以把这种单一流量管道称为“Unified Wire”。第一个可能使用这种管道的设备可能就是拥有额外的数据块存储支持功能的 NAS Filer。这种方法的一个明显优势就是,它消除了独立的文件和数据块存储网络。如果采用了 iSCSI 数据块连接,则它可消除独立的光纤通道和以太网基础设施。为什么融合存储采用以太网,而不使用光纤通道?因为光纤通道只能支持数据块流量。光纤通道可以支持 TCP/IP 流量的隧道技术,但是不能加速 HAB 中的 IP 堆栈。
  
    为什么必须以 10G 的链路速度、在硬件中处理 TCP/IP 流量?如果我们注意目前实施的 iSCSI,其中的软件 iSCSI 堆栈可用于大多数操作系统以及在卡中实施了所有 iSCSI 功能的硬件 HBA。如果链路速度为 1G,则软件和硬件实施的性能会很接近–区别在于运行堆栈消耗的主机 CPU。如果使用硬件,运行堆栈只需 5% 的 CPU,而软件则可能消耗 40% 左右,甚至会更高–取决于数据块大小。大多数情况下,采用软件就已经足够了。
  
    目前,开发用来处理数据块和文件加速流量的驱动程序堆栈并不像说的那么容易。处理多中流量类型的驱动程序问题非常复杂。但是,有些新兴企业已经在着手开发芯片,并开始设计适用于这种 HAB 的驱动程序。各标准机构也在探索几种模型,以寻找能够最好地实现这一目的的模型。下面是各种方法的示意图:



    以太网单一线路 HBA 和 SW 架构
  
    今天,有几家厂商可以提供 iSCSI HBA。2005 年初,市场上将出现第一款组合的一体化线路 HBA 和 ASIC。这种情况下,随着不同方法的讨论和测试,解决方案的灵活性将变得至关重要。上面的体系结构图中引入了 RDMA。利用 RDMA(远程数据存储器存取),可直接将数据放入应用的缓冲器中,从而消除 RDMA 数据传输要求的多个数据复本。IETF 正在讨论的、在 RDMA 上处理所有流量的方法会引起人们的兴趣吗?或者,用于文件流量(非数据块流量)的 RDMA 会胜出?只有时间才能回答这个问题。这里还有一个颇具争议的说法–只有传统的大型光纤通道 SAN 才会将 10G 光纤通道将 转移到 ISL。8G 光纤通道链路可能是最后一个光纤通道高速主机连接。10G 主机连接可能只用于以太网领域。
  
    无论结果如何,最近几年都将令人激动;所有这些新技术都将出台,争取得到采纳。存储联网领域不会寂寞的!
  
    附录:10G 以太网超越了铜缆 sidebar?
  
    市场上有多种技术可以实现基于铜缆进行10G信号的传输。其中一种是Infiniband 开发出来的,它叫做 CX4。



    工作原理 10GBase?DCX4:与我们已知的802.3ak一样,10GBase?DCX4技术扩展了XAUI接口,它使用预加重,均值化和双轴电缆,设计用于在长达50英尺距离内进行芯片到芯片的通信。




  • 1.该项技术使用了相同的10G比特MAC、XGMII接口和802.3中指定的XAUI编码器/解码器,以3.125g的波特率将信号分解为4个不同的路径。

  • 2.传输的预加重着重于高频成分以补偿PC组件的损耗。连接器和电缆组件。

  • 3.虽然连接器和电缆组件是设计用于infinBand,但却是802.3ak为了适应平衡器的要求而规定使用的。

  • 4.被电缆组件减弱的信号由接收均衡器进行最后一次升压。

    CX4 可能适用于机架间系统;因为它支持的距离太短,而不能用于更加广泛的数据中心。另一个缺点是,CX4 屏蔽电缆的体积太大,使得布线难度加大。由于许多交换机厂商还没有做出广泛的承诺,因此在 10G 以太网交换机中支持 CX4 尚在探讨中。
  
    在无屏蔽双绞线 (UTP) 电缆上实现 10G 的前景如何?迄今为止,每个以太网 10X 都受到了速度的影响,广泛采用此项技术的关键在于 UTP 的支持能力。有些新兴企业已经在着手研发 UTP 10G 技术,并演示了几种原型机。就目前情况看,似乎不可能在 5 类 UTP 上支持 10G;但人们普遍认为,在 35 米的距离内、在 6E 类或 7 类电缆上支持 10G 是可能的。
  
    10G 光sidebar
  
    目前的 10G 解决方案使用 XPAK 或 X2 光组件。这些设备支持 XAUI 4 窄接口,可将 10G 信号发送到有良好屏蔽的光组件内部。但是这些组件非常昂贵。将来,我们将看到更小的 XFP 组件中会采用 10G 光口;这种组件待用 LC 大小的连接器,与今天的 2G 和 4G 光组件类似。这些光口的输入设备是 XFI接口 - PC 板上的单一 10G 串行信号。是的,这样做是可能的,而且已经有了相关的演示。根据预计,XFP 光口的成本将大大下降。