Mellanox发布200Gb/s HDR InfiniBand解决方案

11月9日,高性能计算、数据中心端到端互连方案提供商Mellanox发布全球首个200Gb/s数据中心网络互连解决方案。Mellanox Connect X-6适配器、Quantum交换机、LinkX线缆和收发器一同构成了面向新一代高性能计算、机器学习、大数据、云、web2.0和存储平台的完整200Gb/s HDR InfiniBand网络互连基础设施。该解决方案使客户和用户能充分利用基于开放标准的技术,最大程度的提升应用程序的性能和可扩展性,同时极大降低数据中心的总体拥有成本。预计Mellanox 200Gb/s HDR解决方案将在2017年大规模出货。

“对于商业智能、国土安全、技术创新、新研究等领域来说,如果能有效利用呈指数级增长的数据,并通过数据分析来获得实时的竞争优势,具有至关重要的意义。在当今的系统设计中,网络是最为关键的因素,它能加速很多要求苛刻的应用并进一步推动变革,”Mellanox公司总裁兼CEO Eyal Waldman表示,“Mellanox非常荣幸地推出全新的200Gb/s HDR InfiniBand网络解决方案;该方案具有全球最高的网络带宽和智能互连能力,将进一步推动我们的数字生活。HDR InfiniBand创造了全新的性能和可扩展性记录,同时满足了客户和合作伙伴对新一代互连产品的需求。”

“十年前,Intersect360 Research开始对HPC(高性能计算)市场开展商业调查,InfiniBand技术当时刚刚成为高性能计算集群的互连方案首选,而Mellanox正是InfiniBand网络的领导厂商,”Intersect360 Research首席执行官Addison Snell指出,“InfiniBand逐渐发展壮大,如今也成为了HPC系统里高性能存储互连方案的首选。当前,类似数据分析和机器学习等高数据吞吐的应用正在迅速扩展,对高带宽、低延迟互连的需求也扩大到了更广阔的市场。HDRInfini Band网络是一次巨大的飞跃,Mellanox正卓有成效地推动其成为现实。”

“我们当前和未来的主要方向,是努力解决科学和数据分析问题。这要求计算节点、存储和分析系统之间具备非常高的带宽,从而构成单一的系统环境。”美国橡树岭国家实验室OLCF项目总监Arthur Bland表示,“借助HDR InfiniBand网络,我们将拥有开放的解决方案,并能够以非常高的带宽连接我们的所有系统。”

“不论是现在还是将来,系统中的数据传送都是至关重要的因素。在规划新一代的大规模HPC系统乃至规划未来的百亿亿次性能的系统时,开放网络技术都是我们的主要考量因素之一。”Livermore Computing首席技术官Bronisde Supinski说道,“HDR InfiniBand解决方案是这一技术领域的重要进步。”

美国洛斯阿拉莫斯国家实验室HPC研发SSI小组组长Parks Fields表示:“我们很高兴看到Mellanox公司在高速互连领域始终保持着行业领先地位,HDR InfiniBand的问世无疑将更好地为我们的应用提供所需的性能。”

业界领袖、客户及合作伙伴引言:

“要想最大限度的发挥HPC、机器学习、媒体创作或大数据应用的性能,高速存储就是不可忽略的关键因素。”Data DirectNetworks公司的产品总监Kurt Kuckein表示“结合Mellanox最新的HDR200Gb/s技术,DDN能够将高性能存储解决方案推升到一个新的高度,从而帮助客户最大化的释放计算性能,应对实时的工作负载。”

“不论是高性能计算、大数据应用还是云计算环境,Dell EMC的HPC用户能够从我们和Mellanox的联合解决方案中获得极致的性能、超高的可扩展性以及领先于同类市场的优势。”Dell EMC高性能计算和方案验证部高级副总裁Jim Ganthier先生说“我们与Mellanox的联合创新基于开放标准,并能够帮助客户加速他们的应用从而更快、更早的做出新的发现。”

“网络是高性能集群的关键。”惠普企业HPC解决方案和阿波罗系列产品部副总裁Scott Misage表示,“Mellanox 200Gb HDR的产品能帮助我们共同的客户充分利用惠普阿波罗HPC解决方案的可扩展性,最大限度地提升高性能计算负载的应用效率。”

“Mellanox不仅致力于创新网络解决方案,更积极支持提升数据中心的投资回报率。”华为服务器产品线总裁邱隆表示,“此次推出全新的200Gb/s HDR互连方案能够极大的提升高性能计算和其他多种要求苛刻的应用的性能。”

“Mellanox将通过200Gb HDR InfiniBand互连方案,提升Open POWER生态系统的网络带宽、延迟和可编程性,我们非常期待将HDR InfiniBand融入Open POWER技术体系当中。”IBM Systems副总裁兼IBM院士、系统与技术集团首席技术官Brad Mc Credie表示,“Open POWER生态系统通过协作创新包揽了最优秀的新技术,我们对于ConnectX-6和Quantum交换机接下来的发挥拭目以待。”

“Mellanox借助InfiniBand解决方案在数据中心网络领域取得了巨大的成就,达到了每秒传输2亿条信息的世界一流性能。”浪潮集团胡雷钧表示,“此外,新的Mellanox 200Gb/s HDR InfiniBand Quantum交换机是目前世界上最快、最灵活的交换机,延迟仅有90ns(纳秒)。”

“人工智能等HPC工作负载要求非常严苛,这使得系统必须具备极高的带宽来实现海量的数据处理。HDR InfiniBand网络将成为现代数据中心里越来越重要的一项技术。Mellanox智能互连解决方案为我们的各类HPC解决方案奠定了基础;我们非常高兴能用HDR网络来帮助各类HPC客户解决极高的工作负载压力。”联想数据中心业务集团高性能计算执行总监Scott Tease表示。

“ConnectX-6网卡能使NVIDIA GPU的带宽得到显著提升,从而更好地打造面向HPC、深度学习和数据中心等应用的解决方案,”NVIDIA高速计算业务集团副总裁Ian Buck博士表示,“借助对NVIDIA GPU Direct™技术的集成支持,Mellanox互连解决方案和NVIDIA高性能Tesla®GPU将实现GPU集群之间的直接数据传输,这对于在高度多元化的市场应对复杂且计算密集型的挑战具有重要意义。”

希捷公司云系统及硅光业务副总裁暨总经理KenClaffey表示:“我们的用户一直在追寻科技前沿,最新的IT基础设施能够赋予他们更大的竞争优势。希捷将全面支持Mellanox的HDR 200Gb/s解决方案,从而更好地为用户的网络密集型应用(如流媒体和计算集群)提供无与伦比的存储平台。”

“我们非常高兴看到Mellanox最新的网络解决方案与上一代相比速度加倍。”中科曙光技术高级副总裁沙超群表示,“这些新解决方案不仅适用于InfiniBand和以太网,还使客户能灵活运用Mellanox创新的Multi-Host技术。”

ConnectX-6适配器包含200Gb/s单/双端口两种规格,与上一代产品相比数据速率翻番。它还拥有Mellanox的VPI技术(Virtual Protocol Interconnect®),可以同时支持InfiniBand和以太网标准协议,并能够兼容如今主流的CPU平台——包括x86、GPU、POWER、ARM、FPGA等等。ConnectX-6网卡拥有高达每秒传输2亿条消息的顶尖性能、0.6usec(微秒)的超低延迟,并且支持MPI-Direct、RDMA、GPU-Direct、SR-IOV、数据加密等网络内计算引擎(in-network computing)以及创新的Multi-Host®技术,ConnectX-6能构建出业界最高效的计算和存储平台。

Mellanox200Gb/s HDR InfiniBand Quantum交换机是全球最快的交换机,支持40端口的200Gb/s InfiniBand或80端口的100Gb/s InfiniBand连接,可实现16Tb/s的总交换处理能力,且延迟极低,仅有90ns(纳秒)。Mellanox Quantum交换机拥有市场上可扩展性最强的交换芯片,提升了对网络内计算(in-network computing)技术的支持,并经过优化且灵活的路由引擎。Mellanox Quantum交换芯片将成为多种交换机系统的基础,例如用于架顶解决方案的40端口200Gb/s或80端口100Gb/s,以及800端口200Gb/s和1600端口100Gb/s模块化交换机系统。

为了打造完整的端到端200Gb/s InfiniBand基础架构,Mellanox还将发布最新的Link X解决方案,为用户提供一系列不同长度的200Gb/s铜缆及硅光线缆。