提升效率、降低成本,NVIDIA 虚拟GPU平台赢得行业市场

GPU虚拟化技术可以更好地帮助客户充分利用GPU的资源,更加灵活多样的部署其应用,使得GPU的资源展现出更好的作用和价值。

备受检验和肯定的NVIDIA GPU平台

NVIDIA推出的 GPU虚拟化技术经过五年的发展,如今已经升级到了第七代在2018年11月16日举行的VMware vFORUM 2018上,中国区云计算总监马庆胜告诉记者,NVIDIA GRID从软硬一体到单纯的软件,从只能支持一个明确固定型号的GPU到如今支持最新Tesla系列的所有GPU,从对图形图像进行支持,解决客户在使用图形图像时的重负载应用如何在数据中心部署,到如今在虚拟GPU上实现GPU计算部分的能力的业务。

中国区云计算总监马庆胜与NVIDIA中国区解决方案架构师李浩南

这也意味着NVIDIA GPU的整个平台和生态都得到了业界的认可和客户的信赖;预计明年发布的vGPU 8.0还会提供更加丰富的功能。

vGPU 7.0增强三大特性

最新的NVIDA vGPU 7.0有哪些的新功能?NVIDIA GPU虚拟化高级解决方案架构师张洁做了介绍。

一是将多个物理GPU分配给某一个虚拟机,实现资源共享。

早期GPU虚拟化是对物理的GPU做切片,实现了“一虚多”的概念,以桌面虚拟化方式替代传统工作站场景。随着业务日趋复杂,往往出现配置不足,需要换机器、改配硬件。借助vGPU在数据中心的实现,IT很容易实现资源按需再分配,轻易化解上述难题。

vGPU 7.0最重要的特性是在传统切片形式上支持另外一种形式,即把多个物理GPU分配给某一个虚拟机(VM)以拓展整个GPU虚拟化的用户场景,实现资源共享,如果在vGPU 7.0的平台里实现多GPU,还可满足用户对资源、对高算力的要求。

在vGPU 7.0之前,这方面还是一个空白,所以vGPU 7.0完善和丰富了NVIDIA的解决方案。

二是数据中心属性的加强。

因为高可用性、业务稳定性的需求,数据中心会比传统用户前端的计算模式要求更高的灵活性和可管理性。vGPU 7.0配合了VMware最新版本的服务器虚拟化解决方案vSphere 6.7 U1,配合VMware在数据中心实现带有GPU的虚拟机可实现动态的热迁移,并且确保用户的业务连续不中断。这项功能对私有云和公有云的用户都有较大的价值。

三是加入了AI的特性。

借助可配合简化AI部署的NVIDIA GPU Cloud,用户可以从云端快速把需要做人工智能业务的用户环境拖下来进行部署,而此前所有NVIDIA GPU Cloud的云端服务是不支持虚拟化平台部署的。

加速图形处理,提升计算力

早期的vGPU重点应用于图形处理方面,2017年发布的vGPU 5.0版本中第一次引入了通过vGPU支持计算的功能,从而实现了对计算的加速。因此,NVIDIA的GPU在一个统一平台里实现了两种负载,这两种负载又会延伸出来不同的更细节的场景。

在图形处理方面,较好地适应了传统的图形工作站即图形重负载应用,也较好地支持了基于Windows 10的图形轻应用。

1. 重点应用场景之一:图形重负载应用

以前在虚拟化技术不具备GPU功能的时候,图形工作站解决了用户对性能要求,但依然存在一大弊端:因为数据流在本地,这意味着数据安全性是个问题,同时现在设计要求协同完成,使用者的服务场所可能会分布在不同的地点。很多企业通常都会封掉USB口,再购买一些数据加密软件,对硬盘进行全盘加密,以提升数据安全程度。

另外,PDM是制造业常见的解决方案,使用传统图形工作站,设计数据都保存PDM服务器上,也就是说设计师要先到PDM服务器上去提取数据,这可能需要等待十几分钟。

有了vGPU技术之后,图形工作站可通过vGPU进行集中化的管理,消除了安全隐患,虚拟工作站和PDM服务器在同一个数据中心的网络中,数据加载速度很快,且加载之后可以马上把通过虚拟化的编解码方式传递像素。设计师短时间内极客开始设计,达到提升效率的目的。

“借助于vGPU技术,上述问题迎刃而解,不再困扰企业。”NVIDIA中国区解决方案架构师李浩南说。

不仅数据安全、协同可以解决,同时可资源调度可以做得更好,特别是在图形重负载、在设计领域,这些领域中CAD建模、CAE和渲染都集中在数据中心,围绕着数据中心构建的GPU资源,可以更好的给用户灵活使用,实现跨时区、跨地域的资源均衡调度与协同。

马庆胜表示,vGPU被赋予了深度学习和人工智能的特性后,智能制造和物联网相关企业可以介入到人工智能深度学习的领域里,很多技术人员可以在这个环境下去学习,去尝试,产品在设计和研发过程中结合人工智能的属性,更好提升自己产品的独特性。

2.重点应用场景之二:图形的轻负载应用

几乎所有Win10系统所支持的应用都需要GPU的支持,也就是说大量的GPU资源才能让运行在Win10上的各种应用效果得到更好提升,尤其是构建在桌面的虚拟。NVIDIA vGPU解决方案不仅解决了这个问题,还因为提高了密度,用户可以更加经济,更加有效的在数据中心部署桌面应用。

提升计算能力

在计算方面,也延伸出了不同的场景,如在vGPU跟人工智能相结合的地方,较多的是教育行业的案例,从2003年北大第一次开设了人工智能的课程,到2018年6月,全国已经有50多个大学开设了人工智能课程。课程开设期间,学生需要进行实际操练训练,传统情况下,每个学生都配备一个物理GPU。有了GPU虚拟化,每个学生仅需一个虚拟的GPU。这在一定程度上降低了使用成本。

这样,在做实训的时候,给学生提供vGPU营造的一个完整环境,用于了解GPU实现加速的功能。在非教学时间,GPU的资源可以通过虚拟化释放出来,把这些GPU资源再聚合做一些科研工作,加大算力。

“安全、灵活、高效,是vGPU为制造业客户带来的好处。”李浩南说。

成功案例:来自本田公司的故事

NVIDIA GPU虚拟技术优势在本田公司表现的淋漓尽致。

本田汽车公司是全球第七大汽车制造商,也是世界顶级摩托车制造商,在全球拥有26个研发中心。为打造最具创新性的设计并将研究转化为产品,汽车研发中心充分利用了Dassault Systèmes CATIA等3D CAD / CAE应用。所有用户、工程师和设计人员都必须拥有能够满足CATIA等应用需求的高性能工作站。这些高性能工程工作站(EWS)环境是其研发的核心。

2015年,该中心启动了“新一代EWS项目”,采用虚拟化来为研发基地提供VDI环境,方便用户在任何地方、任何设备上利用相同的环境。不过,VDI方式在固定的基础上为每个客户端分配服务器GPU,处理性能与图形功能不可兼备。为此,本田采用NVIDIA GRID软件和Tesla M60进行图形加速虚拟化,实现了在处理复杂设计和3D分析时提供更高质量的性能和体验。

经过丰田全球研发机构成员八个月来的测试,认为NVIDIA GRID能够同时满足全球各地高级用户和知识工作者的需求。借助数据中心的图形加速功能,NVIDIA GRID使团队能够在任何设备上使用CAD / CAE应用程序。本田全集团超过4000个VDI系统实现了更佳的应用程序性能和用户体验,访问数据更快、安全性更强。

为确保用户能够获得其适当的资源分配,本田还推出了高档、中档和标准三款虚拟客户端机器(即使是低成本的笔记本电脑),并计划于2020年将所有客户端计算机迁移至新系统。

在国内,NVIDIA的案例也有很多,特别是在制造业,尤其是主要的整车企业已经部分开始部署了。一家为整车厂提供配套设备的企业,有300多个设计师,采用传统的图形工作站方式,每年正版软件维护费在8000万到1亿元之间,而实际上平均每个人使用软件的时间在三小时左右。与NVIDIA开展合作、全面用虚拟化替代传统的图形工作站的方式之后,工作站的能力转移到了数据中心,前端压力大大减轻,无论是平板,台式机还是手机,甚至是一些旧的工作站,都用运用,而且随时随地都可运行。最关键的是,设计软件的许可费用降低了一半。

完善的生态环境

在GPU领域拥有良好的上下游生态环境,是NVIDIA较大的优势。在上游,NVIDIA和软件厂商在一起深度合作,让其应用可以最大化的利用GPU的资源实现图形、计算加速。在下游,NVIDIA和大量的服务器硬件厂商、云厂商合作,让GPU可以部署在传统的数据中心与云端。

NVIDIA GPU虚拟化高级解决方案架构师张洁补充说,NVIDIA还把在物理GPU上做的所有生态环境的事情,平滑移植到虚拟GPU上,让虚拟GPU也可以得到相同的生态环境支持,从而保证用户体验。

NVIDIA GPU虚拟化高级解决方案架构师张洁

ANSYS、Autodesk、思科、Dassault Systèmes、HPE、红帽、SOLIDWORKS等来自ISV和OEM组成的生态系统已经给予了广泛的支持。

作为VMware的重要合作伙伴,NVIDIA和VMware在总部方面的合作非常密切,每周都有相关技术上的沟通,发挥双方的优势,共同满足市场的需要。

VMware vFORUM 2018上,NVIDIA展示了在今年10月份举办的GPU技术大会(GTC)欧洲中发布的最新vGPU解决方案,这一解决方案通过加速工作流程、让用户能够随时随地开展工作,助力设计师和工程师将其创作转变为现实。展会期间,NVIDIA还展出了基于NVIDIA vGPU解决方案的VMware解决方案。