【深度观察】AMD蓄势已久,多款AI芯片齐发,试图掀翻英伟达“霸主”地位

引言

AMD首席执行官苏姿丰(Lisa Su)在旧金山举行的Advancing AI 2024活动上发布了全新一代Ryzen CPU、Instinct AI计算卡、EPYC AI芯片等一系列产品。她开门见山的指出:

“高性能计算是现代世界的基本组成部分,AMD在推进AI的过程中,也推动了对更多计算的需求。AMD真正致力于推动高性能计算和AI基础设施的开放式创新。”

AMD芯片的“升级之路”

微软董事长兼CEO萨提亚·纳德拉对MI300赞誉有加,称这款AI加速器在微软Azure工作负载的GPT-4推理上提供了领先的价格/性能。基于Llama 3.1 405B运行对话式AI、内容生成、AI Agent及聊天机器人、总结摘要等任务时,MI300的推理速度最多达到英伟达H100的1.3倍。

据了解新推出的MI325X进一步抬高性能,跑Mixtral 8x7B、Mistral 7B、Llama 3.1 70B等大模型的推理性能,比英伟达H200快20%~40%。

而按照“一年一迭代”的节奏,AMD在会上还披露了未来的AI芯片路线图。

下一代MI350系列将在明年上市,届时会用上与MI300X、MI325X不同的新一代CDNA 4架构,半精度浮点数FP16下的AI算力达到2.3PFLOPS。除新的AI GPU外,AMD此次还发布了专门供给企业客户数据中心的第五代AMD EPYC服务器CPU处理器、企业AI PC使用的Ryzen AI PRO 300系列处理器。

它采用了AMD的CDNA 4架构,使用先进的3nm制程工艺,配备高达288GB的HBM3E高带宽内存。MI350系列的一个重要创新是新增了FP4和FP6数据类型支持,这可能会在保持计算精度的同时进一步提高AI训练和推理性能。

据AMD表示,MI355X的在FP16数据格式下的算力可达到2.3PF,比MI325X提升1.8倍,与B200的算力持平。而在FP6和FP4格式下,其算力可达9.2PF,比B200在FP6格式下算力提升近一倍,而与其在FP4格式下算力持平。因此MI355X可以被视为AMD真正剑指B200的GPU芯片。

AI芯片市场

AMD CEO苏姿丰(Lisa Su)在演讲中预测,到2028年,数据中心、AI和加速器市场将增长至5000亿美元。这一数字相比她去年预测的“到2027年达到1500亿美元”又高出一大截。她认为,生成式AI在其中起到关键作用,为支持AI训练和推理,需要大量投资新的基础设施。而在这样的前提下,未来四年内市场将以每年70%以上的速度增长。

但目前在AI芯片市场,英伟达仍然保持领先优势,AMD与英特尔都在试图追赶。按照2022、2023连续两年的数据统计,英伟达在数据中心GPU市场占据了90%以上的份额,几乎垄断了这一市场。今年年初,英伟达又发布了其最强性能产品B200,运算速度比上一代H200芯片提升将近30倍,按计划将在今年第四季度量产上市,届时又将与竞争对手拉开差距。

Ryzen AI Pro:AI PC专用CPU登场

AI Pro PC的智能辅助

AMD今天推出了专为PC设计的全新Ryzen AI Pro 300系列处理器。新款 CPU采用4nm工艺打造,使用该公司最新的微架构,结合GPU与 Microsoft Copiliot+ 认证的神经处理单元 (NPU),可实现55TOPS性能的AI算力。

CoPilot+技术为AI Pro PC提供了强大的智能辅助能力,通过深度学习和自然语言处理,实现更高效的数据处理和任务执行,为用户带来全新的交互体验。

生态系统互联互通

AMD致力于构建开放的CoPilot+生态系统,通过与硬件制造商、软件开发商的深度合作,确保AI Pro PC在各种软硬件环境中都能发挥最佳性能。

CoPilot+支持的AI Pro PC能够适应多种应用场景,无论是专业设计、视频编辑还是大型游戏,都能提供流畅而强大的计算支持,满足不同用户的需求。

提高数据传输效率

对于大多数公司来讲,数据传输可能才是他们模型训练中最大的麻烦。想要构建一个好的数据服务器集群,除了算力扎实以外,核心任务是实现高效的数据传输,确保能够快速处理和分发海量的训练数据,从而最大化GPU利用率。与此同时,支持大规模GPU并行计算也成为了一项关键能力,服务器需要能够协调大量GPU的同时运作,并在扩展过程中保持近乎线性的性能提升。

为了处理这些问题,不同厂商都在采用不同的解决方案。AMD则认为,DPU和以太网会是一个解决办法。

基于这些思考,AMD首先以约19亿美元收购数据中心优化初创公司Pensando。该公司的产品包括可编程数据包处理器(DPU),可管理工作负载在硬件基础设施中的移动方式,尽可能将工作从CPU上移开以提高性能;同时,AMD还参与推动Ultra Ethernet的发展。

“对于后端网络而言,无论从成本还是可扩展性上看,Ultra Ethernet都是首选”,AMD方面强调。

在AMD等超高速以太网联盟 (UEC:Ultra Ethernet Consortium )的推动下,Ultra Ethernet的相关协议表现优越。与此同时,AMD在今天的峰会上也发布了第三代的P4引擎和Pensando Salina 400以及Pensando Pollara 400。

AMD这次推出的第三代可编程 P4引擎就旨在解决这一问题。它的传输速度可以达到400GB/s,与英伟达最新的DPU BlueField-3持平。而且它支持120M每秒的可编程数据包,和5M每秒的并发服务速度。

而后端网络的网卡则为Pensando Pollara 400,这是业界首款支持Ultra Ethernet Consortium标准的AI网络接口卡(NIC)。该产品具有可编程硬件管道,性能提升最高达 6 倍,支持400Gbps的网络速度。它采用开放生态系统设计,支持UEC Ready RDMA技术,可缩短作业完成时间,并提供高可用性。Pollara 400的主要特性包括可编程RDMA传输、可编程拥塞控制和通信库加速。

发布会后续跟进

  • Advancing AI 2024整场活动都是面向企业市场的,这对于消费者来说似乎无关紧要,但对那些耳熟能祥的科技公司,比如谷歌、微软、IBM、思科等等,却显得尤为重要。这些“巨头”企业也派出了代表为AMD站台,足见这场活动在企业领域的影响。
  • 而说回AI,要瓜分这块“大蛋糕”,此次发布会AMD向大众宣布了他强悍的实力,通过战略收购、创新产品开发和强大的合作伙伴关系,来试图撼动“霸主”的地位。“数据中心和人工智能(AI)为AMD带来了巨大的增长机会”,AMD董事长兼首席执行官苏姿丰 (Lisa Su) 博士表示。
  • “展望未来,我们看到,2028年,数据中心、人工智能、加速器市场将增长至5000亿美元。通过我们扩展的芯片、软件、网络和集群级解决方案,我们致力于提供大量开放式创新。”

结语

通过这次发布会,AMD展示了其在AI领域的全面布局和强大实力,从数据中心到个人电脑,AMD都在推动AI技术的普及和应用。这些新产品的推出,无疑将对AI领域产生深远影响,同时也体现了AMD作为技术创新领导者的地位。(文/宋雨涵)