Marvell与内存大厂合作推出定制版HBM

HBM是AI计算架构的关键部分之一,它在GPU核心的附近放置,可以实现超快的数据传输。然而,如果严格遵循JEDEC协议,HBM性能的提升将变得困难。为了加速HBM的发展,Marvell与其他公司正在开发一种定制的HBM架构。

图:ServeTheHome

Marvell发布了一种全新的定制HBM计算架构,旨在提高XPU的效率和性能。这一架构是与内存巨头美光、三星和SK海力士合作开发的,目标是通过提供为下一代数据中心量身定制的解决方案,解决传统内存集成的局限性。

新架构专注于优化XPU处理内存的方式。与标准的HBM相比,通过优化AI计算芯片和高带宽内存堆栈之间的接口,可将功耗降低高达70%。

而且,这种做法可减少多达25%的芯片面积,使云计算运营商能够扩展更多计算能力或添加更多内存。这种架构可能让XPU支持多达33%的额外HBM堆栈,从而大幅提升内存密度。

Marvell定制计算和存储集团高级副总裁兼总经理Will Chu表示:“通过为XPU量身定制HBM以优化性能、功耗和总拥有成本,是AI加速器设计和交付方式的新范式中最新的一步。”

传统架构限制了其扩展性和能源效率,而Marvell的新方法修改了HBM堆栈本身及其集成方式,旨在以更低的功耗和成本实现更高的性能。这些都是超大规模数据中心运营商面临的关键问题,他们需要不断应对数据中心日益增长的能源需求。

ServeTheHome的Patrick Kennedy在指出,定制HBM区别于JEDEC标准方案,它不是现成的HBM。他写道:“将内存从JEDEC标准转向为超大规模运营商定制,是行业内一次里程碑式的变革。这表明Marvell赢得了一些重要的超大规模XPU订单,因为内存领域的这种定制不会服务小订单。”

这场合作标志着HBM技术进入了一个新的阶段,为AI驱动的未来提供了更强大的支撑。

原文地址:

https://www.techradar.com/pro/usd100bn-tech-company-youve-probably-never-heard-of-is-teaming-up-with-the-worlds-biggest-memory-manufacturers-to-produce-supercharged-hbm