AI推动高带宽存储使用量年增超200%,三星预计2025年推出HBM4芯片

AI 正在加速高带宽存储技术的使用增长。

据TrendForce集邦咨询发布的最新报告显示,随着AI芯片迭代,单一芯片搭载的HBM(高带宽内存)容量也明显增加,而英伟达(NVIDIA)目前是HBM市场的最大买家,预期2025年推出Blackwell Ultra、B200A等产品后,其在HBM市场的采购比重将突破70%。

报告还显示,在AI芯片与单芯片容量的增长推动下,对产业整体的HBM的消耗量(使用量)有显著提升,2024年预估年增率将超过200%,2025年HBM消耗量将再翻倍。而受到Blackwell平台全面搭载HBM3e、产品层数增加,以及单芯片HBM容量的上升,英伟达对HBM3e市场整体的消耗量将进一步推升至85%以上。

另据美国银行预测,HBM市场将持续增长,全球HBM销售额已经从2023年的16亿美元,预计到2027年,这一市场将增长至266亿美元,年均增长率为59%。

实际上,当前,AI 服务器最核心的三个要素——计算(算力)、网络(通讯)和存储都面临供需不均衡情况,需求增多,但供给和创新技术面临一定瓶颈,因此,加大网络通讯能力,以及为AI时代打造高容量、高性能和低功耗的存储解决方案变得至关重要。

8月8日在北京举行的2024开放计算中国峰会(OCP China day 2024)上,三星电子副总裁、先行开发团队负责人张实完(Silwan Chang)透露,该公司正在进行客户测试的HBM3E内存产品,预计其速度可高达9.8Gbps,带宽不低于1TB/s,而下一代HBM4产品预计会在2025年推出。

其中,HBM3E12H 适用于生成式 AI 服务器领域。相较于HBM3,HBM3E12H最高容量提升50%、性能提升50%、能效提高12%。

除了HBM之外,张实完指出,三星于今年初开始量产128TB SSD,而三星的目标是向市场提供基于TLC和QLC NAND技术的各种规格的高容量产品,以满足AI应用对存储容量不断增长的需求。

具体产品性能层面,三星即将推出新一代PCIe Gen5 SSD PM1753,以满足AI训练和推理性能。与上一代产品相比,新款顺序写入性能提升1.6倍,随机读写速度分别提升1.3和1.7倍,闲置功耗降至4W。以基于TLC技术的 PM1753为例,其AI工作负载下的顺序写入能效比上一代相比提高1.7倍,在传统服务器中的随机I/O操作的能效也提高了1.6倍。张实完称,PM1753有望成为生成式AI服务器应用所需的出色解决方案。

当前,随着 AI 服务器对于存储的需求增加,整个DRAM、NAND Flash、HBM等存储芯片市场开始企稳,三星电子业绩也出现回暖。

7月31日公布的三星电子2024年第二季度财报显示,营收增长23.4%,至74.06万亿韩元;净利润增长超过600%至9.64万亿韩元(69.6亿美元),创下2010年以来最快的净利润增速。而其中,二季度半导体业务的销售额28.56万亿韩元,预期27.49万亿;营业利润6.45万亿韩元,预期5.06万亿韩元。这是自2023年第一季度以来连续5个季度亏损后,三星半导体业务首次实现季度营业利润。

三星电子表示,这一强劲表现得益于对存储芯片的强劲需求,包括用于 AI 服务器和固态硬盘(SSD)的存储芯片。“HBM、DDR5等以服务器为中心的产品销售扩大,同时公司积极应对生成式AI服务器用高附加值产品的需求,使得业绩较上季度大幅改善。”三星电子预计,2024下半年HBM、DDR5和SSD的内存需求将保持强劲,公司将扩大产能以提高HBM3E销售比例。

里昂证券(CLSA)分析认为,数据中心和 AI 开发需求推动内存芯片的平均价格较上一季度上涨了15%,这帮助三星最大的部门扭转了上年同期亏损。美银预计,三星2025年的HBM3e销售预计达24亿美元,占HBM总销售额的34%。

转载自钛媒体