CXL会在2025年得到普及吗?

最近,ServerTheHome的Patrick Kennedy写了一篇文章,认为CXL会在2025年普及。

由于标题比较显眼,这篇文章的评论区里非常热闹,有人对CXL前景感到担忧,有人认可CXL的价值。

这篇文章中提到,CXL是一项我们期待了多年的技术。然而,进展速度似乎不如预期。

2019年,很多人会认为,到2024年的时候,CXL应该已经成为技术领域的重要组成部分。

现在看来,可能要在2025年,这项技术才可能会从一个非常小众的领域,转变为我们开始经常使用的技术。

2019年,在被英特尔正式宣布之后,业内才开始关注CXL,当时英特尔正着手将这项技术移交到行业联盟中。

2019年第一季度,AMD还没有发布EPYC 7002系列处理器,英伟达还没有靠AI芯片成为大哥,当时作为大哥的英特尔宣布要向市场提供这项技术。

到2021年,CXL成为最受关注的互联技术,也进入了开始产品化的阶段。

Patrick Kennedy对于CXL在2025年的发展非常看好,他希望,所有的CXL Type-3设备都能实现即插即用的体验。

2023年初,如果你尝试使用CXL控制器,通常需要在少数特定系统上验证,并运行特定的固件版本。

如果Type-3设备能像SSD一样简单易用就好了。我们正在接近这一目标,但行业还尚未完全实现。

Patrick Kennedy认为,到2025年,我们可能会看到更多针对CXL设计的服务器,可以更好地应对需要更多内存和内存带宽的通用计算场景。

他认为,随着技术的可部署性提高,CXL将在不久的将来出现在更多场景中。

目前,它面临的最大挑战是,CXL通常没有被纳入AI的架构中。但到2027年,CXL可能会实现大规模应用,也会有一些更酷的用例。

不过,当我看到这篇文章的评论区之后,发现大家对CXL的未来其实并不都保持乐观态度。

有网友表示,CXL等技术在带宽和延迟方面没有显著优势,因为PCIe 5.0和现有的12个内存通道已经能提供非常高的性能。而且,并没有太多应用程序对内存带宽和延迟不敏感,因此质疑其实际意义。

对此,有网友表示反对。认为CXL不仅在原来基础上增加了带宽,还通过减少DDR5安装需求和扩展DDR4内存容量实现成本节约和扩展能力的提升。他指出CXL 3.0的核心价值在于其大容量的共享内存资源池,可以减少对以太网数据复制的依赖。

也有网友质疑CXL的性价比和实用性,认为内存扩展的硬件成本高昂,而且CXL的带宽瓶颈问题会随着新技术(如M(C)RDIMM和DDR6)的出现更加突出。同时,长距离传输数据的能耗增加也是一个显著的挑战。

另外一个网友则认为,虽然CXL提供了额外的灵活性,但仅限于那些对带宽和延迟不敏感的应用程序。然而,这类应用并不多。

也有网友提到了谷歌和甲骨文在使用CXL扩展设备,使用了一批旧的DDR4内存来降低了内存成本,认可用DDR4来节省成本的做法。

还有人认为,大语言模型(LLM)训练是推动CXL发展的主要动力。随着LLM数据集及其增长速度超越了本地内存的容量限制,CXL内存池化成为了自然且更高效的下一步解决方案。

也有人用一个评论回复了上面对好几个人的看法:

他认为,重复使用DDR4在性能和可靠性上是有问题的。DDR5在可靠性方面,尤其是对于大内存服务器非常有帮助。而大规模使用DDR4只会导致崩溃。

此外,他认为CXL 3.0配合PCIe 6和一些RAS特性才有可能被广泛采用,认为2027/2028年前后才可能会得到应用。在此之前,任何应用都只是小规模试验或概念验证。

还有,大语言模型(LLM)的训练是在HBM中进行的,而不是在速度较慢的内存中。要知道,虽然数据是放在内存中的,但对DDR内存数据的访问不是即时的。

CXL在小型节点中会有意义,但对其在实际大规模使用中的模式持保留意见。

还没完,还有人认为,当你等到2027年,那时候PCIe 7.0以及光互联就要来了。光互联不仅有更低的延迟,它在相邻机架之间的传输范围上有更大的用处。而且,2026年的时候,MRDIMM也会得到应用。

看完评论区里的内容,你对CXL在2025年的发展怎么看呢?躺着看?

原文:https://www.servethehome.com/cxl-is-finally-coming-in-2025-amd-intel-marvell-xconn-inventec-lenovo-asus-kioxia-montage-arm/