革新数据中心:直接液体冷却技术的影响

随着AI工作负载的增长,企业纷纷在数据中心部署直接液体冷却(DLC)技术,以实现可持续的散热与高效运行。

作者:Michael McNerney, Supermicro市场营销与网络安全高级副总裁

新兴的人工智能技术正在引领一场全球性的加速计算和AI基础设施竞赛。在这场技术革命中,云服务提供商、企业用户以及各国政府都在竞相部署AI数据中心。然而,支撑这些数据中心运行的高性能GPU面临着巨大的能耗挑战,这不仅可能制约计算效率,还可能影响整体产出能力。据高盛(Goldman Sachs)研究报告预测,到2030年,AI数据中心的电力消耗将占美国总用电量的8%,较2022年的3%有显著提升。

在综合考虑地理条件、公共设施限制以及日益增长的电力需求等多重因素后,企业部署可持续AI基础设施面临着前所未有的挑战。在这一背景下,直接液体冷却技术(DLC)成为了确保数据中心平稳、可持续且高效运行的关键解决方案,能够在不加剧电网负担的前提下优化性能。

为何选择直接液体冷却技术?

随着高性能AI需求的激增,CPU和GPU产生的大量热量已成为数据中心和IT运营的重大威胁。众所周知,数据中心必须维持在低温环境下才能确保其高效运行。

传统上,空气冷却技术曾是主流的散热方案——通过使冷空气在发热芯片周围循环来实现降温。然而,这种冷却方式严重依赖于入口空气的温度和流量,在服务器密集的数据中心环境中,冷空气往往难以实现有效循环。更值得注意的是,空气冷却系统需要持续运行机房空调和服务器风扇,这不仅消耗大量能源,还成为了AI数据中心高能耗的主要来源之一。

相较于传统冷却方式,直接液体冷却技术(DLC)在散热效率上展现出显著优势,并兼具多重运营与环境效益,使其成为数据中心冷却的理想选择。

直接液体冷却技术的三大优势

DLC正迅速崛起为数据中心的标配冷却方案。根据全球市场洞察的分析,2022年液体冷却IT市场规模已超过20亿美元,预计到2032年将以每年15%的增速攀升至120亿美元。

DLC的优势众多,以下是其中最核心的三点:

提升可持续性

DLC最引人注目的特性在于其卓越的可持续性。在当今企业纷纷追求绿色计算目标和ESG(环境、社会与公司治理)合规的背景下,既要提升AI生产力又要减少碳排放似乎是一项矛盾的任务。然而,DLC通过其高能效和低功耗的特性,已被证实能够有效减少范围2(电力产生的间接温室气体排放)和范围3(其他间接排放)的碳排放。此外,由于DLC显著降低了电网电力需求,它能够大幅缩短企业AI工厂的部署时间,而传统方式从公共设施获取充足电力往往需要数年之久。

显著节省成本

在评估冷却方案时,成本是企业关注的核心因素之一。DLC无需依赖风扇供电,同时能够优化电源使用效率(PUE),单机架在三年内可节省高达60,067美元。此外,DLC还能帮助企业减少高达40%的电力需求,这对于电力资源紧张的地区尤为重要。

提升数据中心效率

直接液体冷却技术在运营层面具备显著优势。

例如,在采用空气冷却的数据中心中,CPU和GPU在接近或达到最高工作温度时通常会触发降频运行。虽然热降频可以防止芯片损坏,但也会导致数据中心性能下降,进而影响应用吞吐量。而DLC允许芯片在全速运行的同时保持稳定温度,无需降频,从而彻底避免了空气冷却带来的性能损失和停机问题。

借助直接液体冷却技术开启未来

直接液体冷却技术已不再是遥远而抽象的技术——它已到来。随着AI的进步和数据中心对这项技术的广泛采用,数据中心供应商需要与时俱进。令人振奋的是,通过DLC,这一演进可以以高效且可持续的方式实现,确保计算技术的未来不再受限于过去技术的束缚。