近日,曙光存储全新升级AI存储方案,秉持“AI加速”理念,面向AI训练、AI推理和AI成本等需求,全面重塑AI存储架构。这是在拿下AI存储中国第一的市场地位后,曙光存储的再次重磅升级。。
AI时代的存储变革
随着生成式AI崛起,企业数据存储需求发生的显著变化。特别是DeepSeek等技术的出现,AI存储市场呈现出新的趋势和挑战。

在2025人工智能基础设施峰会举行期间,曙光存储副总裁张新凤接受DOIT记者采访时表示,从大模型的训练到推理应用的落地,AI领域对存储的需求呈现出爆发式增长且不断变化的态势。
早期,AI处于大模型训练阶段,Checkpoint数据吞吐量极大。张新凤提到:“以单卡为例,写入带宽可达2-5G,若处理视频数据,带宽需求甚至高达7-8G。在千卡集群的情况下,对存储带宽的需求达到TB级。在NVMe全闪技术出现之前,传统的HDD混闪方案一个节点仅能提供3-5GB的带宽,要满足TB级带宽需求,不仅需要数百个节点,还会带来高昂的造价成本,同时机房空间占用和电费等问题也接踵而至。这一阶段,存储性能成为制约AI发展的关键因素。”
随着AI的发展,尤其是进入2025年,推理应用逐渐兴起。张新凤强调:“推理应用对存储的要求与训练阶段截然不同,其核心在于缩短推理tokens生成时间,或在一秒内生成尽可能多的tokens,同时要保证生成tokens的质量,避免出现AI幻觉等问题。这些新的需求促使存储技术必须不断创新和优化。”
张新凤分析道:“DeepSeek对算力要求的降低,从表面上看似乎会减少对存储的短期需求,但实际上却扩大了AI的受众范围,使更多企业有可能成为AI客户,这意味着AI基础设施涉及的范围更广,从长远来看对存储市场是利好的。然而,从训练到推理的转变,对存储的诉求发生了很大变化,存储能否适应这些新需求成为关键问题。”
同时,市场上出现了很多一体机,存力和算力的需求从集中型数据中心发散到边缘设备,产品多元化。张新凤表示:“这对于企业级存储来说,短期内是利空的。另外,DeepSeek利用算法弥补硬件设施的缺失,使得一些企业无需采购新硬件,这在短期内也对存储市场产生了一定的冲击。但从长期来看,新技术应用成本与应用规模打破临界值后,会推动大规模的基础设施建设,AI基础设施仍将呈现集中与边缘结合的方式,这为存储市场带来了新的机遇。”
全新升级AI存储方案
曙光存储ParaStor F9000专为AI训练场景量身打造,针对AI训练带来的GPU利用率低、KV Cache、向量数据库存储和检索性能低等问题,升级后的ParaStor可整机柜交付,提供千卡/万卡/十万卡集群整机柜交付方案,轻松容纳DeepSeek-R1这样千亿级参数的大模型,部署时间缩短50%。

性能方面,ParaStor F9000更是表现卓越,拥有500万IOPS的强大处理能力和190GB/s的高速带宽。借助五级加速技术和秒级弹性扩容功能,可将GPT- 4级别模型的训练周期从原本的3个月大幅缩短至1周,加速AI技能迭代。
大模型实时推理往往带来每秒千万级的并发请求,对存储性能要求极高。FlashNexus集中式全闪存储在AI推理领域树立了新的性能标杆,其32控配置可实现超3000万IOPS的惊人性能,时延低至0.202ms,在SPC-1基准评测中荣获全球第一。

基于国内最新芯片级研发成果,优化从处理器芯片、RDMA网络芯片、PCIe芯片、NVMe控制器芯片的端到端协议路径。微控架构建立无锁化的数据IO“超级隧道”,将写性能提升2倍以上。为AI推理的向量数据库、KV Cache长文本存储提供了更优方案。此外,高性能数据加密、完善的数据保护等技术为用户最关键的私域核心数据资产提供全方位保护。
面对大模型实时推理需求,该产品可“零帧起手”支撑每秒百万级并发需求;聚焦自动驾驶决策实时性需求,可以毫秒级速度加载TB级路况数据;针对金融客户,可在高波动市场环境下稳定处理高频量化交易数据流,让交易更高效、安全。

升级后的ParaStor S6000系列,以1.44PB/框的超大容量和20%成本降低支撑千亿参数归档。单框配置14块NVMe盘和60块SATA/SAS盘,通过冷热数据分层技术和智能数据调度功能,实现动态优化存储资源的分配、跨形态热温冷数据无感流动,提高存储资源的利用率。
通过与2U2N全闪节点的统一管理和使用,利用系统间无缝数据迁移等技术,显著降低使用和运维成本。
张新凤介绍,第二代ParaStor全闪智存产品基于2U通用的NVMe全闪服务器构建。
第一代产品推出时,基于NVMe全闪技术,已实现150GB的带宽和320万的IOPS,有效缓解了当时AI大模型训练的存储压力。但随着AI项目的推进,客户对存储带宽的要求越来越高,几乎没有上限。基于通用硬件的存储平台在发挥PCIe性能时遇到瓶颈,为了突破这些限制,曙光决定打造专用的存储硬件平台——F9000 2U2N。张新凤详细解释道:“在这款硬件平台中,2U的节点内设置2个节点,每个节点带12块盘,实现了每块NVMe盘与CPU直通,极大地提升了性能,确保24块盘的性能能够充分发挥。”
在软件方面,曙光针对AI训练和推理的特点进行了多项优化。训练时,为解决GPU等待数据的问题,推出XDS技术(类似国外的GDS技术)。张新凤表示:“该技术不仅支持国外主流GPU,对国产加速卡也有很好的支持,能够让数据直通GPU的卡,使存储节点的内存占用直接降低80%,CPU利用率下降约一半,让存储节点能够释放更多资源处理其他业务负载。”同时,Burst Buffer技术也是一大亮点。“在处理Checkpoint数据时,先将数据写到GPU本地节点的NVMe存储介质上,待空闲时再写入存储,这样缩短了数据写入距离,性能提升了两倍。”
在推理应用方面,曙光针对训练tokens生成的关键需求,采用了KV Cache技术,将更多的tokens缓存起来,以存代算,减少重新计算的时间。同时,对向量数据库进行专用的性能优化,提升了推理效率和生成结果的质量。张新凤透露:“目前,该产品的节点性能已提升至190GB带宽和500万IOPS,且未来还有进一步提升的空间。”
在AI大模型的训练和推理场景中,曙光根据不同阶段的需求,提供了灵活的方案组合。张新凤介绍:“在训练和推理对性能要求极高的阶段,通常采用分布式全闪方案,以满足高并发带宽和低延迟的需求。而在数据预处理和归档阶段,由于数据量较大,如果全部采用全闪方案成本过高,此时曙光会推荐高密的混闪产品,利用大容量硬盘构建存储空间。对于数据量规模不是特别大的客户,则推荐FlashNexus NVMe全闪盘阵,其具有延迟低、并发度高的特点,不仅适用于金融的在线实时交易、医疗HIS系统,也能很好地满足AI推理需求。如果用户之前在FlashNexus存储了数据,可直接基于这些数据进行处理和推理分享,十分便捷。”
行业布局:AI存储,中国第一
曙光存储自称“最懂AI的存储”,并非虚言。张新凤介绍:“在训练阶段,XDS和Burst Buffer技术有效解决了GPU空载等数据的问题,大幅提升了GPU利用率。以前GPU利用率仅30%-40%,采用曙光存储技术后,利用率可达到70%-80%。对于大的训练中心来说,GPU造价高昂,减少等待时间能避免巨大的经济损失。”
在推理阶段,曙光通过用户处理私域的专业数据,利用向量数据库和KV Cache加速技术,解决了推理中幻觉的问题,提高了生成tokens的效率和精度。曙光致力于打造AI全数据通道,从数据采集、加载、预处理、训练、推理到归档,都能在其存储系统上完成。在不同阶段,根据不同的协议和接口要求,以及数据存储的不同介质和区域,曙光都能提供完整的支持。
在产品布局上,曙光存储围绕AI进行全面规划。分布式存储方面,无论是硬件还是软件,都紧密围绕AI存储需求进行快速适配调整,重点关注自动驾驶、具身智能、计算中心等典型的AI产出大户。同时,曙光也在集中式存储领域发力。张新凤解释:“一方面,分布式和集中式存储在底层技术上有相通之处,特别是在NVMe协议的应用上;另一方面,客户对高性能集中式存储的需求强烈,而目前国内市场上可选的优质产品较少。曙光在两年前进行了NVMe全闪布局,去年推出一款产品,今年将对产品进行多次迭代更新,未来两年还会有更多新产品推出,致力于打造最高端的集中式NVMe全闪产品,服务关键行业和应用场景。”
张新凤介绍,为国内一家新势力企业构建底层存力平台时,面临着诸多挑战。该企业有100多辆路测车,每天采集2-4TB的数据,这些数据采集后需汇总到存储平台进行清洗、标注、去敏感信息,然后用于算法迭代训练,训练结果和部分数据还需长期存储。
在数据处理过程中,不同阶段使用不同的协议,采集阶段使用S3协议,标注处理时用NAS协议,算法训练用POSIX协议,归档到云时又用S3协议。张新凤感慨道:“要确保数据在不同协议之间转换时性能无损且高级功能可用,难度极大。此外,自动驾驶数据涉及大量敏感信息,权限控制严格。”曙光针对这些问题,进行了大量专门的权限管理设计,为客户提供了高性能且方便易用的存储解决方案,这也是众多客户长期与曙光合作的重要原因。
此外,曙光存储还关注低空经济、生物信息等领域。张新凤介绍:“低空经济中,卫星和无人机等采集设备产生大量数据,曙光在该领域已有很多百PB的案例落地。生物信息领域,基因测序和冷冻电镜等前端采集设备生成具有高科研价值的数据,对存储性能要求较高,曙光帮助科研单位打通不同客户之间的数据共享问题,其在AI领域积累的数据流动和存储技术也适用于该领域。同时,曙光还在打造视频存力平台、交通存力平台等,聚焦具体应用场景,满足不同行业的差异化需求。”
结语
展望未来,曙光存储充满信心。张新凤说道:“随着AI技术的不断发展,AI基础设施将呈现集中与边缘结合的模式,大规模的集中训练和遍地开花的推理集群将成为主流场景。曙光已经为国内很多万卡集群提供支持,今年年底还将打造十万卡的集群。在这个过程中,曙光的技术也在不断进化,以满足AI发展的需求。”
曙光存储将继续围绕AI进行产品研发和优化,不断提升存储性能,降低成本,拓展应用领域。张新凤最后表示:“同时,也希望通过自身的努力,推动整个存储行业的发展,在AI时代的存储领域发挥更大的作用,为千行百业的数字化转型提供坚实的存储支撑。”