当前,基于人工智能计算架构而搭建的智算中心,依靠于算力技术与算法模型。而算力技术以AI芯片、AI服务器和AI集群为载体,通过智算中心操作系统对算力资源池进行调度和管理,从而对外输出算力、数据与算法,赋能各类智慧应用场景的落地。作为加速智算中心技术与应用创新的代表企业,宝德计算在DOIT举办的“2024数据基础设施技术峰会”中分享了其前沿思考与落地实践。
宝德计算IA BU副总经理邬鸿表示,宝德AI计算持续为构建智慧化社会提供坚实的算力支撑,助力实现人、机、物的深度协同与融合,共同塑造一个更加美好的未来世界。
AIGC产业发展进入“加速度”时代,交互虚拟人、Al绘画、营销文本生成、个性头像生成等多模态内容服务,正赋能传统产业的数字转型。随着产业链的逐步完善和商业化场景的进一步拓展,预计到2030年,AIGC市场规模将超万亿。
随着AI及大模型技术的飞速发展,算力需求呈现指数级增长态势。大模型算力需求每两年以750倍增长,而硬件算力供给每两年仅增长3倍。比如,从ResNet-50(2500万参数),到GPT-1(1.7亿参数),再到GPT-4(万亿级参数),计算需求需要十倍,到千倍的增长,存储需求经历百倍,到千倍的增长。AI算力和数据中心集群发展,可以加速产业创新。
算力、存力与数据要素已成为推动行业变革和社会进步的关键力量。作为国内领先的AI算力提供商和AI服务器TOP3企业,宝德计算充分发挥其自身在人工智能算力底座和智能算力中心建设方面的技术经验和优势,匠心打磨了涵盖AI训练、AI推理、AI边缘、AI终端以及AI集群、AICA、AIGC、AI大模型等应用场景的多元算力产品和解决方案,并积极在软硬件层面不断进行调优创新,致力于赋能千行百业数智化转型,加速推动社会向智能化时代迈进。
在硬件层面,以宝德大模型AI训练服务器PR8908EV为例,它采用2颗第四/五代英特尔®至强®可扩展处理器,支持8张GPU加速卡,能为大模型训练和推理提供强有力的算力支撑;它最大支持12个PCIE插槽,支持8个 NVMe SSD,提供了充足的扩展空间和高速的存储性能,确保大模型数据的快速读写。同时具有CPU到GPU的端到端无阻塞带宽灵活的配置,支持32个 DIMM / DDR5内存插槽,以及最新的400Gb ETH和 IB高速智能网卡,轻松满足大内存容量需求,实现了高速、低延迟的数据传输。此外,8U空间的整机模块化设计,更有利于方便维护管理,是大模型训练和推理应用的不二选择。
在软件层面,宝德智算平台PLStack是基于 Docker + K8s技术实现整合现有计算设备资源,实现更好的对资源的分配、管理、调度和监控的能力。缓解深度学习算法训练的瓶颈,提高资源利用率,从而释放人工智能的全新能力,降低 AI 技术门槛,释放AI 技术潜力,帮助用户将更多的精力集中到垂直应用的工作领域。而且,PLStack平台支持多种主流深度学习框架方便快速部署训练环境,并且支持多人在线实验,并能够通过更直观的UI 界面对资源进行管理。
据了解,宝德计算在国内建成深圳永达、深圳观湖、四川乐山、湖南湘潭、广西南宁、陕西西安、河北张家口、江苏南京、北京昌平和广东珠海,十大智能生产基地,同时,与产业链上下游伙伴建立了繁荣的计算产业生态。
更多演讲内容敬请关注会后专题 https://sdss.doit.com.cn/2024/#/home