近日,DeepSeek凭借其低成本、高性能的大模型研发成果,迅速引发了全球科技界的关注。在AI大模型训练领域,显存墙和通信墙一直是制约技术普及的核心瓶颈。
铨兴科技基于自研技术创新,通过超显存融合技术,打破显存墙,可将单机显存最高扩展至8TB,成功实现了DeepSeek R1 671B大模型极低成本的全参训练,成本相比行业平均水平降低95%,实现巨大突破。铨兴科技联合浪潮云,率先发表DeepSeek 671B一体机,向政企客户实现高质量交付。
铨兴携手浪潮云,赋能智能应用落地
QUANXING铨兴科技联合浪潮云,发表预置DeepSeek R1和DeepSeek V3模型的海若一体机,率先实现671B满血版DeepSeek大模型单机服务,为政企客户提供大模型智能应用落地的一体化解决方案。
极低成本实现DeepSeek R1 671B模型训练
QUANXINGDeepSeek R1 671B大模型的训练最低需要百张高端GPU,最低成本高达数千万元人民币。而铨兴科技的训推一体机仅使用16张显卡,便完成了DeepSeek R1 671B模型的全参数训练,训练硬件成本不到150万元人民币,较行业平均水平降低95%以上。这一突破性成果得益于铨兴科技的两项核心自研技术:
自研添翼AI扩容卡添翼AI扩容卡通过显存扩展技术,可将单机显存容量提升至8TB,大幅超越传统GPU架构的显存数量,显著提升了硬件资源利用率,满足超大规模模型的训练需求。
自研AI Link训练框架
铨兴科技优化了分布式训练中的通信效率和资源调度,实现显卡与扩容卡的高效协同,大幅降低硬件门槛。
![](https://pic.doit.com.cn/2025/02/11.png?x-oss-process=image%2Fquality,q_50%2Fresize,m_fill,w_1024,h_575)
铨兴科技训推一体机的推出,为AI模型训练带来了以下显著优势:
成本效益
以极低的硬件投入实现千亿级模型训练,显著降低AI企业模型研发成本。
性能保障
在降低成本的同时,确保模型训练的完整性和性能,训练效果媲美传统高端集群。
部署便捷
支持单机完成训练和推理任务,简化了分布式系统的复杂性和运维难度。
灵活扩展支持模块化扩容,可从小规模模型训练平滑过渡到万亿级参数模型的训练需求。
![](https://pic.doit.com.cn/2025/02/22.png?x-oss-process=image%2Fquality,q_50%2Fresize,m_fill,w_1024,h_508)
铨兴科技核心自研技术已在多个领域实现落地应用,应用场景包括:
智慧政务
实现个性化的政务AI应用,深入理解业务需求,结合各局办自己的数据,在本地端训练出大模型,实现智慧公文写作、智慧项目评审、高效数据治理与可视化等功能,大幅提升效率。
智慧法务
基于百万级法律条文与过往案例,实现专属法务大模型,协助法院实现高效阅卷,将阅卷效率提升99%。
高校科研
与知名高校合作,以极低的成本实现半导体、金融、化学等领域的科研探索,助力中国科研腾飞。
金融风控
帮助金融机构构建私有化风控大模型,提升数据安全性和模型迭代效率,降低资金风险。
高校教育
基于极低成本训推一体机,配合精英教师体系与AI大模型算法课程体系,帮助高校实现大模型算法教育普惠,让每一个学生都有机会训练出自己专属的大模型,帮助高校打造高层次行业认知、深度模型理解、极丰富AI应用经验三位一体的顶级人才。
算力中心基于铨兴高效显存融合方案,阶段性解决集群通信墙,实现高效的算力利旧,以及低成本新算力基建,打造出新时代算力标杆,使算力中心的网络成本下降90%,整体成本下降15%以上。
![](https://pic.doit.com.cn/2025/02/33.png?x-oss-process=image%2Fquality,q_50%2Fresize,m_fill,w_1024,h_576)
铨兴科技的超显存融合技术,大幅降低模型训练成本,不仅是一项技术突破,更是AI行业的一次重大革新。它使得中小企业也能以极低的成本参与大模型研发,推动AI技术的普惠化进程,引领”铨”民AI时代。无论是初创企业还是行业巨头,都可以通过这一解决方案快速构建和优化AI模型,抢占技术制高点。