国产AI大模型DeepSeek引爆生态圈:7天16家芯片厂商抢滩适配,中国智算自主化加速

导读

2025年开年,国产AI大模型DeepSeek以惊人的速度席卷科技产业。短短7天内,华为昇腾、沐曦、天数智芯、摩尔线程、海光信息等16家国产AI芯片企业(完整名单及做法附后)集体宣布完成对DeepSeek模型的适配或服务上架,覆盖从训练到推理的全链条场景。这一动作不仅刷新了国产AI技术的协同效率,更标志着中国智算产业从硬件到软件的自主化生态迈出关键一步。

DeepSeek的爆发式适配,不仅是一场技术狂欢,更揭示了国产AI发展的新范式——从依赖单一算力规模转向“芯片-模型-场景”协同优化。

文字编辑| 宋雨涵

1

国产芯片与大模型的“双向奔赴”

推动产业链协同发展

技术实力与协同效应:这些企业能够快速完成对DeepSeek模型的适配,充分展示了中国AI产业链的技术实力和协同效应。DeepSeek的创新提升了算力使用效率,降低了算力硬件的门槛,无需依赖高端芯片也可实现应用落地。

市场影响:随着DeepSeek模型在国产AI芯片上的快速适配,有望推动国产AI芯片在推理场景的应用,减少对海外硬件的依赖。同时,这也为构建自主可控的人工智能技术生态奠定了基础。

行业趋势:从芯片到算法,从算力到应用,再到云服务,DeepSeek的出现促进了整个产业链的协同进化。科技创新正从“硬件堆砌”的竞赛转向“算法-硬件-场景”协同发展,未来竞争更依赖生态整合能力而非单一技术优势。

从“替代”到“引领”的转型信号

资本市场热度飙升:科创芯片ETF规模突破204亿元,寒武纪、龙芯中科等概念股春节后股价连续涨停。

华为昇腾、沐曦等芯片独角兽借势加速IPO进程,国产AI芯片产业迎来资本密集注入。

破解“卡脖子”难题:通过昇腾自研推理引擎,DeepSeek在国产硬件上的效果已比肩国际高端GPU。

南京智算中心、浙东南智算中心基于全国产算力部署满血版DeepSeek模型,推动零售、工业等垂直场景应用。

企业级部署门槛降低:联想联合沐曦推出训推一体机,企业可低成本实现本地化AI部署;浪潮云、青云科技等推出预置模型的一体机方案,满足国央企、高校的私有化需求。

2

这些企业具体做了些什么?

1、华为昇腾2月1日,华为云宣布与硅基流动联合首发并上线基于华为云昇腾云服务的DeepSeek R1/V3推理服务。得益于自研推理加速引擎加持,该服务支持部署的DeepSeek模型可获得持平全球高端GPU部署模型的效果。2月4日,DeepSeek R1、V3、V2、Janus-Pro模型正式上线昇腾社区,支持一键获取DeepSeek系列模型,支持昇腾硬件平台上开箱即用,推理快速部署。天翼云、联通云、移动云三大运营商云均已采用昇腾算力底座来支持DeepSeek模型。神州数码也特别提到其神州鲲泰推理服务器产品搭载昇腾硬件,可全面支持DeepSeek模型的快速部署。

2、沐曦国产GPU独角兽沐曦对DeepSeek的支持,由国内一站式大模型托管平台Gitee AI代为官宣。Gitee AI在2月2日宣布上线1.5B、7B、14B、32B四个尺寸的DeepSeek R1模型并均部署在国产沐曦曦云GPU上。2月5日,Gitee AI再度发文,宣布经测试已确认DeepSeek-V3全精度满血版(671B)可以成功运行在沐曦训推一体GPU上,并将V3满血版上线到平台上。同日,联想联合沐曦发布基于DeepSeek大模型的首个国产一体机解决方案。该方案以“联想服务器/工作站+沐曦训推一体国产GPU+自主算法”为核心架构,配合联想AI Force智能体开发平台,推出智能体一体机与训推一体服务器双产品形态。面向敏捷部署的DeepSeek智能体一体机,采用ThinkStation PX工作站为载体,搭载沐曦曦思N260国产GPU,可支持本地部署DeepSeek各种参数蒸馏模型推理。面向更广泛场景的DeepSeek训推一体机,基于联想问天WA5480 G3 AI服务器,搭载8张曦云C500国产GPU,可为大模型训练和推理提供强大的算力支撑。浪潮云在2月7日发布的预置DeepSeek R1和V3模型的海若一体机时,也采用了沐曦的国产GPU。

3、天数智芯2月4日,天数智芯与Gitee AI联合发布,在双方的高效协作下,仅用时一天,便成功完成了与DeepSeek R1的适配工作,并已正式上线多款大模型服务,包括1.5B、7B、14B等尺寸。

天数智芯还在联合并行科技、算力互联等多家伙伴,全力开展DeepSeek多款模型的适配与上线。此前,DeepSeek V3 671B刚一发布,天数智芯便迅速响应,完成了与该模型的适配工作。经测试与验证,适配后的模型精度高度对标论文精度,展现出出色的稳定性与可靠性,可快速投入应用场景。

4、摩尔线程2月4日,摩尔线程宣布快速实现DeepSeek R1蒸馏模型推理服务在摩尔线程夸娥(KUAE)GPU智算集群上的高效部署。摩尔线程即将开放夸娥GPU智算集群,全面支持DeepSeek V3、R1模型及新一代蒸馏模型的分布式部署。用户也可以基于摩尔线程MTT S80和MTT S4000显卡进行DeepSeek-R1蒸馏模型的推理部署。早在1月28日,就已经有B站UP主在MTT S80上手动完成推理DeepSeek R1模型的实践。基于Ollama开源框架,摩尔线程完成DeepSeek-R1-Distill-Qwen-7B蒸馏模型的部署,并在多种中文任务中展现了优异的性能,验证了摩尔线程全功能GPU的通用性与CUDA兼容性。

5、海光信息2月4日~5日,海光信息宣布其技术团队近日成功完成DeepSeek V3模型、R1模型、Janus-Pro多模态大模型与海光DCU的适配优化,并正式上线。DCU(深度计算单元)是海光信息推出的高性能GPGPU架构AI加速卡,DeepSeek模型可直接在DCU上运行,并不需要大量适配工作,技术团队的主要工作是进行精度验证和持续的性能优化。用户可通过“光合开发者社区”中的“光源”板块访问并下载相关模型,或登录 [www.sourcefind.cn] 搜索“DeepSeek”,即可基于DCU平台快速部署和使用相关模型。

6、壁仞科技2月5日,壁仞科技宣布壁仞AI算力平台正式上线DeepSeek R1全系列蒸馏模型推理服务,供开发者云端体验。该服务具备两大核心优势:一是零部署成本,实现“开箱即用”的云端推理体验;二是多场景覆盖,针对大语言模型等不同任务预置优化配置方案。壁仞科技已联合上海智能算力科技有限公司、中兴通讯、科华数据、无问芯穹、开源中国(Gitee AI)、UCloud优刻得、一蓦科技等战略伙伴,基于壁砺系列训推产品106M、106B、106E、110E,全面开展DeepSeek全系列模型的适配与上线。同日,UCloud优刻得发文宣布,优刻得与壁砺系列进行适配兼容,仅用数小时即完成了对DeepSeek R1全系列蒸馏模型的支持。

7、太初元碁2月5日,太初元碁宣布在太初T100加速卡上仅用2小时便完成DeepSeek-R1系列模型的适配工作,快速上线多款大模型服务。DeepSeek-R1系列模型可在太初元碁官网的模型中心获取。该模型中心为用户提供免费的太初T100加速卡,并提供模型权重下载、在线/离线推理脚本、模型评测脚本等全流程内容。当前,DeepSeek-R1系列推理API无限量限时免费。太初元碁正积极联手京算、是石科技、神威数智、龙芯中科等合作伙伴,全力打造DeepSeek系列模型的云端推理平台。

8、云天励飞2月5日,云天励飞宣布其芯片团队完成DeepEdge10芯片平台与DeepSeek R1(1.5B、7B、8B)大模型的适配,可以交付客户使用。DeepSeek R1(32B、70B)以及V3/R1 671B MoE大模型也在有序适配中。适配完成后,DeepEdge10芯片平台将在端、边、云全面支持DeepSeek全系列模型。

9、燧原科技2月6日,燧原科技宣布完成了对DeepSeek全量模型的高效适配,包括DeepSeek R1/V3 671B原生模型和蒸馏模型。目前,DeepSeek的全量模型已在庆阳、无锡、成都等智算中心完成了数万卡的快速部署。这一成果标志着燧原科技在国内率先实现了DeepSeek全量模型的部署和落地。燧原科技与并济科技、并行科技、东华软件、道客网络、光环云、迈富时、清程极智、燧弘华创、未来速度、无问芯穹、向量栈、亿算智能、中科加禾等合作伙伴紧密合作,积极推进DeepSeek全量模型的更多系统级优化,进一步推理性价比。燧原科技还与万物安全、飞渡科技、万物之宜等深度合作,即将推出面向智慧城市、智慧园区、智慧交通等AIoT场景的国内首个DeepSeek智算训推一体机,帮助用户解决国产化私有算力、超清数字孪生及物联网安全等问题。

10、昆仑芯2月6日,昆仑芯宣布已完成Deepseek R1、V3系列模型训练推理全版本适配,包括MoE模型及其蒸馏小模型,且性能卓越、成本效率极致,一键部署。据介绍,P800显存规格优于同类主流GPU 20%-50%,对MoE架构更加友好,且率先支持8bit推理,单机8卡即可运行671B模型,可轻松完成DeepSeek-V3/R1全版本推理任务;并能支撑Deepseek系列MoE模型大规模训练任务,仅需32台即可支持模型全参训练,高效完成模型持续训练和微调。昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资。2月5日,百度智能云宣布其成功点亮昆仑芯三代P800万卡集群三万卡集群也将于近日点亮

11、灵汐科技2月6日,灵汐科技宣布,节后开工第一天,其团队联合类脑技术社区(“脑启社区”)的开发者,仅用半天时间,就完成了DeepSeek-R1系列模型在灵汐KA200类脑芯片及相关智算卡的适配,助力国产大模型与类脑智能硬件系统的深度融合。据 “脑启社区“的开发者反馈,在DeepSeek-R1-Distill-Qwen的1.5B、7B等系列模型测试中,模型在4K上下文情形下体验顺畅,具备交付客户使用的能力。后续,灵汐科技也将联合产业生态伙伴及脑启社区,适时发布云上服务。

12、鲲云科技2月6日,鲲云科技宣布其全新一代可重构数据流AI芯片CAISA 430成功适配DeepSeek R1蒸馏模型推理。CAISA 430的可重构数据流架构能够根据DeepSeek R1模型的特点进行动态配置,生成面向该模型的高性能定制化流水线,进一步优化推理性能。该芯片原生支持DeepSeek R1蒸馏模型的开源基础模型。DeepSeek R1的Qwen和Llama模型可直接在CAISA 430上运行,不需要复杂的适配工作。

13、希姆计算2月6日,希姆计算宣布其技术团队仅用数小时,就将DeepSeek R1全系列蒸馏模型快速适配到自研RISC-V开源指令集的推理加速卡系列之上,并落地全国多个千卡级以上智算中心。企业级用户可通过希姆智算云平台,一键使用DeepSeek R1全系列蒸馏模型。

14、算能2月7日,算能宣布,搭载算丰第四代智能视觉深度学习处理器BM1684的算能微服务器SE7,已完成DeepSeek R1 7B/1.5B蒸馏模型适配,性能强劲,为R1蒸馏模型提供最佳国产边缘部署方案。

15、清微智能2月7日,清微智能宣布其可重构算力芯片RPU已完成DeepSeek R1系列模型的适配和部署运行。清微智能算力服务器具有训推一体特点,支持无交换机自组网调度,显著提升计算资源利用率与能效比,单机支持DeepSeek全尺寸模型,具有高性价比特点。除推理外,该服务器高性能支持基于DeepSeek模型对其他模型进行蒸馏训练,便于实现大模型本地私有化部署。

16、芯动力2月7日,芯动力宣布在24小时内完成了与DeepSeek R1大模型的适配。其高性能AI加速卡AzureBlade K340L M.2内嵌AE7100芯片,尺寸大约半张名片大小,算力达到32TOPS,功耗不到8W,已经可以支撑大模型在AI PC等设备上运行。

3

未来展望

展望未来,随着DeepSeek技术的不断成熟和应用场景的不断拓展,其在产业中的影响力将进一步扩大。一方面,DeepSeek将继续深耕技术创新,不断提升模型的性能和效率;另一方面,DeepSeek将加强与产业链上下游企业的合作与联动,共同推动AI技术的普及和应用。

对于国产AI芯片企业而言,与DeepSeek的合作将是一次难得的发展机遇。通过共同探索AI技术的无限可能,这些企业有望在激烈的市场竞争中脱颖而出,成为推动中国AI产业发展的中坚力量。同时,联网搜索功能的加入也将为这些企业带来更多的市场机会和商业价值,助力其在未来的发展中取得更加辉煌的成就。