导读
近期,国产大模型DeepSeek-R1因生成能力卓越引发行业热潮,但其官网因算力不足频繁出现“服务繁忙”问题,令开发者困扰。今日,无问芯穹大模型服务平台宣布推出“满血版DeepSeek-R1 API”服务,不仅免费开放使用,还通过异构算力整合彻底解决卡顿问题,为开发者与企业提供高效、稳定的AI开发新选择。

文字编辑| 宋雨涵
1
免费开放+高性能
一、开发者可一键调用
无问芯穹平台此次上线的DeepSeek-R1 API无需邀请即可免费获取Token,支持开发者直接调用模型能力。用户仅需注册账号,在“模型广场”选择DeepSeek-R1并创建API密钥,即可通过OpenAI兼容接口快速集成至开发工具(如Cursor),显著提升代码生成效率。
此外,平台同步支持DeepSeek-V3模型,并针对企业级需求提供“并发服务包”,可按需购买5至100不等的并发规格,结合按量计费模式灵活应对流量波动,保障生产级稳定性。
二、具体操作步骤
1. 准备工作
- 注册账号:登录无问芯穹大模型服务平台 (https://cloud.infini-ai.com/genstudio?source=9B2W)
- 获取API密钥:在「模型广场」选择DeepSeek-R1,点击创建并获取APIKEY,复制模型名称。
- 【还未安装 Cursor】可前往Cursor官网(https://www.cursor.com/)下载并安装。
2. Cursor 中集成API服务
无问芯穹大模型服务平台提供OpenAI兼容的API服务,可在Cursor中通过OpenAI API Key选项轻松集成。
- 打开Cursor设置
- 在Openrouter model中关闭所有自带模型,确保列表中有上一步复制的模型名称「deepseek-r1」。
- 在设置中选择Models页面,找到OpenAI API Key模块。填写在无问芯穹大模型服务平台获取的API Key密钥,并将Base URL配置为https://cloud.infini-ai.com/maas/v1
- 确保在 Models 页面添加与无问芯穹大模型服务平台相关的模型名称,并勾选。例如:
- deepseek-r1
- deepseek-v3
- deepseek-r1-distill-qwen-32b
3. Cursor 企业级开发场景展示
三、异构算力鼎力支持:打破国产芯片生态壁垒
针对算力瓶颈,无问芯穹通过Infini-AI异构云平台整合壁仞、海光、昇腾、燧原等7家国产AI芯片的算力资源,实现跨架构芯片的高效协同。其独创的“世界语”通信技术,解决了不同芯片间的“语言不通”问题,任务分配可精准适配芯片性能,算力利用率最高达97.6%。
这一技术突破意味着国产芯片首次能全效运行“满血版”DeepSeek-R1,开发者可一键调用多元异构算力,降低对国际硬件生态的依赖,推动国产AI产业链闭环建设。
技术优势:软硬协同优化与场景落地
无问芯穹团队源自清华大学电子工程系,深耕软硬件协同优化技术。其核心策略包括:
底层硬件深度适配:通过PTX编程、内存优化等技术,将显存需求降低1/4以上,提升计算效率;
算法-系统协同设计:采用混合专家(MoE)模型结构,结合低精度训练与负载均衡技术,显著降低算力成本;
标准化算力服务:将分散的异构算力转化为统一资源池,支持ComfyUI等复杂应用场景开发,例如图像风格转换、多模态生成等19。
行业影响:加速国产AI生态闭环
无问芯穹CEO夏立雪指出,DeepSeek的成功验证了软硬协同路径的可行性,其日均Token消耗量预计将达百万亿级,倒逼国产芯片市场需求增长。公司提出的“三步走”战略——从异构算力整合到同构系统构建——旨在打造“国产模型-芯片-系统”全自主生态,逐步替代CUDA生态的垄断地位。
目前,无问芯穹已接入13座城市算力中心,并与30余家云服务商合作,成为国内首个支持DeepSeek多芯片适配的AI基础设施平台。
结语
无问芯穹计划进一步扩展至更多国产芯片平台,并通过算法优化持续提升算力效率。开发者可登录平台(https://cloud.infini-ai.com)体验免费API服务,或提交企业级需求表单获取定制化支持。随着国产算力基建的完善,这场由DeepSeek引发的AI革新浪潮,正推动中国智算产业迈向自主可控的新阶段。