高速增长的Dify.AI得益于产品技术优秀,也得益于这位合作伙伴

如果说DeepSeek是现在最火的开源大语言模型,那么Dify就是大语言模型在企业落地过程中,最受关注的应用开发平台。回顾Dify.AI过去两年的快速发展,除了Dify.AI本身的价值以外,作为合作伙伴的亚马逊云科技也为其提供了很大便利。

DeepSeek很火?Dify也很火!

Dify在2023年3月立项,5月初上线第一个正式版本,并于一周后正式开源。这一“开源”决策让Dify实现了快速增长。截止到2025年3月,stars数量逼近9万,跻身全球开源项目 Star数排名前100。

在2024年全球热门开源创业公司排行榜(ROSS Index)中,排在第一位的是Ollama,这是个人用户在本地电脑部署大语言模型最常用的工具。而排在第三位的正是Dify,它是开发生成式AI应用最常用的工具之一。

截图:来自TechCrunch

Dify凭借“上手快、实用、不花哨”的产品特性,加上官方更新迭代非常快,在社交平台和技术社区积累了大量口碑,被不少用户称为“最好用的AI应用开发工具之一”,并迅速走红。

最近有报道提到,国内有一些DeepSeek一体机厂商使用了Dify开源软件,但未遵守开源协议要求保留 Dify品牌标识与版权信息,也有一些违规提供基于Dify的多租户商业服务。这一做法引起了很多人关注,也侧面说明了Dify有多火。

截图:Dify官网

Dify最初是一个开源软件,任何个人或企业都可在遵守开源协议的前提下免费自托管部署Dify。同时,Dify面向个人和小型团队提供了SaaS服务。针对那些对安全合规要求高的企业用户,可以通过亚马逊云科技的Marketplace采购,也可以购买企业版进行本地部署。

Dify不仅在开源技术圈受关注,而且在商业应用环境得到了认可。据了解,Dify成立一年多的时候,已付费服务用户当中就有超过30家世界500强企业,而且在初创阶段就已实现盈利。

为什么Dify这么火?

看到这里,也许很多人会好奇,什么是Dify?为什么要用Dify?为什么越来越多的企业在关注Dify?这里先做一个简要的解释。

首先,什么是Dify?Dify是一个大语言模型(LLM)应用开发平台,它像是一个“搭积木”的工具,即使用户不会写代码,也能用这个平台快速搭出一个属于自己的AI助手或者AI应用。

市面上有类似功能的低代码软件平台。比如,很多人在本地部署Stable Diffusion时会用的ComfyUI,在线常用的就是来自字节跳动的Coze(扣子)。Dify最大的不同点在于,它是面向企业级应用场景的,更加灵活开放,对安全、可靠性等方面要求更高。

第二,为什么要用Dify?当企业用户在云上或者在本地部署了大语言模型,模型最原始的功能就只是对话聊天。企业想要在各种场景中利用大语言模型的能力,还需要构建类似上面这样的工作流。

截图:SaaS版Dify

比如,上图是一个Dify上的邮件助手工作流模板。工作流中用到了大语言模型,这套工作流可以用大语言模型优化邮件的表达,加长或者缩短邮件内容,或者用它修改邮件的语言风格。

截图:Dify Github主页

工作流功能只是Dify功能的一部分,作为一个大语言模型应用开发平台,Dify真正对标的是LangChain、Flowise和OpenAI Assistants API。相较之下,Dify功能最为全面,不仅支持工作流、智能体、RAG,企业级特性更突出。

第三,为什么越来越多的人在关注Dify?Dify.AI联合创始人 延君晨介绍称,2024年有很多企业都在做大模型应用的PoC(概念验证),2025年开始,很多企业正在逐步把这些应用投入到生产环境,对开发平台的稳定性、可靠性有更高要求。

在延君晨看来,2024年以前人们主要靠提示词与模型进行简单交互。随着模型推理性能的不断提升,智能体的探索逐渐增多,模型开始向实际生产场景迈进。而Dify作为连接模型和应用的桥梁,过程中受到了更多关注和来自客户的认可。

Dify帮助企业解决了什么问题?

延君晨表示,Dify主要帮助企业用户解决了三方面的问题:

首先,Dify解决了系统整合难的问题。企业在投产AI应用时,常面临系统对接复杂的问题,而Dify定位是一个接口开放、灵活、易集成的平台,通过API方式编排应用,可轻松接入CRM、ERP等原有系统。Dify可以把原本3个月的开发缩短到3-4周,大幅提升从POC到生产的转化效率。

第二点,Dify能解决难以规模化的问题。延君晨介绍称,由于缺乏性能、可维护性、可扩展性,企业77%的PoC项目无法规模化部署。Dify在帮助企业解决了PoC问题之后,还发挥了团队在DevOps领域积累的优势,支持持续优化和运营,而不仅是支持企业“做出一个Demo”。

第三点,Dify有助于解决人才缺口的问题。企业落地AI面临复合型人才缺乏的问题,需要懂业务、软件工程和AI的专家。Dify提供了用户友好的界面,开发者用它提升效率,非开发者也能做出原型或Demo。延君晨提到,某科技公司内部已经有7600个基于Dify开发的应用,Dify在满足企业内部个性化、小场景需求上的能力非常强。

除了直接解决企业的最大痛点,Dify本身还有很多吸引人的点。延君晨介绍了企业选择Dify的更多原因。

首先,企业选择Dify,不仅是选了一个开发平台,更是选了一套跟随大模型前沿技术的应用技术栈。在AI引起了大范围的FOMO(害怕错过)情绪下,这点非常重要,只要抓住了热门的技术平台,就等于拿到了AI技术海洋的船票。

Dify推动生成式AI应用的普惠,让专业和非专业的都能参与进来。得益于更广泛的受众群体,Dify在开源生态领域收获大批粉丝,打造了活跃的开源技术生态,这样的技术生态会帮助企业降低开发和使用成本。

必须要提到的是,Dify有一个非常繁荣的插件生态,企业可以用插件轻松开发应用。这套插件机制解决了原来很多模型工具和 Agent 策略“写死”在平台代码里的问题,将Dify平台和插件进行解耦,让开发者可以独立开发插件,快速用上各种新技术和标准。

Dify.AI的重要合作伙伴——亚马逊云科技

Dify.AI的快速发展也得益于与亚马逊云科技的合作。2023年作为亚马逊云科技初创网络成员就获得了云资源的支持。Dify.AI 自2024年开始商业化,目前在亚马逊云科技Marketplace(海外区)上有数百个订阅客户。

企业版的Dify服务也上架到了亚马逊云科技Marketplace(中国区),企业版的Dify结合亚马逊云科技的基础设施,以及由亚马逊云科技合作伙伴提供的部署实施以及定制开发能力,为国内企业提供完整的AI解决方案。

Dify天然可灵活集成使用了亚马逊云科技的多种技术服务。比如,支持调用来自Amazon Bedrock或者Amazon SageMaker模型,利用Amazon OpenSearch的向量数据库优化RAG服务的检索能力,支持调用来自Amazon S3的数据,利用亚马逊云科技的Amazon Graviton实例来降低SaaS服务的成本,还利用了云上的弹性扩展能力应对业务的爆发性增长。

此前已提到,Dify服务了超过30家世界500强企业。而延君晨在采访中提到,“在跟非常多500强公司在进行商务合作的时候,其实都需要依赖于亚马逊云科技的认证和背书,否则其实一个初创公司是很难通过大型的企业的供应商的入库流程。”

比如,世界500强公司对于安全、数据合规等方面的要求都非常高,而Dify利用Amazon CDK快速部署到VPC环境,利用Amazon KMS进行加密存储,满足企业对于数据安全合规的要求,从而让Dify进入众多大型企业的技术选型范围。

某知名跨境电商基于Dify搭建了一个AI生产力平台,无论是普通职场人事、懂业务的工程师,还是研发人员都在使用。部署两个月后,该企业在Dify平台内构建出900多个应用,活跃应用超过100个,个别应用的调用量高达数十万次。

某跨国药企通过Dify搭配亚马逊云科技,打造了生成式AI工单自动化解决方案,将企业知识库、多模态模型与工单系统深度集成,实现工单处理从10–20分钟缩短至不到 3 分钟,每月节省超 60 人/天工时,大幅提升运营效率与人力成本效益。

结束语

总的来看,Dify的快速崛起并非偶然。

它不仅踩中了生成式AI应用落地的关键时间节点,更以开源、易用、可扩展的产品优势赢得了开发者与企业用户的认可。作为企业构建大模型应用的重要平台,Dify正在推动“AI 应用普惠化”。

而与亚马逊云科技的深度合作,也为其提供了稳定、合规、高性能的技术底座,让其在更多真实业务场景中得到验证。过程中带来的商业回报,也让 Dify 拥有了持续演进与规模化发展的能力,让Dify正成为更多企业拥抱AI时代的关键入口。