
Dify 开源 LLM 应用开发平台快速上手
Dify 让你用可视化界面构建 AI 应用,支持工作流编排、知识库和 Agent,无需写代码就能上线生产级 LLM 应用。
原文来源:Dify — 开源 LLM 应用开发平台,支持可视化编排、知识库 RAG、Agent 和多模型切换,已有超过 140k Stars。
如果你想快速搭建一个基于大模型的应用——比如智能客服、知识库问答、AI 写作助手——但不想从零写代码处理模型调用、提示词管理、上下文维护这些琐事,Dify 是一个值得尝试的平台。
Dify 是什么
Dify 是一个开源的 LLM 应用开发平台,定位介于纯代码框架(如 LangChain)和闭源 SaaS(如 ChatGPT)之间。它提供可视化界面来设计应用逻辑、管理提示词、配置知识库,同时支持代码级扩展。
核心能力包括:
可视化编排 — 用节点和连线的方式设计应用流程,不需要写代码就能实现多步骤 AI 处理。
知识库 RAG — 上传文档自动分块、向量化,构建私有知识库供 LLM 检索。
Agent 模式 — 让 LLM 自主规划任务、调用工具、迭代执行。
多模型支持 — 同时接入 OpenAI、Claude、本地模型(Ollama)等,随时切换。
安装部署
Docker Compose(推荐)
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d访问 http://localhost/install 完成初始化设置。
云服务
如果不想自己部署,可以直接用 Dify Cloud 的免费版:https://cloud.dify.ai
创建第一个应用
1. 选择应用类型
登录后点击 "创建应用",选择:
- 聊天助手 — 对话式应用,类似 ChatGPT
- Agent — 可调用工具的自主智能体
- 工作流 — 固定步骤的自动化流程
- 文本生成 — 单次调用生成内容
2. 配置模型
在设置中选择要用的 LLM。可以配置多个:
- OpenAI GPT-4
- Claude 3
- 本地 Ollama 模型
- 自定义 API 端点
3. 编写提示词
在 "编排" 页面编写系统提示词。Dify 支持变量插入,比如 {{#context#}} 会自动替换为知识库检索结果。
4. 添加知识库(可选)
上传 PDF、Word、Markdown 文件,Dify 会自动分块、向量化。应用运行时,LLM 会先检索相关知识再回答。
5. 发布
点击 "发布" 后获得一个公开 URL,或者通过 API 集成到自己的产品中。
API 集成
Dify 应用发布后自动暴露 REST API:
curl -X POST 'https://your-dify.app/v1/chat-messages' \
-H 'Authorization: Bearer YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {},
"query": "你好",
"response_mode": "streaming"
}'支持流式输出,可以直接接入前端聊天界面。
工作流示例:自动客服
一个典型的客服工作流包含以下节点:
- 用户输入 — 接收用户问题
- 知识库检索 — 从产品文档中找相关信息
- LLM 回答 — 基于检索结果生成回答
- 满意度判断 — 让 LLM 判断回答是否解决了问题
- 人工转接 — 如果不满意,转接人工客服
全部通过拖拽节点和连线完成,不需要写代码。
与类似工具对比
| 工具 | 定位 | 代码量 | 部署方式 |
|---|---|---|---|
| Dify | 可视化平台 | 极少 | 自托管 / 云 |
| LangChain | 编程框架 | 多 | 库 |
| Flowise | 可视化工作流 | 极少 | 自托管 |
| Botpress | 聊天机器人 | 中等 | 自托管 / 云 |
Dify 的优势是功能全面——编排、RAG、Agent、模型管理一站式解决,适合快速原型和生产部署。
总结
Dify 降低了 LLM 应用的开发门槛,让不擅长写代码的人也能构建实用的 AI 应用。对于需要快速验证想法或搭建内部工具的团队来说,它提供了一个合理的平衡点:比纯代码框架快,比闭源 SaaS 灵活。
© 2026 四月 · CC BY-NC-SA 4.0
原文链接:https://aprilzz.com/tutorials/dify-llm-app-platform