
n8n AI 入门套件:自托管 AI 工作流的一站式方案
Self-hosted AI Starter Kit 是一个基于 Docker Compose 的开源模板,集成了 n8n、Ollama、Qdrant 和 PostgreSQL,让你在本地快速搭建完整的 AI 工作流环境,实现低代码 AI 自动化。
概述
Self-hosted AI Starter Kit 是一个开源 Docker Compose 模板,旨在帮助你快速初始化一套完整的本地 AI 与低代码开发环境。它由 n8n 官方策划,将自托管的 n8n 平台与经过精选的兼容 AI 产品及组件结合在一起,让你可以迅速上手构建自托管的 AI 工作流。

核心组件
该入门套件开箱即用,包含以下四个核心组件:
✅ n8n — 低代码自动化平台
n8n 是一个可自托管的低代码平台,拥有超过 400 个集成 和先进的 AI 组件。你可以通过可视化拖拽的方式编排复杂的工作流,而无需编写大量代码。
✅ Ollama — 本地大语言模型平台
Ollama 是一个跨平台的 LLM 运行平台,让你可以在本地安装和运行最新的开源大语言模型,如 Llama 3.2、Mistral 等,完全掌控数据隐私。
✅ Qdrant — 高性能向量数据库
Qdrant 是一个开源的高性能向量存储引擎,提供完整的 API 接口,专为 AI 语义搜索和 RAG(检索增强生成)场景设计。
✅ PostgreSQL — 可靠的关系型数据库
PostgreSQL 是数据工程领域的中坚力量,能够安全地处理大量数据。在套件中它作为 n8n 的主要数据存储。
你能构建什么
利用这套工具,你可以快速构建以下场景:
⭐️ AI 智能助手 — 用于日程预约的 AI Agent ⭐️ 安全文档摘要 — 在不泄露数据的前提下总结公司 PDF 文档 ⭐️ 智能 Slack 机器人 — 增强团队沟通和 IT 运维 ⭐️ 私有金融文档分析 — 以极低成本实现本地金融文档分析
安装与启动
克隆仓库
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
cp .env.example .env # 务必更新密钥和密码使用 Docker Compose 启动
Nvidia GPU 用户
docker compose --profile gpu-nvidia up如果之前未将 Nvidia GPU 与 Docker 配合使用,请参考 Ollama Docker 文档。
AMD GPU 用户(Linux)
docker compose --profile gpu-amd upMac / Apple Silicon 用户
Mac M1 及更新处理器无法将 GPU 暴露给 Docker 实例,有两种方案:
- 完全使用 CPU 运行(见下文"其他用户"部分)
- 在 Mac 上本地运行 Ollama(获取更快推理速度),然后从 Docker 容器中连接
如需在 Mac 上本地运行 Ollama,请参考 Ollama 官网 安装说明,然后按以下方式启动:
docker compose up并在 .env 文件中设置 OLLAMA_HOST=host.docker.internal:11434。启动后进入 n8n 编辑器,找到"Local Ollama service"节点,将基础 URL 改为 http://host.docker.internal:11434/。
其他用户(CPU 模式)
docker compose --profile cpu up⚡️ 快速使用
启动完成后,按照以下步骤即可开始使用:
- 打开浏览器访问
http://localhost:5678,完成 n8n 初始化设置(仅首次需要) - 打开套件附带的内置工作流
- 点击工作流画布底部的 Chat 按钮开始运行
- 首次运行可能需要等待 Ollama 完成 Llama 3.2 模型的下载,可通过 Docker 控制台日志查看进度
之后随时访问 http://localhost:5678 即可打开 n8n 编辑器。
在 n8n 实例中,你可以使用 400+ 集成 以及一系列高级 AI 节点:
如需完全本地运行,记得在节点中选择 Ollama 作为语言模型,Qdrant 作为向量数据库。
本入门套件旨在帮助你快速上手自托管 AI 工作流。虽然未针对生产环境进行完全优化,但其组件组合稳健,非常适合概念验证项目。你可以根据具体需求自由定制。
预拉取 Docker 镜像
Nvidia GPU 用户
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia upMac / Apple Silicon 用户
docker compose create && docker compose up非 GPU 用户(CPU)
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up📁 访问本地文件
Self-hosted AI Starter Kit 会创建一个共享文件夹(默认在项目目录下),挂载到 n8n 容器中,使 n8n 能够访问磁盘上的文件。容器内的路径为 /data/shared — 在需要操作本地文件的节点中使用此路径。
相关节点:
👓 推荐阅读
n8n 官方提供了丰富的内容,帮助你快速掌握 AI 概念和节点用法:
- AI agents for developers: from theory to practice with n8n
- 教程:在 n8n 中构建 AI 工作流
- n8n 中的 LangChain 概念
- Agent 与 Chain 的差异演示
- 什么是向量数据库?
🎥 视频教程
🛍️ 更多 AI 模板
访问 n8n 官方 AI 模板库 获取更多 AI 工作流灵感。从任意工作流页面点击 Use workflow 按钮即可自动导入到你的本地 n8n 实例。
学习 AI 核心概念
- AI Agent Chat
- AI chat with any data source
- Chat with OpenAI Assistant(带记忆功能)
- 通过 Hugging Face 使用开源 LLM
- 与 PDF 文档聊天(引用来源)
- 可抓取网页的 AI Agent
本地 AI 模板
- Tax Code Assistant
- 将文档分解为学习笔记(MistralAI + Qdrant)
- 金融文档助手(Qdrant + Mistral AI)
- 食谱推荐(Qdrant + Mistral)
项目许可
本项目基于 Apache License 2.0 开源 — 详见 LICENSE 文件。
💬 社区与支持
加入 n8n 论坛 的讨论:
- 分享作品:展示你用 n8n 构建的项目,启发他人
- 提出问题:无论你是初学者还是资深用户,社区和官方团队都会提供支持
- 提出建议:有功能或改进的创意?告诉我们!
总结
Self-hosted AI Starter Kit 是 n8n 团队为 AI 工作流爱好者准备的一份礼物。它将 n8n 的低代码自动化能力、Ollama 的本地 LLM 运行时、Qdrant 的向量检索和 PostgreSQL 的可靠存储无缝整合在一起,只需一个 docker compose up 命令就能启动完整的本地 AI 基础设施。
无论你是想构建私密的文档分析系统、智能聊天机器人,还是探索 AI Agent 的可能性,这套入门套件都为你提供了一个坚实且可扩展的起点。它特别适合注重数据隐私、希望摆脱第三方 API 依赖的团队和个人开发者。
© 2026 四月 · CC BY-NC-SA 4.0
原文链接:https://aprilzz.com/tools/n8n-ai-starter-kit
相关文章
Deer-flow:字节跳动开源的长时程 AI Agent 框架
DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的一款超级智能体编排框架,支持子智能体、长期记忆、沙箱执行和可扩展技能,可完成几乎任何复杂长时程任务。
Onlook:面向设计师的开源 AI 设计工具
Onlook 是一款开源的可视化优先代码编辑器,将 AI、可视化编辑与 Next.js + TailwindCSS 深度融合,是 Bolt.new、Lovable、V0 的开源替代方案。
ShellGPT:在终端中直接使用 AI 命令行的生产力工具
ShellGPT 是一款基于 AI 大语言模型的命令行生产力工具,支持在终端中直接生成 shell 命令、代码片段、文档等,无需离开命令行即可调用 AI 能力。