工具推荐·阅读约 3 分钟·
n8n AI 入门套件:自托管 AI 工作流的一站式方案

n8n AI 入门套件:自托管 AI 工作流的一站式方案

Self-hosted AI Starter Kit 是一个基于 Docker Compose 的开源模板,集成了 n8n、Ollama、Qdrant 和 PostgreSQL,让你在本地快速搭建完整的 AI 工作流环境,实现低代码 AI 自动化。

概述

Self-hosted AI Starter Kit 是一个开源 Docker Compose 模板,旨在帮助你快速初始化一套完整的本地 AI 与低代码开发环境。它由 n8n 官方策划,将自托管的 n8n 平台与经过精选的兼容 AI 产品及组件结合在一起,让你可以迅速上手构建自托管的 AI 工作流。

n8n 界面演示

官方公告

核心组件

该入门套件开箱即用,包含以下四个核心组件:

✅ n8n — 低代码自动化平台

n8n 是一个可自托管的低代码平台,拥有超过 400 个集成 和先进的 AI 组件。你可以通过可视化拖拽的方式编排复杂的工作流,而无需编写大量代码。

✅ Ollama — 本地大语言模型平台

Ollama 是一个跨平台的 LLM 运行平台,让你可以在本地安装和运行最新的开源大语言模型,如 Llama 3.2、Mistral 等,完全掌控数据隐私。

✅ Qdrant — 高性能向量数据库

Qdrant 是一个开源的高性能向量存储引擎,提供完整的 API 接口,专为 AI 语义搜索和 RAG(检索增强生成)场景设计。

✅ PostgreSQL — 可靠的关系型数据库

PostgreSQL 是数据工程领域的中坚力量,能够安全地处理大量数据。在套件中它作为 n8n 的主要数据存储。

你能构建什么

利用这套工具,你可以快速构建以下场景:

⭐️ AI 智能助手 — 用于日程预约的 AI Agent ⭐️ 安全文档摘要 — 在不泄露数据的前提下总结公司 PDF 文档 ⭐️ 智能 Slack 机器人 — 增强团队沟通和 IT 运维 ⭐️ 私有金融文档分析 — 以极低成本实现本地金融文档分析

安装与启动

克隆仓库

code
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
cp .env.example .env   # 务必更新密钥和密码

使用 Docker Compose 启动

Nvidia GPU 用户

code
docker compose --profile gpu-nvidia up

如果之前未将 Nvidia GPU 与 Docker 配合使用,请参考 Ollama Docker 文档

AMD GPU 用户(Linux)

code
docker compose --profile gpu-amd up

Mac / Apple Silicon 用户

Mac M1 及更新处理器无法将 GPU 暴露给 Docker 实例,有两种方案:

  1. 完全使用 CPU 运行(见下文"其他用户"部分)
  2. 在 Mac 上本地运行 Ollama(获取更快推理速度),然后从 Docker 容器中连接

如需在 Mac 上本地运行 Ollama,请参考 Ollama 官网 安装说明,然后按以下方式启动:

code
docker compose up

并在 .env 文件中设置 OLLAMA_HOST=host.docker.internal:11434。启动后进入 n8n 编辑器,找到"Local Ollama service"节点,将基础 URL 改为 http://host.docker.internal:11434/

其他用户(CPU 模式)

code
docker compose --profile cpu up

⚡️ 快速使用

启动完成后,按照以下步骤即可开始使用:

  1. 打开浏览器访问 http://localhost:5678,完成 n8n 初始化设置(仅首次需要)
  2. 打开套件附带的内置工作流
  3. 点击工作流画布底部的 Chat 按钮开始运行
  4. 首次运行可能需要等待 Ollama 完成 Llama 3.2 模型的下载,可通过 Docker 控制台日志查看进度

之后随时访问 http://localhost:5678 即可打开 n8n 编辑器。

在 n8n 实例中,你可以使用 400+ 集成 以及一系列高级 AI 节点:

如需完全本地运行,记得在节点中选择 Ollama 作为语言模型,Qdrant 作为向量数据库。

本入门套件旨在帮助你快速上手自托管 AI 工作流。虽然未针对生产环境进行完全优化,但其组件组合稳健,非常适合概念验证项目。你可以根据具体需求自由定制。

预拉取 Docker 镜像

Nvidia GPU 用户

code
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up

Mac / Apple Silicon 用户

code
docker compose create && docker compose up

非 GPU 用户(CPU)

code
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up

📁 访问本地文件

Self-hosted AI Starter Kit 会创建一个共享文件夹(默认在项目目录下),挂载到 n8n 容器中,使 n8n 能够访问磁盘上的文件。容器内的路径为 /data/shared — 在需要操作本地文件的节点中使用此路径。

相关节点:

👓 推荐阅读

n8n 官方提供了丰富的内容,帮助你快速掌握 AI 概念和节点用法:

🎥 视频教程

🛍️ 更多 AI 模板

访问 n8n 官方 AI 模板库 获取更多 AI 工作流灵感。从任意工作流页面点击 Use workflow 按钮即可自动导入到你的本地 n8n 实例。

学习 AI 核心概念

本地 AI 模板

项目许可

本项目基于 Apache License 2.0 开源 — 详见 LICENSE 文件。

💬 社区与支持

加入 n8n 论坛 的讨论:

  • 分享作品:展示你用 n8n 构建的项目,启发他人
  • 提出问题:无论你是初学者还是资深用户,社区和官方团队都会提供支持
  • 提出建议:有功能或改进的创意?告诉我们!

总结

Self-hosted AI Starter Kit 是 n8n 团队为 AI 工作流爱好者准备的一份礼物。它将 n8n 的低代码自动化能力、Ollama 的本地 LLM 运行时、Qdrant 的向量检索和 PostgreSQL 的可靠存储无缝整合在一起,只需一个 docker compose up 命令就能启动完整的本地 AI 基础设施。

无论你是想构建私密的文档分析系统、智能聊天机器人,还是探索 AI Agent 的可能性,这套入门套件都为你提供了一个坚实且可扩展的起点。它特别适合注重数据隐私、希望摆脱第三方 API 依赖的团队和个人开发者。

项目地址https://github.com/n8n-io/self-hosted-ai-starter-kit

分享到
微博Twitter

© 2026 四月 · CC BY-NC-SA 4.0

原文链接:https://aprilzz.com/tools/n8n-ai-starter-kit