
Local Deep Research 本地部署教程:把 Perplexity 搬到自己的电脑上
6.6k Stars 的开源 AI 深度研究工具 Local Deep Research 完整部署指南。支持本地 LLM + 10+ 搜索引擎,数据完全本地加密,SimpleQA 准确率可达 95%。
原文来源:LearningCircuit/local-deep-research — 6.6k Stars,575 Forks,6,305 次提交。一款完全本地运行的 AI 深度研究助手,支持本地和云端 LLM、10+ 搜索引擎,数据本地加密,SimpleQA 基准测试准确率可达 95%。
如果你用过 Perplexity 或 ChatGPT 的 Deep Research 功能,就会知道让 AI 帮你做深度调研有多方便。但这些工具都有一个共同点:你的查询和数据都留在了别人的服务器上。
Local Deep Research(简称 LDR)解决的就是这个问题。它把整套深度研究流程搬到了你自己的电脑上——从问题拆解、多轮搜索、信息综合到最终报告生成,全部本地完成。6.6k Stars 的增长速度说明,关心数据隐私的开发者正在用脚投票。
这个项目能做什么
LDR 的核心能力不是简单搜索后拼凑答案,而是模拟真人做深度调研的完整流程:先理解问题、拆分关键词、多轮搜索、交叉验证、最后综合成一份带引用来源的结构化报告。
具体来说,它支持四种研究模式:
快速摘要 适合日常查询,30 秒到 3 分钟出结果,带引用链接。
详细研究 针对复杂问题做全面分析,输出结构化的研究发现。
报告生成 直接产出带目录、分章节的专业报告,可以导出 PDF 或 Markdown。
文档分析 搜索你自己的私有文档库,相当于给个人知识库配了一个 AI 研究员。
为什么选它而不是 Perplexity
隐私是 LDR 最大的卖点,但不是唯一的。
数据完全本地加密,用 AES-256 算法,每个用户有独立的 SQLite 数据库。没有遥测、没有追踪、没有数据收集。Docker 镜像还做了 Cosign 签名和 SBOM 物料清单,供应链安全也考虑到了。
模型选择上更自由。Perplexity 背后用什么模型你控制不了,LDR 支持本地 LLM(Ollama、LM Studio、llama.cpp)和云端模型(OpenAI、Claude、Gemini)任意组合。一台带 3090 显卡的机器跑 Qwen3.6-27B,SimpleQA 准确率能到 95% 左右。
搜索引擎也更灵活。除了 DuckDuckGo、Wikipedia 这些通用引擎,它还接入了 Semantic Scholar、PubMed、arXiv、OpenAlex 等学术数据库。做科研调研时,这个组合比通用搜索工具靠谱得多。
还有一个容易被忽略的优势:知识积累。每次研究找到的高质量源文档,可以直接下载进你的加密资料库。研究做得越多,AI 回答的质量越高——这是云服务商给不了的个人复利。
安装部署
LDR 提供四种安装方式,覆盖不同使用场景。
Docker Compose(推荐,适合大多数人)
Docker Compose 是最省心的方式,一键拉起完整环境。
# 克隆仓库
git clone https://github.com/LearningCircuit/local-deep-research.git
cd local-deep-research
# 启动服务
docker-compose up -d
# 打开浏览器访问
# http://localhost:5000单容器 Docker(最简部署)
如果你只需要快速体验,单条命令就能跑起来:
docker run -p 5000:5000 \
-v local_deep_research_data:/app/data \
learningcircuit/local-deep-research数据通过 Docker volume 持久化,重启容器不会丢失。
pip 安装(开发者首选)
需要二次开发或集成到其他 Python 项目时,用 pip 安装:
pip install local-deep-research
local-deep-research
# 然后访问 http://localhost:5000要求 Python 3.10+。SQLite 和加密依赖通过预编译 wheel 包安装,不需要本地编译。
Unraid 安装
有 Unraid NAS 的用户可以直接从社区应用商店安装,具体步骤参考项目文档中的 Unraid Guide。
配置本地 LLM
LDR 的亮点是支持本地模型,这里以 Ollama 为例说明配置流程。
第一步:安装 Ollama
# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows 从官网下载安装包
# https://ollama.com/download第二步:下载推荐模型
项目维护了一个 Hugging Face 数据集 LearningCircuit/local-deep-research-benchmarks,记录了不同模型在研究任务上的表现。根据社区测试,以下模型性价比较高:
| 模型 | 显存需求 | SimpleQA 表现 | 适用场景 |
|---|---|---|---|
| Qwen3.6-27B | ~18GB | ~95% | 主力研究模型 |
| Llama 3.3 70B | ~40GB | ~92% | 高精度需求 |
| Mistral Small 3.1 | ~12GB | ~88% | 平衡性能与速度 |
| DeepSeek-R1 14B | ~10GB | ~85% | 低显存机器 |
# 下载 Qwen3.6-27B(推荐)
ollama pull qwen3.6:27b
# 或下载轻量级版本
ollama pull deepseek-r1:14b第三步:连接 LDR 和 Ollama
LDR 默认会自动检测本地 Ollama 服务(http://localhost:11434)。如果 Ollama 跑在其他机器或端口上,在 LDR 的 Web 界面 Settings → LLM Provider 里修改地址即可。
LM Studio 用户选择 OpenAI-compatible server 模式,默认地址是 http://localhost:1234/v1。llama.cpp 用户填 llama-server 的监听地址。
配置搜索引擎
LDR 内置了 10+ 搜索引擎,开箱即用的有 DuckDuckGo 和 Wikipedia。做学术调研建议启用以下免费学术引擎:
| 引擎 | 内容类型 | 配置方式 |
|---|---|---|
| Semantic Scholar | 学术论文、引用 | 开箱即用 |
| PubMed | 生物医学文献 | 开箱即用 |
| arXiv | 预印本论文 | 开箱即用 |
| OpenAlex | 开放学术图谱 | 开箱即用 |
| CORE | 开放获取论文 | 开箱即用 |
| Google Scholar | 学术搜索 | 开箱即用 |
需要 API Key 的高级引擎:
| 引擎 | 特点 | 获取方式 |
|---|---|---|
| Tavily | AI 驱动搜索 | tavily.com 注册 |
| Brave Search | 隐私搜索 | brave.com/search/api |
| Google PSE | 自定义搜索 | Google Cloud Console |
在 Web 界面的 Settings → Search Engines 里勾选需要的引擎,拖拽排序。LDR 会按顺序调用,前面的引擎返回结果不足时自动 fallback 到下一个。
实际使用流程
打开 http://localhost:5000,界面简洁,核心功能集中在首页。
做一次快速研究:
- 在输入框填入问题,比如 "Transformer 架构中注意力机制的计算复杂度优化有哪些主要方向"
- 选择研究模式:Quick Summary / Detailed Research / Report
- 点击开始,LDR 会自动拆解问题、多轮搜索、综合答案
- 结果页显示结构化回答,每个论点带引用链接
研究私有文档:
- 进入 Documents 页面,上传 PDF 或文本文件
- 文件自动向量化存入本地数据库
- 提问时选择 "Search my documents" 范围
- AI 只基于你的资料库作答
订阅研究主题:
- 在 Subscriptions 页面添加关注主题
- 设置频率:每日 / 每周 / 自定义
- LDR 自动跟踪新文献,生成摘要推送
- 支持导出为 Markdown 报告或邮件发送
性能优化建议
本地跑大模型的性能瓶颈通常在显存和搜索延迟。
显存不够时,用量化版本。Qwen3.6-27B 的 Q4_K_M 量化版只需约 18GB 显存,准确率损失在 2% 以内。Ollama 默认会选合适的量化级别:
ollama pull qwen3.6:27b-q4_k_m搜索太慢时,减少同时启用的引擎数量。日常查询只用 DuckDuckGo + Wikipedia 就够了,学术调研再加 Semantic Scholar 和 arXiv。
报告生成模式下,LDR 默认会做多轮迭代验证。如果时间紧,在 Settings → Iteration Strategy 里切到 "focused" 模式,牺牲一部分全面性换取速度。
适用人群与选型建议
LDR 不是 Perplexity 的完全替代品,两者适用场景不同。
| 需求 | 推荐工具 | 理由 |
|---|---|---|
| 日常快速查询 | Perplexity | 响应更快,无需维护 |
| 隐私敏感的研究 | LDR | 数据不出本地 |
| 学术文献调研 | LDR | 内置学术搜索引擎 |
| 个人知识库问答 | LDR | 支持私有文档检索 |
| 团队协作 | 均可 | LDR 有 REST API 和多用户支持 |
如果你符合以下任意条件,LDR 值得部署:
- 处理的数据不能离开内网(企业合规、医疗、法律)
- 需要长期积累个人研究资料库
- 经常使用学术数据库做文献综述
- 已经有带显卡的机器,想充分利用算力
反之,如果你只是偶尔查个资料、对隐私不敏感、也不想维护本地服务,继续用 Perplexity 更省心。
总结
Local Deep Research 把 AI 深度研究的能力从云端搬到了本地,核心优势不是功能更多,而是控制权完全在你手里——选什么模型、用什么搜索引擎、数据存哪里,全部自己决定。
部署门槛不高,Docker 一条命令就能跑起来。配合 Ollama 本地模型,一台现代游戏 PC 就能达到接近 GPT-4o 的研究质量。对于需要处理敏感信息或长期积累研究资料的开发者来说,这是一个值得认真考虑的方案。
© 2026 四月 · CC BY-NC-SA 4.0
原文链接:https://aprilzz.com/tutorials/local-deep-research-guide
相关文章
AI 编程工具选型实战:从 Aider 到 Cline,不同场景怎么选
Aider、Cline、Continue、Crush——开源 AI 编程工具这么多,哪个适合你的工作流?本文从实际使用场景出发给出选型建议。
Claude Code 最佳实践:验证机制、上下文管理与规模化工作流
Claude Code 的最佳实践工作流:如何让 AI 验证自己的工作、管理上下文窗口、使用子 Agent 并行处理任务,以及规模化使用技巧。
Claude Code + DeepSeek 配置指南:最强 Agent 搭配高性价比模型
Claude Code 搭配 DeepSeek 模型的配置方案:环境变量、配置文件都有,附多模型别名设置技巧。