教程·阅读约 3 分钟·
Local Deep Research 本地部署教程:把 Perplexity 搬到自己的电脑上

Local Deep Research 本地部署教程:把 Perplexity 搬到自己的电脑上

6.6k Stars 的开源 AI 深度研究工具 Local Deep Research 完整部署指南。支持本地 LLM + 10+ 搜索引擎,数据完全本地加密,SimpleQA 准确率可达 95%。

原文来源:LearningCircuit/local-deep-research — 6.6k Stars,575 Forks,6,305 次提交。一款完全本地运行的 AI 深度研究助手,支持本地和云端 LLM、10+ 搜索引擎,数据本地加密,SimpleQA 基准测试准确率可达 95%。

如果你用过 Perplexity 或 ChatGPT 的 Deep Research 功能,就会知道让 AI 帮你做深度调研有多方便。但这些工具都有一个共同点:你的查询和数据都留在了别人的服务器上。

Local Deep Research(简称 LDR)解决的就是这个问题。它把整套深度研究流程搬到了你自己的电脑上——从问题拆解、多轮搜索、信息综合到最终报告生成,全部本地完成。6.6k Stars 的增长速度说明,关心数据隐私的开发者正在用脚投票。

这个项目能做什么

LDR 的核心能力不是简单搜索后拼凑答案,而是模拟真人做深度调研的完整流程:先理解问题、拆分关键词、多轮搜索、交叉验证、最后综合成一份带引用来源的结构化报告。

具体来说,它支持四种研究模式:

快速摘要 适合日常查询,30 秒到 3 分钟出结果,带引用链接。

详细研究 针对复杂问题做全面分析,输出结构化的研究发现。

报告生成 直接产出带目录、分章节的专业报告,可以导出 PDF 或 Markdown。

文档分析 搜索你自己的私有文档库,相当于给个人知识库配了一个 AI 研究员。

为什么选它而不是 Perplexity

隐私是 LDR 最大的卖点,但不是唯一的。

数据完全本地加密,用 AES-256 算法,每个用户有独立的 SQLite 数据库。没有遥测、没有追踪、没有数据收集。Docker 镜像还做了 Cosign 签名和 SBOM 物料清单,供应链安全也考虑到了。

模型选择上更自由。Perplexity 背后用什么模型你控制不了,LDR 支持本地 LLM(Ollama、LM Studio、llama.cpp)和云端模型(OpenAI、Claude、Gemini)任意组合。一台带 3090 显卡的机器跑 Qwen3.6-27B,SimpleQA 准确率能到 95% 左右。

搜索引擎也更灵活。除了 DuckDuckGo、Wikipedia 这些通用引擎,它还接入了 Semantic Scholar、PubMed、arXiv、OpenAlex 等学术数据库。做科研调研时,这个组合比通用搜索工具靠谱得多。

还有一个容易被忽略的优势:知识积累。每次研究找到的高质量源文档,可以直接下载进你的加密资料库。研究做得越多,AI 回答的质量越高——这是云服务商给不了的个人复利。

安装部署

LDR 提供四种安装方式,覆盖不同使用场景。

Docker Compose(推荐,适合大多数人)

Docker Compose 是最省心的方式,一键拉起完整环境。

code
# 克隆仓库
git clone https://github.com/LearningCircuit/local-deep-research.git
cd local-deep-research
 
# 启动服务
docker-compose up -d
 
# 打开浏览器访问
# http://localhost:5000

单容器 Docker(最简部署)

如果你只需要快速体验,单条命令就能跑起来:

code
docker run -p 5000:5000 \
  -v local_deep_research_data:/app/data \
  learningcircuit/local-deep-research

数据通过 Docker volume 持久化,重启容器不会丢失。

pip 安装(开发者首选)

需要二次开发或集成到其他 Python 项目时,用 pip 安装:

code
pip install local-deep-research
local-deep-research
# 然后访问 http://localhost:5000

要求 Python 3.10+。SQLite 和加密依赖通过预编译 wheel 包安装,不需要本地编译。

Unraid 安装

有 Unraid NAS 的用户可以直接从社区应用商店安装,具体步骤参考项目文档中的 Unraid Guide。

配置本地 LLM

LDR 的亮点是支持本地模型,这里以 Ollama 为例说明配置流程。

第一步:安装 Ollama

code
# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
 
# Windows 从官网下载安装包
# https://ollama.com/download

第二步:下载推荐模型

项目维护了一个 Hugging Face 数据集 LearningCircuit/local-deep-research-benchmarks,记录了不同模型在研究任务上的表现。根据社区测试,以下模型性价比较高:

模型显存需求SimpleQA 表现适用场景
Qwen3.6-27B~18GB~95%主力研究模型
Llama 3.3 70B~40GB~92%高精度需求
Mistral Small 3.1~12GB~88%平衡性能与速度
DeepSeek-R1 14B~10GB~85%低显存机器
code
# 下载 Qwen3.6-27B(推荐)
ollama pull qwen3.6:27b
 
# 或下载轻量级版本
ollama pull deepseek-r1:14b

第三步:连接 LDR 和 Ollama

LDR 默认会自动检测本地 Ollama 服务(http://localhost:11434)。如果 Ollama 跑在其他机器或端口上,在 LDR 的 Web 界面 Settings → LLM Provider 里修改地址即可。

LM Studio 用户选择 OpenAI-compatible server 模式,默认地址是 http://localhost:1234/v1。llama.cpp 用户填 llama-server 的监听地址。

配置搜索引擎

LDR 内置了 10+ 搜索引擎,开箱即用的有 DuckDuckGo 和 Wikipedia。做学术调研建议启用以下免费学术引擎:

引擎内容类型配置方式
Semantic Scholar学术论文、引用开箱即用
PubMed生物医学文献开箱即用
arXiv预印本论文开箱即用
OpenAlex开放学术图谱开箱即用
CORE开放获取论文开箱即用
Google Scholar学术搜索开箱即用

需要 API Key 的高级引擎:

引擎特点获取方式
TavilyAI 驱动搜索tavily.com 注册
Brave Search隐私搜索brave.com/search/api
Google PSE自定义搜索Google Cloud Console

在 Web 界面的 Settings → Search Engines 里勾选需要的引擎,拖拽排序。LDR 会按顺序调用,前面的引擎返回结果不足时自动 fallback 到下一个。

实际使用流程

打开 http://localhost:5000,界面简洁,核心功能集中在首页。

做一次快速研究

  1. 在输入框填入问题,比如 "Transformer 架构中注意力机制的计算复杂度优化有哪些主要方向"
  2. 选择研究模式:Quick Summary / Detailed Research / Report
  3. 点击开始,LDR 会自动拆解问题、多轮搜索、综合答案
  4. 结果页显示结构化回答,每个论点带引用链接

研究私有文档

  1. 进入 Documents 页面,上传 PDF 或文本文件
  2. 文件自动向量化存入本地数据库
  3. 提问时选择 "Search my documents" 范围
  4. AI 只基于你的资料库作答

订阅研究主题

  1. 在 Subscriptions 页面添加关注主题
  2. 设置频率:每日 / 每周 / 自定义
  3. LDR 自动跟踪新文献,生成摘要推送
  4. 支持导出为 Markdown 报告或邮件发送

性能优化建议

本地跑大模型的性能瓶颈通常在显存和搜索延迟。

显存不够时,用量化版本。Qwen3.6-27B 的 Q4_K_M 量化版只需约 18GB 显存,准确率损失在 2% 以内。Ollama 默认会选合适的量化级别:

code
ollama pull qwen3.6:27b-q4_k_m

搜索太慢时,减少同时启用的引擎数量。日常查询只用 DuckDuckGo + Wikipedia 就够了,学术调研再加 Semantic Scholar 和 arXiv。

报告生成模式下,LDR 默认会做多轮迭代验证。如果时间紧,在 Settings → Iteration Strategy 里切到 "focused" 模式,牺牲一部分全面性换取速度。

适用人群与选型建议

LDR 不是 Perplexity 的完全替代品,两者适用场景不同。

需求推荐工具理由
日常快速查询Perplexity响应更快,无需维护
隐私敏感的研究LDR数据不出本地
学术文献调研LDR内置学术搜索引擎
个人知识库问答LDR支持私有文档检索
团队协作均可LDR 有 REST API 和多用户支持

如果你符合以下任意条件,LDR 值得部署:

  • 处理的数据不能离开内网(企业合规、医疗、法律)
  • 需要长期积累个人研究资料库
  • 经常使用学术数据库做文献综述
  • 已经有带显卡的机器,想充分利用算力

反之,如果你只是偶尔查个资料、对隐私不敏感、也不想维护本地服务,继续用 Perplexity 更省心。

总结

Local Deep Research 把 AI 深度研究的能力从云端搬到了本地,核心优势不是功能更多,而是控制权完全在你手里——选什么模型、用什么搜索引擎、数据存哪里,全部自己决定。

部署门槛不高,Docker 一条命令就能跑起来。配合 Ollama 本地模型,一台现代游戏 PC 就能达到接近 GPT-4o 的研究质量。对于需要处理敏感信息或长期积累研究资料的开发者来说,这是一个值得认真考虑的方案。

分享到
微博Twitter

© 2026 四月 · CC BY-NC-SA 4.0

原文链接:https://aprilzz.com/tutorials/local-deep-research-guide