一个基于 LangGraph 构建的强大全栈本地深度研究应用,支持多种 LLM 提供商和搜索 API。图实现参考自 open_deep_research。
- 🤖 多 LLM 提供商支持:
- OpenAI
- Anthropic
- Ollama
- 更多...
- 🔍 多搜索 API 集成:
- Tavily
- DuckDuckGo
- 更多...
- 🚀 采用现代技术栈:
- 后端:FastAPI + LangGraph
- 前端:Next.js 15 + React 19
- TypeScript 支持
- 使用 Radix UI 和 Tailwind CSS 构建的现代界面
.
├── apps/
│ ├── backend/ # FastAPI 后端
│ │ ├── open_deep_research/ # 核心后端逻辑
│ │ └── notebooks/ # Jupyter 笔记本
│ └── frontend/ # Next.js 前端
│ ├── app/ # Next.js 应用目录
│ ├── components/ # React 组件
│ └── lib/ # 工具函数
- Python 3.11+
- Node.js(最新 LTS 版本)
- pnpm 10.12.1+
-
进入后端目录:
cd apps/backend -
创建并激活虚拟环境:
python -m venv .venv source .venv/bin/activate # Windows: .venv\Scripts\activate
-
安装依赖:
pip install -e .注意:推荐使用
uv进行依赖管理。详见 uv 文档。# 安装 uv brew install uv # Linux/macOS powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" # Windows # 同步依赖 uv sync # 激活虚拟环境 source .venv/bin/activate # Linux/macOS .venv\Scripts\activate # Windows # 运行后端 uvicorn main:app --host 0.0.0.0 --port 8000 --reload
-
在
.env文件中设置环境变量:OPENAI_API_KEY=你的密钥 ANTHROPIC_API_KEY=你的密钥 TAVILY_API_KEY=你的密钥 -
启动后端服务器:
uvicorn main:app --host 0.0.0.0 --port 8000 --reload
-
进入前端目录:
cd apps/frontend -
安装依赖:
pnpm install
-
启动开发服务器:
pnpm dev
- 后端 API:
http://localhost:8000 - 前端:
http://localhost:3000
使用 Docker 运行整个应用:
docker compose upMIT

