Think-Probe 是一个基于 LLM 的轻量级智能体应用,旨在展示如何构建具有“思考”过程、工具调用和子智能体协作能力的对话系统。它深度集成了模型上下文协议(MCP),并提供了一个简洁、现代的 Web 界面,让用户直观地看到 AI 的决策和执行路径。
- 🤔 深度思考可视化:支持展示 LLM 的
reasoning_content(思考链),让 AI 的决策过程不再是“黑盒”。 - 🕸️ LangGraph 驱动:基于 LangGraph 的状态机架构,支持复杂的智能体流转与持久化会话(Checkpointer)。
- 🤖 精细化子智能体协作:具备独立的子智能体(如 Java 专家)执行容器,提供逻辑隔离的流式交互视图。
- 🛠️ 工具与 MCP 支持:支持 LangChain 工具调用,并可无缝接入 Model Context Protocol (MCP) 数据源。
- 💾 会话持久化:集成 SQLite 数据库,实现会话状态的实时保存与跨进程恢复。
- 🌊 实时流式响应:通过高度优化的 SSE 路由,支持主、子智能体交替流式输出,互不干扰。
- 🏗️ 现代化 UI:清新简约的响应式界面,支持智能滚动追踪、代码高亮与折叠式的思考链展示。
确保您的系统已安装 Python 3.12+。推荐使用 uv 进行包管理。
# 安装 uv (如果尚未安装)
pip install uv# 同步依赖并创建虚拟环境
uv sync复制 .env.example(如果存在)或直接创建 .env 文件,并填写必要的信息:
LLM_API_PATH=https://api.openai.com/v1 # 或您的代理地址
LLM_API_KEY=sk-...
LLM_MODEL_NAME=qwen3.5-35b-a3b # 建议使用 Qwen2.5/3.5, GPT-4o, DeepSeek-V3 等# 启动 FastAPI 服务
python run.py服务启动后,在浏览器访问 http://127.0.0.1:8080 即可开始使用。
创建或修改 docker-compose.yml:
services:
think-probe:
container_name: think-probe
image: think-probe:latest
ports:
- "18080:8080"
environment:
- LLM_API_PATH=http://xxx.xxx.xxx.xxx:1234/v1
- LLM_API_KEY=your_key
- LLM_MODEL_NAME=qwen/qwen3-32b
networks:
- net-think-probe
networks:
net-think-probe:
driver: bridge执行启动命令:
docker-compose up -d# 使用 Makefile 进行多平台构建
make linux-amd64- 核心架构: LangGraph, LangChain
- 后端框架: FastAPI
- 数据库: SQLite (用于 Checkpoints 和消息持久化)
- 观测性: Langfuse (全链路追踪)
- 包管理: uv
- 前端: Vanilla JS (ES6+), CSS3 (Modern Flex/Grid), HTML5
- 协议: OpenAI API standard, MCP, SSE
- 部署: Docker, Docker Compose
本项目采用 MIT 许可证。