Skip to content

MartinDai/Think-Probe

Repository files navigation

Think-Probe

Think-Probe 是一个基于 LLM 的轻量级智能体应用,旨在展示如何构建具有“思考”过程、工具调用和子智能体协作能力的对话系统。它深度集成了模型上下文协议(MCP),并提供了一个简洁、现代的 Web 界面,让用户直观地看到 AI 的决策和执行路径。


✨ 核心特性

  • 🤔 深度思考可视化:支持展示 LLM 的 reasoning_content(思考链),让 AI 的决策过程不再是“黑盒”。
  • 🕸️ LangGraph 驱动:基于 LangGraph 的状态机架构,支持复杂的智能体流转与持久化会话(Checkpointer)。
  • 🤖 精细化子智能体协作:具备独立的子智能体(如 Java 专家)执行容器,提供逻辑隔离的流式交互视图。
  • 🛠️ 工具与 MCP 支持:支持 LangChain 工具调用,并可无缝接入 Model Context Protocol (MCP) 数据源。
  • 💾 会话持久化:集成 SQLite 数据库,实现会话状态的实时保存与跨进程恢复。
  • 🌊 实时流式响应:通过高度优化的 SSE 路由,支持主、子智能体交替流式输出,互不干扰。
  • 🏗️ 现代化 UI:清新简约的响应式界面,支持智能滚动追踪、代码高亮与折叠式的思考链展示。

🚀 快速开始

1. 环境准备

确保您的系统已安装 Python 3.12+。推荐使用 uv 进行包管理。

# 安装 uv (如果尚未安装)
pip install uv

2. 初始化项目

# 同步依赖并创建虚拟环境
uv sync

3. 配置环境变量

复制 .env.example(如果存在)或直接创建 .env 文件,并填写必要的信息:

LLM_API_PATH=https://api.openai.com/v1 # 或您的代理地址
LLM_API_KEY=sk-...
LLM_MODEL_NAME=qwen3.5-35b-a3b # 建议使用 Qwen2.5/3.5, GPT-4o, DeepSeek-V3 等

4. 运行应用

# 启动 FastAPI 服务
python run.py

服务启动后,在浏览器访问 http://127.0.0.1:8080 即可开始使用。


🐳 容器化部署

使用 Docker Compose (推荐)

创建或修改 docker-compose.yml

services:
  think-probe:
    container_name: think-probe
    image: think-probe:latest
    ports:
      - "18080:8080"
    environment:
      - LLM_API_PATH=http://xxx.xxx.xxx.xxx:1234/v1
      - LLM_API_KEY=your_key
      - LLM_MODEL_NAME=qwen/qwen3-32b
    networks:
      - net-think-probe

networks:
  net-think-probe:
    driver: bridge

执行启动命令:

docker-compose up -d

本地构建镜像

# 使用 Makefile 进行多平台构建
make linux-amd64

🛠️ 技术栈

  • 核心架构: LangGraph, LangChain
  • 后端框架: FastAPI
  • 数据库: SQLite (用于 Checkpoints 和消息持久化)
  • 观测性: Langfuse (全链路追踪)
  • 包管理: uv
  • 前端: Vanilla JS (ES6+), CSS3 (Modern Flex/Grid), HTML5
  • 协议: OpenAI API standard, MCP, SSE
  • 部署: Docker, Docker Compose

📝 许可证

本项目采用 MIT 许可证。

About

一个基于 LLM 的轻量级智能体应用

Resources

License

Stars

Watchers

Forks

Contributors