-
项目简介
-
OPRO Prompt Optimizer:面向提示优化的交互式系统,支持多轮拒选/再生成、语义聚类去重与 Top‑K 代表选择。
-
后端 FastAPI 提供 REST 接口,前端三栏 UI 便于会话管理与候选挑选。
-
架构概览
-
Frontend /ui/ → POST /query 首轮候选 → POST /select 选择并回答 → POST /reject 再生成 → POST /query_from_message 基于最近消息优化 → POST /message 聊天
-
OPRO 流程:指令构造 → Qwen 批量生成 → Embedding(Xinference→Ollama 回退)→ 聚类去重 → Top‑K
-
核心实现位置: _qwen_xinference_demo/opro/user_prompt_optimizer.py:45-54 (候选生成)、 _qwen_xinference_demo/opro/xinference_client.py:7-28 (embedding 回退)
-
环境与依赖
-
Python ≥ 3.10(建议使用 conda 虚拟环境)
-
必需:Ollama 本地服务与模型(如 qwen3:8b , qwen3-embedding:4b )
-
可选:Xinference embedding 服务( http://127.0.0.1:9997/models/bge-base-zh/embed )
-
Python 依赖: fastapi 、 uvicorn 、 requests 、 numpy 、 scikit-learn 、 pydantic
-
安装与启动
-
安装依赖
- pip install fastapi uvicorn requests numpy scikit-learn pydantic
-
启动后端服务
- uvicorn _qwen_xinference_demo.api:app --host 0.0.0.0 --port 8010
-
访问页面
- 前端三栏 UI: http://127.0.0.1:8010/ui/
- OpenAPI 文档: http://127.0.0.1:8010/docs
- OpenAPI JSON: http://127.0.0.1:8010/openapi.json
-
配置
-
文件: config.py
-
关键项
- APP_TITLE 、 APP_DESCRIPTION 、 APP_VERSION 、 APP_CONTACT (应用元信息,见 _qwen_xinference_demo/api.py:14-26 )
- OLLAMA_HOST 、 OLLAMA_GENERATE_URL 、 OLLAMA_TAGS_URL (Ollama 端点)
- DEFAULT_CHAT_MODEL 、 DEFAULT_EMBED_MODEL (默认模型,用于 _qwen_xinference_demo/opro/ollama_client.py:4-7 与 _qwen_xinference_demo/opro/xinference_client.py:1-6,20-21 )
- XINFERENCE_EMBED_URL (优先 embedding 端点)
- TOP_K 、 CLUSTER_DISTANCE_THRESHOLD (候选选择参数,引用 _qwen_xinference_demo/opro/user_prompt_optimizer.py:19,45 )
-
统一响应与错误处理
-
成功: {"success": true, "data": {...}}
-
失败: {"success": false, "error": "...", "error_code": "..."} ,状态码保持 HTTP 值
-
应用级异常: AppException(status_code, detail, error_code) _qwen_xinference_demo/api.py:23-39
-
示例:会话不存在抛出 SESSION_NOT_FOUND ,Ollama 调用异常抛出 OLLAMA_ERROR
-
API 与示例
-
全量端点与示例:见 API.md
-
健康与版本
- GET /health 返回 {status, version} _qwen_xinference_demo/api.py:129-134
- GET /version 返回 {version} _qwen_xinference_demo/api.py:135-138
-
示例脚本
- 入口: examples/client_demo.py
- 功能:健康检查 → 创建会话 → 选择候选 → 继续优化 → 聊天 → 会话列表
-
目录结构
-
/_qwen_xinference_demo/api.py :FastAPI 主应用与路由
-
/_qwen_xinference_demo/opro/user_prompt_optimizer.py :OPRO 候选生成与聚类选择
-
/_qwen_xinference_demo/opro/xinference_client.py :Embedding(Xinference→Ollama 回退)
-
/_qwen_xinference_demo/opro/ollama_client.py :Ollama 调用与模型列表
-
/_qwen_xinference_demo/opro/session_state.py :会话态管理
-
/frontend/index.html :三栏 UI 页面
-
/API.md :接口文档
-
/examples/client_demo.py :示例调用脚本
-
/config.py :全局配置
-
常见问题
-
无法访问 /ui/react :使用 /ui/ ,React 示例仅作演示入口 _qwen_xinference_demo/api.py:133-144
-
模型不可用: /models 查看列表并通过 /set_model 应用;错误返回 MODEL_NOT_AVAILABLE
-
第二轮无相关候选:使用 POST /query_from_message 基于最近消息再生候选 _qwen_xinference_demo/api.py:193-206
-
立即回答诉求:用 POST /answer 先答后给候选 _qwen_xinference_demo/api.py:211-219
-
端口与地址访问差异:在启动命令中明确 --host 0.0.0.0 --port 8010 ,本地浏览器建议访问 127.0.0.1