mirror of
https://github.com/linshenkx/prompt-optimizer.git
synced 2026-05-08 14:37:02 +08:00
Add documentation for new v2.10.0 features in both English and Chinese: - Favorites: example application to workspaces - Models: provider-specific request details and capability tags - Prompt Garden: direct use vs favorite saving guide - Testing: Run All parallel execution说明 - Desktop: localhost/private network direct routing
321 lines
8.4 KiB
Markdown
321 lines
8.4 KiB
Markdown
# 模型管理
|
||
|
||
这页先解决一个最实际的问题:
|
||
|
||
第一次使用,到底要先配什么,才能把 Prompt Optimizer 真正跑起来。
|
||
|
||
如果你还在走第一次上手流程,建议和 [快速开始](../user/quick-start.md) 一起看。
|
||
|
||
入口就在右上角 **模型管理**。
|
||
|
||
!!! note
|
||
第一次使用,先不要同时配很多模型。先配 1 个能跑通的文本模型,比一开始堆很多 provider 更重要。
|
||
|
||
## 第一次使用,只做这 3 步
|
||
|
||
1. 先新增 **1 个文本模型**
|
||
2. 先在一个文本工作区里跑通 **优化 / 测试 / 评估**
|
||
3. 跑通后,再决定要不要补第 2 个文本模型或图像模型
|
||
|
||
大多数新用户一开始并不需要配很多模型。
|
||
|
||
## 最低可用配置
|
||
|
||
| 你的目标 | 最低配置 |
|
||
| --- | --- |
|
||
| 只想开始用文本工作区 | 1 个文本模型 |
|
||
| 想做结果对比 | 2 个文本模型 |
|
||
| 想用图像工作区 | 1 个文本模型 + 1 个图像模型 |
|
||
| 想在文生图里使用参考图复刻 / 风格学习 | 1 个文本模型 + 1 个图像模型 + 1 个图像识别模型 |
|
||
|
||
## 先这样理解就够了
|
||
|
||
### 第一层:文本模型 vs 图像模型
|
||
|
||
- **文本模型**:负责左侧分析、优化、迭代,也负责文本工作区右侧测试和评估
|
||
- **图像模型**:只负责图像工作区右侧真正生成图片
|
||
|
||
### 第二层:左侧模型 vs 右侧模型
|
||
|
||
在文本工作区里,模型通常分成两类用途:
|
||
|
||
- **左侧优化模型**:用来分析、优化、迭代提示词
|
||
- **右侧测试 / 评估模型**:用来真实执行提示词、生成结果并参与评估
|
||
|
||
这两者可以相同,也可以不同。
|
||
|
||
## 第一次使用怎么配
|
||
|
||
### 情况 A:你只是想先把产品用起来
|
||
|
||
先配 1 个文本模型即可。
|
||
|
||
这 1 个模型就能先用来:
|
||
|
||
- 左侧分析 / 优化
|
||
- 右侧测试
|
||
- 右侧结果评估
|
||
- 右侧对比评估
|
||
|
||
### 情况 B:你已经想开始做结果对比
|
||
|
||
建议配 2 个文本模型:
|
||
|
||
- 1 个主模型
|
||
- 1 个对照模型
|
||
|
||
这样右侧做多列测试时,你更容易看出差异来自提示词,还是来自模型本身。
|
||
|
||
### 情况 C:你要进入图像工作区
|
||
|
||
至少配:
|
||
|
||
- 1 个文本模型
|
||
- 1 个图像模型
|
||
|
||
原因很简单:
|
||
|
||
- 左侧分析和优化图像提示词时,仍然依赖文本模型
|
||
- 右侧真正生成图片时,才使用图像模型
|
||
|
||
### 情况 D:你要在文生图里用参考图动作
|
||
|
||
如果你要用文生图工作区里的:
|
||
|
||
- 参考图复刻
|
||
- 风格学习
|
||
- 从图片提取提示词变量
|
||
|
||
还要额外配置 **图像识别模型**。
|
||
|
||
因为这类动作不是普通出图,而是先让模型理解图片,再把结果转成提示词或变量线索。
|
||
|
||
## 新手最推荐的配置顺序
|
||
|
||
### 第 1 步:先加一个文本模型
|
||
|
||
优先选择你最容易连通、最熟悉的 provider。
|
||
|
||
### 第 2 步:先把连接测通
|
||
|
||
新增后,先做一次 **测试连接**。
|
||
|
||
### 第 3 步:回到任意文本工作区跑一次
|
||
|
||
建议先选:
|
||
|
||
- [用户提示词工作区](user-optimization.md)
|
||
- 或 [系统提示词工作区](system-optimization.md)
|
||
|
||
只要能跑通一次:
|
||
|
||
- 左侧优化
|
||
- 右侧测试
|
||
- 右侧评估
|
||
|
||
就说明你的最小配置已经成立。
|
||
|
||
### 第 4 步:再补第二个模型
|
||
|
||
只有当你已经要做结果对比,或者要进入图像工作区时,再继续加模型。
|
||
|
||
## 最常见的 3 种接法
|
||
|
||
### 1. 公开模型平台
|
||
|
||
例如 OpenAI、Gemini、DeepSeek、SiliconFlow。
|
||
|
||
你通常只需要:
|
||
|
||
1. 选择 provider
|
||
2. 填 API Key
|
||
3. 选模型
|
||
4. 测试连接
|
||
|
||
部分 provider 还会有自己的请求细节:
|
||
|
||
- OpenAI 兼容文本模型可能根据 provider 和模型能力使用 Chat Completions 或 Responses 请求风格。
|
||
- DeepSeek 配置可能在高级参数中暴露思考或推理相关选项。如果输出行为和预期不一致,可以先检查这些参数是否启用。
|
||
|
||
### 2. Ollama
|
||
|
||
如果你本机跑的是 Ollama,优先直接选择内置的 `Ollama` provider。
|
||
|
||
特点:
|
||
|
||
- 默认地址是 `http://localhost:11434/v1`
|
||
- 通常不强制要求 API Key
|
||
- 模型列表可以跟随本地已安装模型刷新
|
||
|
||
### 3. Custom
|
||
|
||
如果你的服务兼容 OpenAI Chat Completions 或类似接口,可以走 `Custom`。
|
||
|
||
典型场景:
|
||
|
||
- LM Studio
|
||
- 企业内网网关
|
||
- 自建 OpenAI 兼容服务
|
||
- 需要手动指定特殊 Base URL 或附加参数
|
||
|
||
示例:
|
||
|
||
```text
|
||
提供商:Custom
|
||
Base URL:https://your-api.example.com/v1
|
||
模型:your-model-name
|
||
API Key:按你的服务要求填写
|
||
```
|
||
|
||
## 如果连接失败,再看部署与连接环境
|
||
|
||
### Web / 在线站
|
||
|
||
浏览器会直接向模型服务发请求,所以你会遇到:
|
||
|
||
- CORS
|
||
- HTTPS 页面访问 HTTP 本地接口的 Mixed Content
|
||
|
||
### 桌面版
|
||
|
||
更适合:
|
||
|
||
- Ollama
|
||
- LM Studio
|
||
- 局域网或内网接口
|
||
- 需要长期稳定连接自定义网关的场景
|
||
|
||
### Docker
|
||
|
||
Docker 更像“把 Web 页面和 MCP 一起打包部署”。
|
||
|
||
它适合自托管,但前端页面本身依然是浏览器访问模型服务,所以:
|
||
|
||
- 浏览器限制不会凭空消失
|
||
- 如果要让容器访问宿主机模型服务,需要额外处理 `host.docker.internal` 一类地址
|
||
|
||
对应文档:
|
||
|
||
- [Web 版部署](../deployment/web.md)
|
||
- [桌面应用](../deployment/desktop.md)
|
||
- [Docker 基础部署](../deployment/docker-basic.md)
|
||
|
||
## 当前支持哪些文本 provider
|
||
|
||
当前代码内置支持这些文本 provider:
|
||
|
||
- OpenAI
|
||
- Gemini
|
||
- Anthropic
|
||
- DeepSeek
|
||
- SiliconFlow
|
||
- 智谱 AI
|
||
- DashScope
|
||
- OpenRouter
|
||
- ModelScope
|
||
- MiniMax
|
||
- Ollama
|
||
- Custom(任意 OpenAI 兼容接口)
|
||
|
||
## 当前模型管理器能做什么
|
||
|
||
除了基本的新增、编辑、删除之外,当前模型管理器还支持:
|
||
|
||
- 测试连接
|
||
- 克隆配置
|
||
- 刷新模型列表
|
||
- 配置高级参数
|
||
- 部分 provider 的 API Key 外链入口
|
||
|
||
图像模型管理器则主要支持:
|
||
|
||
- 新增、编辑、克隆、删除
|
||
- 启用 / 禁用
|
||
- 测试连接
|
||
- 测试图预览
|
||
- provider / model / 能力标签展示
|
||
|
||
内置图像模型预设会区分不同版本的能力。例如 Seedream 4.5 支持多图场景,Seedream 5.0 Lite 有独立的默认参数。判断一个图像模型适合什么工作区时,优先看模型管理器里的能力标签,不要只靠模型名猜。
|
||
|
||
功能模型区域还会涉及图像识别模型。
|
||
|
||
如果你打算使用图片提取、参考图复刻或风格学习,不要只配文本模型和图像模型,还要确认图像识别模型可用。
|
||
|
||
## 一套更稳的测试策略
|
||
|
||
如果你不确定该怎么配右侧测试模型,先按这个原则来:
|
||
|
||
### 比版本差异
|
||
|
||
固定模型,只比较:
|
||
|
||
- 原始
|
||
- 工作区
|
||
- `v1 / v2 / vN`
|
||
|
||
### 比模型差异
|
||
|
||
固定提示词版本,只比较:
|
||
|
||
- 不同文本模型
|
||
- 或不同图像模型
|
||
|
||
这样你更容易判断,差异到底来自提示词,还是来自模型本身。
|
||
|
||
更完整的说明见 [模型选择与测试策略](../user/model-testing-strategy.md)。
|
||
|
||
## 怎么判断自己已经“配好了”
|
||
|
||
满足下面这 3 条,就可以先不再折腾模型配置:
|
||
|
||
1. 至少有 1 个文本模型能测试连接成功
|
||
2. 你能在一个文本工作区里跑出真实结果
|
||
3. 你能继续做一次结果评估或对比评估
|
||
|
||
## 配置保存在哪里
|
||
|
||
- Web / 在线站:保存在当前浏览器本地
|
||
- 桌面版:保存在本机应用目录
|
||
- 扩展版:保存在扩展自己的本地存储空间
|
||
|
||
如果你要备份或迁移,优先使用 [数据管理](data.md)。
|
||
|
||
## 常见问题
|
||
|
||
### “测试连接”通过了,为什么运行时还失败
|
||
|
||
最常见的原因仍然是:
|
||
|
||
- 请求额度不足
|
||
- 模型名写错
|
||
- 浏览器版被 CORS / Mixed Content 拦截
|
||
- 左侧优化模型和右侧测试模型不是同一个
|
||
|
||
### 我是不是一开始就要配很多模型
|
||
|
||
不用。大多数情况下:
|
||
|
||
- 文本工作区先配 1 个文本模型就能开始
|
||
- 需要做结果对比时再补第 2 个文本模型
|
||
- 进入图像工作区时再加图像模型
|
||
|
||
### 为什么我明明配了模型,还是跑不起来
|
||
|
||
优先检查这几件事:
|
||
|
||
1. 连接测试有没有真的成功
|
||
2. 选的模型是不是文本模型
|
||
3. 当前是不是浏览器环境下访问本地 HTTP 接口
|
||
4. 当前工作区是否还需要图像模型或额外输入
|
||
|
||
!!! note
|
||
图像工作区是双模型结构。左侧分析和优化图像提示词时,仍然使用文本模型;右侧真正出图时,使用图像模型。
|
||
|
||
## 相关页面
|
||
|
||
- [快速开始](../user/quick-start.md)
|
||
- [模型选择与测试策略](../user/model-testing-strategy.md)
|
||
- [连接问题](../help/connection-issues.md)
|
||
- [桌面应用](../deployment/desktop.md)
|
||
- [Docker 基础部署](../deployment/docker-basic.md)
|