mirror of
https://github.com/linshenkx/prompt-optimizer.git
synced 2026-05-06 21:50:27 +08:00
183 lines
7.6 KiB
Plaintext
183 lines
7.6 KiB
Plaintext
# 环境变量配置示例文件
|
||
# 将此文件复制为 .env.local 并填入你的实际配置
|
||
|
||
# ===== LLM API 密钥配置 =====
|
||
# 配置您要使用的 LLM 服务的 API 密钥
|
||
# 不同模块会根据需要使用这些配置
|
||
|
||
# OpenAI API 配置
|
||
# VITE_OPENAI_API_KEY=sk-your-openai-api-key-here
|
||
# 可选:真实 OpenAI Responses 集成测试使用的模型名
|
||
# 不设置时默认使用 gpt-5-mini
|
||
# OPENAI_RESPONSES_TEST_MODEL=gpt-5-mini
|
||
|
||
# Google Gemini API 配置
|
||
# VITE_GEMINI_API_KEY=your-gemini-api-key-here
|
||
|
||
# Anthropic Claude API 配置
|
||
# VITE_ANTHROPIC_API_KEY=your-anthropic-api-key-here
|
||
|
||
# ===== 图像生成 API 密钥配置 =====
|
||
# Gemini 图像生成复用 VITE_GEMINI_API_KEY(无需单独配置)
|
||
# Seedream (Doubao) / 火山方舟 ARK API Key(任选其一变量,优先级从上到下)
|
||
# VITE_SEEDREAM_API_KEY=your-seedream-api-key-here
|
||
# VITE_ARK_API_KEY=your-ark-api-key-here
|
||
# (也兼容进程环境变量 ARK_API_KEY,但推荐统一使用 VITE_ 前缀)
|
||
|
||
# DeepSeek API 配置
|
||
# VITE_DEEPSEEK_API_KEY=sk-your-deepseek-api-key-here
|
||
|
||
# 智谱 AI API 配置
|
||
# VITE_ZHIPU_API_KEY=your-zhipu-api-key-here
|
||
|
||
# 可选:真实阿里百炼 Responses 集成测试
|
||
# 需同时设置 RUN_REAL_API=1 与 RUN_DASHSCOPE_RESPONSES_REAL_API=1 才会执行
|
||
# 可选指定测试模型,默认 qwen-plus
|
||
# DASHSCOPE_RESPONSES_TEST_MODEL=qwen-plus
|
||
|
||
# MiniMax API 配置
|
||
# VITE_MINIMAX_API_KEY=your-minimax-api-key-here
|
||
|
||
# SiliconFlow API 配置
|
||
# VITE_SILICONFLOW_API_KEY=sk-your-siliconflow-api-key-here
|
||
|
||
# Cloudflare Workers AI 配置
|
||
# 文本模型与图像模型共用这组配置
|
||
# VITE_CF_API_TOKEN=your-cloudflare-api-token-here
|
||
# VITE_CF_ACCOUNT_ID=your-cloudflare-account-id-here
|
||
|
||
# ModelScope (魔搭) API 配置 - 每天免费 2000 次调用
|
||
# 支持文本模型(LLM)和图像生成模型
|
||
# VITE_MODELSCOPE_API_KEY=your-modelscope-sdk-token-here
|
||
|
||
# 自定义 API 配置(如 Ollama 本地服务)
|
||
# VITE_CUSTOM_API_KEY=your-custom-api-key
|
||
# VITE_CUSTOM_API_BASE_URL=http://localhost:11434/v1
|
||
# VITE_CUSTOM_API_MODEL=qwen2.5:0.5b
|
||
|
||
# ===== 多自定义模型配置(新功能)=====
|
||
# 支持配置无限数量的自定义模型,使用后缀区分不同模型
|
||
# 格式:VITE_CUSTOM_API_*_<suffix>
|
||
# 后缀规则:只能包含字母(a-z A-Z)、数字(0-9)、下划线(_)、连字符(-)
|
||
# 不支持:点号(.)、空格、特殊符号等
|
||
|
||
# Ollama Qwen 模型示例
|
||
# VITE_CUSTOM_API_KEY_qwen3=ollama-qwen3-key
|
||
# VITE_CUSTOM_API_BASE_URL_qwen3=http://localhost:11434/v1
|
||
# VITE_CUSTOM_API_MODEL_qwen3=qwen3:8b
|
||
|
||
# Ollama Qwen2.5 模型示例(注意:版本号用下划线分隔)
|
||
# VITE_CUSTOM_API_KEY_qwen2_5=ollama-qwen25-key
|
||
# VITE_CUSTOM_API_BASE_URL_qwen2_5=http://localhost:11434/v1
|
||
# VITE_CUSTOM_API_MODEL_qwen2_5=qwen2.5:14b
|
||
|
||
# 本地 Claude 兼容服务示例
|
||
# VITE_CUSTOM_API_KEY_claude_local=claude-local-key
|
||
# VITE_CUSTOM_API_BASE_URL_claude_local=http://localhost:8080/v1
|
||
# VITE_CUSTOM_API_MODEL_claude_local=claude-3-sonnet
|
||
# VITE_CUSTOM_API_PARAMS_claude_local={"temperature":0.3,"top_p":0.8}
|
||
|
||
# 其他自建 API 服务示例
|
||
# VITE_CUSTOM_API_KEY_my_llm=my-llm-api-key
|
||
# VITE_CUSTOM_API_BASE_URL_my_llm=https://my-api.example.com/v1
|
||
# VITE_CUSTOM_API_MODEL_my_llm=my-custom-model
|
||
# VITE_CUSTOM_API_PARAMS_my_llm={"temperature":0.7,"top_p":0.9,"max_tokens":4096}
|
||
|
||
# ===== 自定义模型额外请求参数(可选)=====
|
||
# 格式:VITE_CUSTOM_API_PARAMS_<suffix>=<JSON对象字符串>
|
||
# 这些参数会直接注入到 OpenAI 兼容请求体中,适用于标准参数和供应商特有参数
|
||
# 注意:
|
||
# - 必须是 JSON 对象字符串,不能是数组或其他 JSON 类型
|
||
# - 不可覆盖 model、messages、stream 这三个保留字段
|
||
# - 如需在 Docker Compose 中书写复杂 JSON,建议用单引号包裹整个值
|
||
#
|
||
# NVIDIA NIM 启用 thinking 模式示例
|
||
# VITE_CUSTOM_API_PARAMS_nvidia={"chat_template_kwargs":{"enable_thinking":true},"temperature":0.6,"top_p":0.95,"max_tokens":16384}
|
||
|
||
# 注意:
|
||
# - 以下三项均为必填:API_KEY、BASE_URL、MODEL(与核心实现严格一致)
|
||
# - 生成的模型在UI中显示为格式化的名称(如 qwen3 → Qwen3)
|
||
|
||
# ===== MCP 服务器配置 =====
|
||
# 以下配置仅在使用 MCP 服务器时需要
|
||
|
||
# 首选模型提供商(当配置了多个 API 密钥时)
|
||
# 可选值:openai, gemini, anthropic, deepseek, siliconflow, zhipu, dashscope, openrouter, modelscope, custom, custom_<suffix>
|
||
# 注意:必须与上面配置的 API 密钥对应
|
||
# 示例:如果配置了 VITE_CUSTOM_API_KEY_qwen3,可以使用 custom_qwen3
|
||
# MCP_DEFAULT_MODEL_PROVIDER=openai
|
||
|
||
# HTTP 服务器端口(默认 3000)
|
||
# MCP_HTTP_PORT=3000
|
||
|
||
# 日志级别(默认 debug)
|
||
# 可选值:debug, info, warn, error
|
||
# MCP_LOG_LEVEL=debug
|
||
|
||
# 默认语言(默认 zh)
|
||
# 可选值:zh, en
|
||
# MCP_DEFAULT_LANGUAGE=zh
|
||
|
||
# ===== Docker 部署访问控制配置 =====
|
||
# 以下配置仅在 Docker 部署时需要,用于设置 Web 界面的访问控制
|
||
|
||
# 访问用户名(可选,默认为 admin)
|
||
# ACCESS_USERNAME=admin
|
||
|
||
# 访问密码(可选,不设置则无密码保护)
|
||
# ACCESS_PASSWORD=your_password
|
||
|
||
# ===== 开发环境更新测试配置 =====
|
||
# 取消注释以下配置来启用开发环境的更新测试功能
|
||
|
||
# 方式1:使用 GITHUB_REPOSITORY 环境变量(推荐)
|
||
# GITHUB_REPOSITORY=your-username/your-repo-name
|
||
|
||
# 方式2:分别设置仓库所有者和名称
|
||
# DEV_REPO_OWNER=your-username
|
||
# DEV_REPO_NAME=your-repo-name
|
||
|
||
# ===== 使用说明 =====
|
||
#
|
||
# LLM API 密钥:
|
||
# 1. 使用 VITE_ 前缀的环境变量,支持所有模块(Web、Desktop、MCP 服务器等)
|
||
# 2. 根据使用的功能配置相应的 API 密钥
|
||
# 3. 自定义 API 支持本地服务(如 Ollama)和其他兼容 OpenAI 格式的服务
|
||
# 4. 多自定义模型:使用 VITE_CUSTOM_API_*_<suffix> 格式配置多个自定义模型
|
||
# - 支持无限数量的自定义模型
|
||
# - 每个模型在UI中显示为独立选项
|
||
# - 后缀名会自动格式化为友好的显示名称
|
||
# - 可选使用 VITE_CUSTOM_API_PARAMS_<suffix> 追加额外请求参数
|
||
#
|
||
# 真实 API 集成测试:
|
||
# 1. 设置 RUN_REAL_API=1 后会执行 packages/core 下的真实网络集成测试
|
||
# 2. OpenAI Responses 真实测试依赖 VITE_OPENAI_API_KEY
|
||
# 3. 可选用 OPENAI_RESPONSES_TEST_MODEL 指定参与测试的模型
|
||
# 4. 阿里百炼 Responses 真实测试额外需要 RUN_DASHSCOPE_RESPONSES_REAL_API=1
|
||
#
|
||
# MCP 服务器(仅在使用 MCP 功能时需要):
|
||
# 1. 需要至少配置一个 API 密钥才能启动
|
||
# 2. 在项目根目录执行 pnpm mcp:dev 启动开发服务器
|
||
# 3. 如果配置多个 API 密钥,可通过 MCP_DEFAULT_MODEL_PROVIDER 指定首选
|
||
# 4. MCP_DEFAULT_MODEL_PROVIDER 支持的值:
|
||
# - openai: 使用 OpenAI GPT 模型
|
||
# - gemini: 使用 Google Gemini 模型
|
||
# - deepseek: 使用 DeepSeek 模型
|
||
# - siliconflow: 使用 SiliconFlow 模型
|
||
# - zhipu: 使用智谱 AI 模型
|
||
# - custom: 使用自定义 API(如 Ollama 等)
|
||
# - custom_<suffix>: 使用特定的多自定义模型(如 custom_qwen3)
|
||
# 5. HTTP 模式默认端口 3000,可通过 MCP_HTTP_PORT 修改
|
||
# 6. 默认启用 debug 日志,可通过 MCP_LOG_LEVEL 调整
|
||
#
|
||
# Docker 部署访问控制:
|
||
# 1. ACCESS_USERNAME 和 ACCESS_PASSWORD 仅在 Docker 部署时使用
|
||
# 2. 不设置密码则无访问限制
|
||
# 3. 设置密码后访问 Web 界面需要输入用户名和密码
|
||
#
|
||
# 更新测试(仅在开发环境需要):
|
||
# 1. 只支持公开仓库,不支持私有仓库
|
||
# 2. 如果不设置仓库配置,将使用默认的公开仓库 (linshenkx/prompt-optimizer)
|
||
# 3. 开发环境现在默认支持更新测试,无需额外配置文件
|
||
# 4. 更新日志将保存在用户数据目录的 logs/auto-updater.log 文件中
|