# 环境变量配置示例文件 # 将此文件复制为 .env.local 并填入你的实际配置 # ===== LLM API 密钥配置 ===== # 配置您要使用的 LLM 服务的 API 密钥 # 不同模块会根据需要使用这些配置 # OpenAI API 配置 # VITE_OPENAI_API_KEY=sk-your-openai-api-key-here # 可选:真实 OpenAI Responses 集成测试使用的模型名 # 不设置时默认使用 gpt-5-mini # OPENAI_RESPONSES_TEST_MODEL=gpt-5-mini # Google Gemini API 配置 # VITE_GEMINI_API_KEY=your-gemini-api-key-here # Anthropic Claude API 配置 # VITE_ANTHROPIC_API_KEY=your-anthropic-api-key-here # ===== 图像生成 API 密钥配置 ===== # Gemini 图像生成复用 VITE_GEMINI_API_KEY(无需单独配置) # Seedream (Doubao) / 火山方舟 ARK API Key(任选其一变量,优先级从上到下) # VITE_SEEDREAM_API_KEY=your-seedream-api-key-here # VITE_ARK_API_KEY=your-ark-api-key-here # (也兼容进程环境变量 ARK_API_KEY,但推荐统一使用 VITE_ 前缀) # Prompt Garden 发现/导入配置 # 默认已在打包配置中启用并指向 https://garden.always200.com。 # 仅在需要禁用或改到自建 Garden 站点时覆盖。 # VITE_ENABLE_PROMPT_GARDEN_IMPORT=1 # VITE_PROMPT_GARDEN_BASE_URL=https://garden.always200.com # DeepSeek API 配置 # VITE_DEEPSEEK_API_KEY=sk-your-deepseek-api-key-here # 智谱 AI API 配置 # VITE_ZHIPU_API_KEY=your-zhipu-api-key-here # 可选:真实阿里百炼 Responses 集成测试 # 需同时设置 RUN_REAL_API=1 与 RUN_DASHSCOPE_RESPONSES_REAL_API=1 才会执行 # 可选指定测试模型,默认 qwen-plus # DASHSCOPE_RESPONSES_TEST_MODEL=qwen-plus # MiniMax API 配置 # VITE_MINIMAX_API_KEY=your-minimax-api-key-here # SiliconFlow API 配置 # VITE_SILICONFLOW_API_KEY=sk-your-siliconflow-api-key-here # Cloudflare Workers AI 配置 # 文本模型与图像模型共用这组配置 # VITE_CF_API_TOKEN=your-cloudflare-api-token-here # VITE_CF_ACCOUNT_ID=your-cloudflare-account-id-here # ModelScope (魔搭) API 配置 - 每天免费 2000 次调用 # 支持文本模型(LLM)和图像生成模型 # VITE_MODELSCOPE_API_KEY=your-modelscope-sdk-token-here # 自定义 API 配置(如 Ollama 本地服务) # VITE_CUSTOM_API_KEY=your-custom-api-key # VITE_CUSTOM_API_BASE_URL=http://localhost:11434/v1 # VITE_CUSTOM_API_MODEL=qwen2.5:0.5b # ===== 多自定义模型配置(新功能)===== # 支持配置无限数量的自定义模型,使用后缀区分不同模型 # 格式:VITE_CUSTOM_API_*_ # 后缀规则:只能包含字母(a-z A-Z)、数字(0-9)、下划线(_)、连字符(-) # 不支持:点号(.)、空格、特殊符号等 # Ollama Qwen 模型示例 # VITE_CUSTOM_API_KEY_qwen3=ollama-qwen3-key # VITE_CUSTOM_API_BASE_URL_qwen3=http://localhost:11434/v1 # VITE_CUSTOM_API_MODEL_qwen3=qwen3:8b # Ollama Qwen2.5 模型示例(注意:版本号用下划线分隔) # VITE_CUSTOM_API_KEY_qwen2_5=ollama-qwen25-key # VITE_CUSTOM_API_BASE_URL_qwen2_5=http://localhost:11434/v1 # VITE_CUSTOM_API_MODEL_qwen2_5=qwen2.5:14b # 本地 Claude 兼容服务示例 # VITE_CUSTOM_API_KEY_claude_local=claude-local-key # VITE_CUSTOM_API_BASE_URL_claude_local=http://localhost:8080/v1 # VITE_CUSTOM_API_MODEL_claude_local=claude-3-sonnet # VITE_CUSTOM_API_PARAMS_claude_local={"temperature":0.3,"top_p":0.8} # 其他自建 API 服务示例 # VITE_CUSTOM_API_KEY_my_llm=my-llm-api-key # VITE_CUSTOM_API_BASE_URL_my_llm=https://my-api.example.com/v1 # VITE_CUSTOM_API_MODEL_my_llm=my-custom-model # VITE_CUSTOM_API_PARAMS_my_llm={"temperature":0.7,"top_p":0.9,"max_tokens":4096} # ===== 自定义模型额外请求参数(可选)===== # 格式:VITE_CUSTOM_API_PARAMS_= # 这些参数会直接注入到 OpenAI 兼容请求体中,适用于标准参数和供应商特有参数 # 注意: # - 必须是 JSON 对象字符串,不能是数组或其他 JSON 类型 # - 不可覆盖 model、messages、stream 这三个保留字段 # - 如需在 Docker Compose 中书写复杂 JSON,建议用单引号包裹整个值 # # NVIDIA NIM 启用 thinking 模式示例 # VITE_CUSTOM_API_PARAMS_nvidia={"chat_template_kwargs":{"enable_thinking":true},"temperature":0.6,"top_p":0.95,"max_tokens":16384} # 注意: # - 以下三项均为必填:API_KEY、BASE_URL、MODEL(与核心实现严格一致) # - 生成的模型在UI中显示为格式化的名称(如 qwen3 → Qwen3) # ===== MCP 服务器配置 ===== # 以下配置仅在使用 MCP 服务器时需要 # 首选模型提供商(当配置了多个 API 密钥时) # 可选值:openai, gemini, anthropic, deepseek, siliconflow, zhipu, dashscope, openrouter, modelscope, custom, custom_ # 注意:必须与上面配置的 API 密钥对应 # 示例:如果配置了 VITE_CUSTOM_API_KEY_qwen3,可以使用 custom_qwen3 # MCP_DEFAULT_MODEL_PROVIDER=openai # HTTP 服务器端口(默认 3000) # MCP_HTTP_PORT=3000 # 日志级别(默认 debug) # 可选值:debug, info, warn, error # MCP_LOG_LEVEL=debug # 默认语言(默认 zh) # 可选值:zh, en # MCP_DEFAULT_LANGUAGE=zh # ===== Docker 部署访问控制配置 ===== # 以下配置仅在 Docker 部署时需要,用于设置 Web 界面的访问控制 # 访问用户名(可选,默认为 admin) # ACCESS_USERNAME=admin # 访问密码(可选,不设置则无密码保护) # ACCESS_PASSWORD=your_password # ===== 开发环境更新测试配置 ===== # 取消注释以下配置来启用开发环境的更新测试功能 # 方式1:使用 GITHUB_REPOSITORY 环境变量(推荐) # GITHUB_REPOSITORY=your-username/your-repo-name # 方式2:分别设置仓库所有者和名称 # DEV_REPO_OWNER=your-username # DEV_REPO_NAME=your-repo-name # ===== 使用说明 ===== # # LLM API 密钥: # 1. 使用 VITE_ 前缀的环境变量,支持所有模块(Web、Desktop、MCP 服务器等) # 2. 根据使用的功能配置相应的 API 密钥 # 3. 自定义 API 支持本地服务(如 Ollama)和其他兼容 OpenAI 格式的服务 # 4. 多自定义模型:使用 VITE_CUSTOM_API_*_ 格式配置多个自定义模型 # - 支持无限数量的自定义模型 # - 每个模型在UI中显示为独立选项 # - 后缀名会自动格式化为友好的显示名称 # - 可选使用 VITE_CUSTOM_API_PARAMS_ 追加额外请求参数 # # 真实 API 集成测试: # 1. 设置 RUN_REAL_API=1 后会执行 packages/core 下的真实网络集成测试 # 2. OpenAI Responses 真实测试依赖 VITE_OPENAI_API_KEY # 3. 可选用 OPENAI_RESPONSES_TEST_MODEL 指定参与测试的模型 # 4. 阿里百炼 Responses 真实测试额外需要 RUN_DASHSCOPE_RESPONSES_REAL_API=1 # # MCP 服务器(仅在使用 MCP 功能时需要): # 1. 需要至少配置一个 API 密钥才能启动 # 2. 在项目根目录执行 pnpm mcp:dev 启动开发服务器 # 3. 如果配置多个 API 密钥,可通过 MCP_DEFAULT_MODEL_PROVIDER 指定首选 # 4. MCP_DEFAULT_MODEL_PROVIDER 支持的值: # - openai: 使用 OpenAI GPT 模型 # - gemini: 使用 Google Gemini 模型 # - deepseek: 使用 DeepSeek 模型 # - siliconflow: 使用 SiliconFlow 模型 # - zhipu: 使用智谱 AI 模型 # - custom: 使用自定义 API(如 Ollama 等) # - custom_: 使用特定的多自定义模型(如 custom_qwen3) # 5. HTTP 模式默认端口 3000,可通过 MCP_HTTP_PORT 修改 # 6. 默认启用 debug 日志,可通过 MCP_LOG_LEVEL 调整 # # Docker 部署访问控制: # 1. ACCESS_USERNAME 和 ACCESS_PASSWORD 仅在 Docker 部署时使用 # 2. 不设置密码则无访问限制 # 3. 设置密码后访问 Web 界面需要输入用户名和密码 # # 更新测试(仅在开发环境需要): # 1. 只支持公开仓库,不支持私有仓库 # 2. 如果不设置仓库配置,将使用默认的公开仓库 (linshenkx/prompt-optimizer) # 3. 开发环境现在默认支持更新测试,无需额外配置文件 # 4. 更新日志将保存在用户数据目录的 logs/auto-updater.log 文件中