WorkBuddy 自定义模型配置教程
WorkBuddy 桌面版默认只使用内置模型,如果想接入自定义模型(如 GPT、Claude、Gemini 等),可以通过配置文件实现。
一、配置步骤
1. 创建配置文件夹
Mac / Linux:
mkdir -p ~/.workbuddy
Windows:
mkdir %USERPROFILE%\.workbuddy
2. 创建配置文件
在配置文件夹下创建 models.json 文件:
- Mac/Linux:
~/.workbuddy/models.json - Windows:
C:\Users\你的用户名\.workbuddy\models.json
{
"models": [
{
"id": "模型ID",
"name": "显示名称",
"vendor": "提供商",
"apiKey": "你的API-Key",
"maxInputTokens": 100000,
"maxOutputTokens": 8192,
"url": "API端点地址",
"supportsToolCall": true,
"supportsImages": true
}
]
}
3. 重启 WorkBuddy
配置完成后,必须重启 WorkBuddy 才能生效。
二、配置参数说明
| 参数 | 必填 | 说明 |
|---|---|---|
| id | ✅ | 模型标识符,如 gpt-4o、gemini-1.5-pro |
| name | ✅ | 显示名称,可自定义 |
| vendor | ✅ | 提供商名称,如 OpenAI、Google |
| apiKey | ✅ | API 密钥 |
| url | ✅ | API 端点地址(OpenAI 兼容格式) |
| maxInputTokens | ✅ | 最大输入 token 数 |
| maxOutputTokens | ✅ | 最大输出 token 数 |
| supportsToolCall | ✅ | 是否支持工具调用(true/false) |
| supportsImages | ✅ | 是否支持图片(true/false) |
三、配置示例
示例 1:OpenAI GPT-4o
{
"models": [
{
"id": "gpt-4o",
"name": "GPT-4o",
"vendor": "OpenAI",
"apiKey": "sk-xxx",
"maxInputTokens": 128000,
"maxOutputTokens": 16384,
"url": "https://api.openai.com/v1/chat/completions",
"supportsToolCall": true,
"supportsImages": true
}
]
}
示例 2:使用中转 API
{
"models": [
{
"id": "gemini-3.1-flash-lite-preview",
"name": "Gemini 3.1 Flash Lite",
"vendor": "Google (中转)",
"apiKey": "sk-xxx",
"maxInputTokens": 100000,
"maxOutputTokens": 8192,
"url": "http://192.168.1.100:14305/v1/chat/completions",
"supportsToolCall": true,
"supportsImages": true
}
]
}
示例 3:仅显示自定义模型(隐藏内置模型)
{
"models": [...],
"availableModels": ["gpt-4o", "gemini-3.1-flash-lite-preview"]
}
四、注意事项
- API Key 安全:不要将包含真实 API Key 的配置文件分享给他人
- URL 格式:必须是 OpenAI 兼容格式,即
/v1/chat/completions结尾 - 局域网访问:如使用本地中转服务,确保 URL 可访问
- 必须重启:修改配置后必须重启 WorkBuddy 才能生效