WorkBuddy 腾讯openclaw 添加自定义模型。

2026年3月13日 16点热度 0人点赞 0条评论

WorkBuddy 自定义模型配置教程

WorkBuddy 桌面版默认只使用内置模型,如果想接入自定义模型(如 GPT、Claude、Gemini 等),可以通过配置文件实现。


一、配置步骤

1. 创建配置文件夹

Mac / Linux:

mkdir -p ~/.workbuddy

Windows:

mkdir %USERPROFILE%\.workbuddy

2. 创建配置文件

在配置文件夹下创建 models.json 文件:

  • Mac/Linux: ~/.workbuddy/models.json
  • Windows: C:\Users\你的用户名\.workbuddy\models.json
{
  "models": [
    {
      "id": "模型ID",
      "name": "显示名称",
      "vendor": "提供商",
      "apiKey": "你的API-Key",
      "maxInputTokens": 100000,
      "maxOutputTokens": 8192,
      "url": "API端点地址",
      "supportsToolCall": true,
      "supportsImages": true
    }
  ]
}

3. 重启 WorkBuddy

配置完成后,必须重启 WorkBuddy 才能生效。


二、配置参数说明

参数 必填 说明
id 模型标识符,如 gpt-4ogemini-1.5-pro
name 显示名称,可自定义
vendor 提供商名称,如 OpenAIGoogle
apiKey API 密钥
url API 端点地址(OpenAI 兼容格式)
maxInputTokens 最大输入 token 数
maxOutputTokens 最大输出 token 数
supportsToolCall 是否支持工具调用(true/false)
supportsImages 是否支持图片(true/false)

三、配置示例

示例 1:OpenAI GPT-4o

{
  "models": [
    {
      "id": "gpt-4o",
      "name": "GPT-4o",
      "vendor": "OpenAI",
      "apiKey": "sk-xxx",
      "maxInputTokens": 128000,
      "maxOutputTokens": 16384,
      "url": "https://api.openai.com/v1/chat/completions",
      "supportsToolCall": true,
      "supportsImages": true
    }
  ]
}

示例 2:使用中转 API

{
  "models": [
    {
      "id": "gemini-3.1-flash-lite-preview",
      "name": "Gemini 3.1 Flash Lite",
      "vendor": "Google (中转)",
      "apiKey": "sk-xxx",
      "maxInputTokens": 100000,
      "maxOutputTokens": 8192,
      "url": "http://192.168.1.100:14305/v1/chat/completions",
      "supportsToolCall": true,
      "supportsImages": true
    }
  ]
}

示例 3:仅显示自定义模型(隐藏内置模型)

{
  "models": [...],
  "availableModels": ["gpt-4o", "gemini-3.1-flash-lite-preview"]
}

四、注意事项

  • API Key 安全:不要将包含真实 API Key 的配置文件分享给他人
  • URL 格式:必须是 OpenAI 兼容格式,即 /v1/chat/completions 结尾
  • 局域网访问:如使用本地中转服务,确保 URL 可访问
  • 必须重启:修改配置后必须重启 WorkBuddy 才能生效

admin

这个人很懒,什么都没留下