Skip to content

OpenClaw

配置生成器

生成器完全在浏览器本地运行,不上传任何密钥或配置文件,可直接复制或下载 openclaw.json。

导出的 openclaw.json 怎么使用?

  1. 点击“复制到剪贴板”或“下载 openclaw.json”。
  2. 将文件放到本地或服务器上的 OpenClaw 配置目录,覆盖默认文件。
  3. 补齐生成器列出的必填字段,按你的部署方式写入。
  4. 启动 OpenClaw,若启动失败,先根据生成器给出的校验提示逐项排查(常见是令牌未填写或白名单为空)。

主模型配置要点

生成器已经把主模型 Provider 设为 OPEN1 CODE,如需手动核对可参考:

json
{
  "models": {
    "mode": "merge",
    "providers": {
      "openai-codex": {
        "baseUrl": "https://www.open1.codes/v1",
        "apiKey": "你的_OPEN1_CODE_API_KEY",
        "auth": "api-key",
        "api": "openai-responses",
        "headers": {
          "User-Agent": "curl/8.0"
        },
        "authHeader": true,
        "models": [
          {
            "id": "gpt-5.4",
            "name": "gpt-5.4",
            "api": "openai-responses",
            "reasoning": true,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 258000,
            "maxTokens": 12800,
            "compat": {
              "supportsReasoningEffort": true
            }
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "openai-codex/gpt-5.4"
      },
      "thinkingDefault": "xhigh"
    }
  }
}

重点检查:

  • baseUrl:固定为 https://www.open1.codes/v1
  • apiKey:填写 OPEN1 CODE 后台创建的密钥
  • api:优先用 openai-responses,如需兼容旧版再换 openai-completions
  • models[0].id:默认 gpt-5.4
  • agents.defaults.model.primary:保持 openai-codex/gpt-5.4

默认推理强度

thinkingDefault 设为 xhigh,表示默认使用超高推理档位,所以 provider 里要保留 "reasoning": true"supportsReasoningEffort": true,确保模型能响应该设定。

memorySearch 进阶配置(可选)

该配置仅负责记忆检索,与主模型分离,推荐在主模型跑稳定后再开启。

json
{
  "agents": {
    "defaults": {
      "memorySearch": {
        "enabled": true,
        "provider": "openai",
        "remote": {
          "baseUrl": "https://api.siliconflow.cn/v1",
          "apiKey": "你的_硅基流动_API_KEY",
          "batch": {
            "enabled": false,
            "wait": true,
            "concurrency": 1,
            "pollIntervalMs": 3000,
            "timeoutMinutes": 10
          }
        },
        "fallback": "none",
        "model": "BAAI/bge-m3"
      }
    }
  }
}

建议:

  • enabled 设为 true 时务必准备好硅基流动 Key
  • provider 仍写 openai,因为接口兼容 OpenAI 协议
  • remote.baseUrl 固定 https://api.siliconflow.cn/v1
  • model 任选硅基流动支持的向量模型,示例为 BAAI/bge-m3
  • 遇到问题可先暂时关闭 memorySearch,只保留主模型排查

配置顺序建议

  1. 先用生成器写出主模型配置并确认 gpt-5.4 正常调用。
  2. 启动 OpenClaw,使用 openclaw doctoropenclaw status 检查基础能力。
  3. 需要远程访问时再切换网关绑定,记得立刻配置令牌或密码。
  4. 确认主模型稳定后,再按需开启 memorySearch 或消息渠道。

常见问题

生成器无法导出 openclaw.json

需要先清空所有红色错误提示,例如接口密钥留空、网关绑定到 LAN 却关闭登录、或 Telegram 选择 “仅允许名单” 却没有填写账号。

如何生成 openclaw.json?

按照向导选择预设、填写模型与渠道信息,确认没有红色错误提示后复制或下载即可。

我的 API Key 会不会泄露?

不会。所有输入都在浏览器内处理,可直接在本地安全生成配置。

主模型调不通该检查什么?

优先确认 baseUrl 是否为 https://www.open1.codes/v1,API Key 是否正确,主模型是否仍是 gpt-5.4,以及 thinkingDefault 与模型能力是否匹配。

memorySearch 报错怎么办?

先确认硅基流动 Key 有效、baseUrl 填写 `https://api.siliconflow.cn/v1`,如果仍不稳定可先关闭 memorySearch,仅保留主模型排查。

报错 401 怎么排查?

优先检查下面两项:

  1. API Key 是否填写正确。
  2. OpenClaw 的 agent 目录下 model.json 是否已经更新。

通用路径可这样查看:

  • Windows:%USERPROFILE%\.openclaw\agents\main\agent\model.json
  • macOS / Linux:$HOME/.openclaw/agents/main/agent/model.json

如果你是在 Windows 下使用 OpenClaw,尤其要核对该目录;很多 401 其实是本地 agent 目录里的模型配置还停留在旧版本导致的。

如果 OpenClaw 拒绝加载 JSON 怎么办?

根据生成器列出的错误逐项修正,常见问题包括令牌留空、白名单为空仍选择“仅允许名单”、或 LAN 绑定并关闭登录。

面向 Codex、Claude Code、OpenCode 等工具的统一接入平台