🧪 Skills

Add NewCLI Provider (Claude/GPT/Gemini)

为 OpenClaw 配置 code.newcli.com 作为模型源,包含四个 provider:newcli(Claude 主线路)、newcli-aws(Claude AWS 特价线路,消耗 1/24)、newcli-codex(GPT 系列)、newc

v3.2.0
❤️ 0
⬇️ 871
👁 1
Share

Description


name: add-newcli-provider description: 为 OpenClaw 配置 code.newcli.com 作为模型源,包含四个 provider:newcli(Claude 主线路)、newcli-aws(Claude AWS 特价线路,消耗 1/24)、newcli-codex(GPT 系列)、newcli-gemini(Gemini 系列)。适用于需要接入 Claude 或 GPT 模型的场景。包含 provider 注册、模型定义、别名配置、fallback 链接入和验证的完整流程。当管理员说想"加 Claude"、"加 GPT"、"配 newcli"、"加 fox 源"、"接入 Claude 模型"、"接入 GPT 模型"、"加 codex"、"加 aws 线路"时使用此 skill。

配置 NewCLI Provider(code.newcli.com 模型代理源)

NewCLI (FoxCode) 是一个模型代理服务,通过统一的账户和 API Key 提供三类模型的访问:

Provider 模型系列 API 协议 Base URL 备注
newcli Claude (Anthropic) anthropic-messages code.newcli.com/claude 主线路
newcli-aws Claude (Anthropic) anthropic-messages code.newcli.com/claude/aws AWS 特价线路,消耗 1/24
newcli-codex GPT (OpenAI) openai-completions code.newcli.com/codex/v1
newcli-gemini Gemini (Google) google-generative-ai code.newcli.com/gemini/v1beta

为什么是四个 provider? 虽然是同一个服务商、同一个 API Key,但:

  • Claude、GPT、Gemini 使用不同的 API 协议和端点,必须分开
  • Claude 有两条线路(主线路 vs AWS 特价线路),消耗倍率不同,也需要分开配置

⭐ AWS 特价线路(重要)

服务商提供了独家 AWS 线路:https://code.newcli.com/claude/aws

对比 主线路 (newcli) AWS 线路 (newcli-aws)
Base URL .../claude .../claude/aws
额度消耗 1x 1/24x (同样额度可用 24 倍)
模型 相同 相同
API 协议 相同 相同
API Key 相同 相同

策略:所有重要任务优先使用 newcli-aws,主线路 newcli 作为备用。

⚠️ 服务商声明:严禁分发 AWS 线路地址,发现封禁不退款。

如果觉得这个 Skill 有用,请用我的邀请码注册: https://foxcode.rjj.cc/auth/register?aff=7WTAV8R


前置条件

你需要从 NewCLI 服务获取以下信息:

项目 说明
API Key 格式为 sk-ant-oat01-... 的密钥(三个 provider 共用同一个)
可用模型列表 向服务商确认,或查看账户统计页

注意:NewCLI 的 /v1/models 接口有 Cloudflare 防护,无法通过 curl 直接获取模型列表。请以账户后台的实际统计为准,不要依赖文档中的"支持列表"——文档列出的模型不一定全部对你的账户开放。


第一步:确认可用模型

这一步不能跳过。 不要把文档里列的模型全加上去,要以实际能调通的为准。

1A. 测试 Claude 模型(newcli / newcli-aws)

用 Anthropic messages 格式测试:

# 测试主线路
curl -s --max-time 15 https://code.newcli.com/claude/v1/messages \
  -H "x-api-key: <你的API_KEY>" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{"model":"<MODEL_ID>","messages":[{"role":"user","content":"hi"}],"max_tokens":10}'

# 测试 AWS 特价线路
curl -s --max-time 15 https://code.newcli.com/claude/aws/v1/messages \
  -H "x-api-key: <你的API_KEY>" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{"model":"<MODEL_ID>","messages":[{"role":"user","content":"hi"}],"max_tokens":10}'

注意:baseUrl 中主线路写 /claude,AWS 线路写 /claude/aws(OpenClaw 自动拼接 /v1/messages)。

如果返回正常的 JSON 响应(含 content)= 可用。 如果返回 {"error":{"message":"暂不支持"}}"未开放" = 该模型不可用。

1B. 测试 GPT 模型(newcli-codex)

用 OpenAI completions 格式测试:

curl -s --max-time 15 https://code.newcli.com/codex/v1/chat/completions \
  -H "Authorization: Bearer <你的API_KEY>" \
  -H "Content-Type: application/json" \
  -d '{"model":"<MODEL_ID>","messages":[{"role":"user","content":"hi"}],"max_tokens":10}'

如果返回正常的 JSON 响应(含 choices)= 可用。 如果返回错误或超时 = 该模型不可用。

1C. 测试 Gemini 模型(newcli-gemini)

用 Google Generative AI 格式测试:

curl -s --max-time 15 \
  "https://code.newcli.com/gemini/v1beta/models/<MODEL_ID>:generateContent" \
  -H "x-goog-api-key: <你的API_KEY>" \
  -H "Content-Type: application/json" \
  -d '{"contents":[{"role":"user","parts":[{"text":"hi"}]}]}'

注意:Gemini 端点的 URL 格式与 Claude/GPT 不同——模型名嵌入在 URL 路径中,而不是请求体中。

如果返回正常的 JSON 响应(含 candidates)= 可用。 如果返回 {"error":{"message":"模型未开放"}} = 该模型不可用。

已知可用模型(截至 2026-02-08)

Claude 系列(newcli)

模型 ID 名称 Context 说明
claude-opus-4-6 Claude Opus 4.6 200K 最强,适合复杂任务
claude-haiku-4-5-20251001 Claude Haiku 4.5 200K 轻量快速,适合简单任务

其他模型如 claude-sonnet-4-20250514 等在文档中列出但实测可能返回"未开放",以你账户的实际情况为准。

GPT 系列(newcli-codex)

模型 ID 名称 Context 说明
gpt-5.3-codex GPT-5.3 Codex 128K 最新版本
gpt-5.2 GPT-5.2 128K 基础版
gpt-5.2-codex GPT-5.2 Codex 128K 代码增强版
gpt-5.1 GPT-5.1 128K 基础版
gpt-5.1-codex GPT-5.1 Codex 128K 代码增强版
gpt-5.1-codex-mini GPT-5.1 Codex Mini 128K 轻量版
gpt-5.1-codex-max GPT-5.1 Codex Max 128K 增强版
gpt-5 GPT-5 128K 基础版
gpt-5-codex GPT-5 Codex 128K 代码增强版

Gemini 系列(newcli-gemini)— 文本对话模型

模型 ID 名称 Context reasoning 说明
gemini-3-pro Gemini 3 Pro 1M 最新旗舰
gemini-3-pro-high Gemini 3 Pro High 1M 旗舰增强版
gemini-3-pro-preview Gemini 3 Pro Preview 1M 预览版
gemini-3-flash Gemini 3 Flash 1M 快速版
gemini-3-flash-preview Gemini 3 Flash Preview 1M 快速预览版
gemini-2.5-pro Gemini 2.5 Pro 1M 上一代旗舰
gemini-2.5-flash Gemini 2.5 Flash 1M 上一代快速版
gemini-2.5-flash-lite Gemini 2.5 Flash Lite 1M 轻量版

Gemini 系列(newcli-gemini)— 图片生成模型

这些模型用于生成图片,不要加入 fallback 链,但可以通过 /model 命令手动切换使用。

基础分辨率(默认):

模型 ID 说明
gemini-3-pro-image 默认比例
gemini-3-pro-image-3x2 横向 3:2
gemini-3-pro-image-2x3 纵向 2:3
gemini-3-pro-image-3x4 纵向 3:4
gemini-3-pro-image-4x3 横向 4:3
gemini-3-pro-image-4x5 纵向 4:5
gemini-3-pro-image-5x4 横向 5:4
gemini-3-pro-image-9x16 竖屏 9:16
gemini-3-pro-image-16x9 宽屏 16:9
gemini-3-pro-image-21x9 超宽 21:9

2K 分辨率: 模型 ID 加 -2k 前缀,如 gemini-3-pro-image-2kgemini-3-pro-image-2k-16x9 等。

4K 分辨率: 模型 ID 加 -4k 前缀,如 gemini-3-pro-image-4kgemini-3-pro-image-4k-16x9 等。

⚠️ 图片生成模型不要加入 fallback 链——它们不适合文本对话,放进 fallback 会导致对话请求被错误路由到图片生成模型。需要生图时通过 /model gemini-3-pro-image 手动切换。


第二步:添加 Provider

~/.openclaw/openclaw.jsonmodels.providers 下添加三个 provider。

2A. 添加 newcli(Claude 主线路)

"newcli": {
  "baseUrl": "https://code.newcli.com/claude",
  "apiKey": "<你的API_KEY>",
  "api": "anthropic-messages",
  "authHeader": true,
  "models": [
    {
      "id": "claude-opus-4-6",
      "name": "Claude Opus 4.6",
      "reasoning": false,
      "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 200000,
      "maxTokens": 8192
    },
    {
      "id": "claude-haiku-4-5-20251001",
      "name": "Claude Haiku 4.5",
      "reasoning": false,
      "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 200000,
      "maxTokens": 8192
    }
  ]
}

2B. 添加 newcli-aws(Claude AWS 特价线路)⭐

"newcli-aws": {
  "baseUrl": "https://code.newcli.com/claude/aws",
  "apiKey": "<你的API_KEY>",
  "api": "anthropic-messages",
  "authHeader": true,
  "models": [
    {
      "id": "claude-opus-4-6",
      "name": "Claude Opus 4.6 (AWS)",
      "reasoning": false,
      "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 200000,
      "maxTokens": 8192
    },
    {
      "id": "claude-haiku-4-5-20251001",
      "name": "Claude Haiku 4.5 (AWS)",
      "reasoning": false,
      "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 200000,
      "maxTokens": 8192
    }
  ]
}

与 newcli 的唯一区别baseUrl.../claude 变为 .../claude/aws。模型列表、API Key、协议完全相同。 推荐:重要 Agent(如运维、评审)优先使用 newcli-aws,主线路 newcli 作为备用。

2C. 添加 newcli-codex(GPT 系列)

"newcli-codex": {
  "baseUrl": "https://code.newcli.com/codex/v1",
  "apiKey": "<你的API_KEY>",
  "api": "openai-completions",
  "models": [
    {
      "id": "gpt-5.3-codex", "name": "GPT-5.3 Codex",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5.2", "name": "GPT-5.2",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5.2-codex", "name": "GPT-5.2 Codex",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5.1", "name": "GPT-5.1",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5.1-codex", "name": "GPT-5.1 Codex",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5.1-codex-mini", "name": "GPT-5.1 Codex Mini",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5.1-codex-max", "name": "GPT-5.1 Codex Max",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5", "name": "GPT-5",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    },
    {
      "id": "gpt-5-codex", "name": "GPT-5 Codex",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 128000, "maxTokens": 8192
    }
  ]
}

2D. 添加 newcli-gemini(Gemini 系列)

"newcli-gemini": {
  "baseUrl": "https://code.newcli.com/gemini/v1beta",
  "apiKey": "<你的API_KEY>",
  "api": "google-generative-ai",
  "models": [
    {
      "id": "gemini-3-pro", "name": "Gemini 3 Pro",
      "reasoning": true, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    },
    {
      "id": "gemini-3-pro-high", "name": "Gemini 3 Pro High",
      "reasoning": true, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    },
    {
      "id": "gemini-3-pro-preview", "name": "Gemini 3 Pro Preview",
      "reasoning": true, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    },
    {
      "id": "gemini-3-flash", "name": "Gemini 3 Flash",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    },
    {
      "id": "gemini-3-flash-preview", "name": "Gemini 3 Flash Preview",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    },
    {
      "id": "gemini-2.5-pro", "name": "Gemini 2.5 Pro",
      "reasoning": true, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    },
    {
      "id": "gemini-2.5-flash", "name": "Gemini 2.5 Flash",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    },
    {
      "id": "gemini-2.5-flash-lite", "name": "Gemini 2.5 Flash Lite",
      "reasoning": false, "input": ["text"],
      "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
      "contextWindow": 1000000, "maxTokens": 65536
    }
  ]
}

四个 provider 的关键差异

参数 newcli (Claude) newcli-aws (Claude AWS) newcli-codex (GPT) newcli-gemini (Gemini)
baseUrl .../claude .../claude/aws .../codex/v1 .../gemini/v1beta
api anthropic-messages anthropic-messages openai-completions google-generative-ai
authHeader true true 默认(Bearer) 默认(x-goog-api-key
apiKey 相同 相同 相同 相同
额度消耗 1x 1/24x 1x 1x
contextWindow 200K 200K 128K 1M
maxTokens 8192 8192 8192 65536

只添加你确认可用的模型

错误做法:把文档里所有模型都堆上去 正确做法:只添加第一步中测试通过的模型

添加不存在的模型不会导致崩溃,但 fallback 到它时会浪费一次请求超时,影响响应速度。


第三步:配置别名

agents.defaults.models 下为新模型添加别名,方便在聊天中用短名切换:

{
  "agents": {
    "defaults": {
      "models": {
        "newcli/claude-opus-4-6": { "alias": "claude-opus" },
        "newcli/claude-haiku-4-5-20251001": { "alias": "claude-haiku" },
        "newcli-aws/claude-opus-4-6": { "alias": "claude-opus-aws" },
        "newcli-aws/claude-haiku-4-5-20251001": { "alias": "claude-haiku-aws" },
        "newcli-codex/gpt-5.3-codex": { "alias": "gpt53" },
        "newcli-codex/gpt-5.2": { "alias": "gpt52" },
        "newcli-codex/gpt-5.2-codex": { "alias": "gpt52codex" },
        "newcli-codex/gpt-5.1": { "alias": "gpt51" },
        "newcli-codex/gpt-5.1-codex": { "alias": "gpt51codex" },
        "newcli-codex/gpt-5.1-codex-mini": { "alias": "gpt51mini" },
        "newcli-codex/gpt-5.1-codex-max": { "alias": "gpt51max" },
        "newcli-codex/gpt-5": { "alias": "gpt5" },
        "newcli-codex/gpt-5-codex": { "alias": "gpt5codex" },
        "newcli-gemini/gemini-3-pro": { "alias": "gemini3pro" },
        "newcli-gemini/gemini-3-pro-high": { "alias": "gemini3prohigh" },
        "newcli-gemini/gemini-3-pro-preview": { "alias": "gemini3preview" },
        "newcli-gemini/gemini-3-flash": { "alias": "gemini3flash" },
        "newcli-gemini/gemini-3-flash-preview": { "alias": "gemini3flashpreview" },
        "newcli-gemini/gemini-2.5-pro": { "alias": "gemini25pro" },
        "newcli-gemini/gemini-2.5-flash": { "alias": "gemini25flash" },
        "newcli-gemini/gemini-2.5-flash-lite": { "alias": "gemini25lite" }
      }
    }
  }
}

配置后用户可以在聊天中用 /model claude-opus/model gpt53/model gemini3pro 切换模型。

⚠️ 别名配置的唯一合法字段是 alias

agents.defaults.models.<model-id>.alias     <-- 唯一合法字段
agents.defaults.models.<model-id>.reasoning <-- 非法!会导致 Gateway 崩溃!
agents.defaults.models.<model-id>.xxx       <-- 任何其他字段都非法!

这是一个已经发生过的事故:在别名配置里加了 "reasoning": true 导致 schema 校验失败,Gateway 崩溃循环 181 次。模型能力属性只能放在 models.providers 的模型定义里,不能放在别名里。


第四步:接入 Fallback 链

agents.defaults.model.fallbacks 中把新模型加到合适的位置:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "minimax/MiniMax-M2.1",
        "fallbacks": [
          "newcli-aws/claude-haiku-4-5-20251001",
          "minimax/MiniMax-M2.1",
          "deepseek/deepseek-chat",
          "qwen-portal/coder-model",
          "newcli/claude-haiku-4-5-20251001",
          "newcli-gemini/gemini-2.5-flash-lite",
          "deepseek/deepseek-reasoner",
          "qwen-portal/vision-model"
        ]
      }
    }
  }
}

Fallback 排序原则

AWS 线路优先,DeepSeek 兜底

位置 模型 为什么选它
1 newcli-aws/claude-haiku ⭐ AWS 线路,消耗 1/24
2 minimax/MiniMax-M2.1 月费 (100 prompts/5h)
3 deepseek/deepseek-chat DeepSeek 按量付费
4 qwen-portal/coder-model Qwen 免费 2000/天
5 newcli/claude-haiku 主线路备用
6 newcli-gemini/gemini-2.5-flash-lite Gemini 最轻量
7 deepseek/deepseek-reasoner reasoning 备用
8 qwen-portal/vision-model vision 备用

其他模型(Claude Opus、GPT-5.3、Gemini 3 Pro 等高端模型)不放 fallback 链,需要时通过 /model <别名> 手动切换。图片生成模型绝不放入 fallback 链。


第五步:验证

5.1 JSON 语法检查

python3 -c "import json; json.load(open('$HOME/.openclaw/openclaw.json')); print('JSON OK')"

5.2 Schema 校验

openclaw doctor

如果输出包含 Unrecognized key 就说明有非法字段,必须修复后才能重启

5.3 重启 Gateway

# macOS
launchctl kickstart -k gui/$(id -u)/ai.openclaw.gateway

# 等 3 秒后确认状态
sleep 3
launchctl print gui/$(id -u)/ai.openclaw.gateway | grep -E "job state|last exit"

期望看到:

last exit code = 0
job state = running

如果 last exit code = 1job state 不是 running,检查错误日志:

tail -20 ~/.openclaw/logs/gateway.err.log

5.4 功能验证

在任意已绑定的聊天中测试三个 provider:

/model claude-opus    # 测试 Claude
/model gpt53          # 测试 GPT
/model gemini3pro     # 测试 Gemini
/model Minimax        # 切回主力

排障

问题:所有模型都返回"暂不支持"

  • 可能原因 1:API Key 过期或余额不足 → 登录 NewCLI 后台检查
  • 可能原因 2:并发限制,已有其他客户端占用 → 关闭其他使用同一 Key 的进程
  • 可能原因 3:服务临时维护 → 稍后再试

问题:Gateway 启动后立刻崩溃

  • 最可能原因:配置中有非法字段
  • 诊断tail -20 ~/.openclaw/logs/gateway.err.log,找 Unrecognized key
  • 修复:删除非法字段,或运行 openclaw doctor --fix

问题:部分 provider 能用,部分不行

先检查 baseUrl 和 api 协议是否匹配

Provider 正确 baseUrl 正确 api
newcli https://code.newcli.com/claude anthropic-messages
newcli-aws https://code.newcli.com/claude/aws anthropic-messages
newcli-codex https://code.newcli.com/codex/v1 openai-completions
newcli-gemini https://code.newcli.com/gemini/v1beta google-generative-ai

检查 apiKey:四个 provider 应使用相同的 Key。

问题:模型能切换但回复为空或报错

  • Claude (newcli)
    • 正确 baseUrl:https://code.newcli.com/claude(OpenClaw 自动拼接 /v1/messages
    • 错误:https://code.newcli.com/claude/v1(变成 /claude/v1/v1/messages
  • GPT (newcli-codex)
    • 正确 baseUrl:https://code.newcli.com/codex/v1(OpenClaw 自动拼接 /chat/completions
    • 错误:https://code.newcli.com/codex/v1/chat/completions(重复拼接)
  • Gemini (newcli-gemini)
    • 正确 baseUrl:https://code.newcli.com/gemini/v1beta(OpenClaw 自动拼接 /models/<id>:streamGenerateContent
    • 错误:https://code.newcli.com/gemini(缺少 /v1beta
    • 错误:https://code.newcli.com/gemini/v1beta/models(重复 /models

问题:GPT 模型返回 "403 Your request was blocked"

  • 原因:NewCLI 的 Codex 端点有 Cloudflare WAF 防护,当 OpenClaw 发送大 context(>100K tokens)请求时容易触发拦截
  • 现象:curl 小请求能通,但 OpenClaw 实际使用时被 403
  • 临时方案:暂不将 GPT 模型放入 fallback 链,避免浪费 failover 时间;需要时通过 /model gpt53 手动切换,小 context 场景下可能可用
  • 根本解决:联系 NewCLI 服务商确认 Codex 端点的 Cloudflare 规则

问题:Gemini 返回 "Request contains an invalid argument"

  • 确保 api 字段为 "google-generative-ai",不是 "openai-completions"
  • OpenClaw 会自动构造正确的 Google Generative AI 格式请求

变更记录

日期 版本 变更内容 变更人
2026-02-08 v1.0 创建 NewCLI provider 配置指南(Claude 系列) jooey (via Claude Code)
2026-02-08 v2.0 合并 newcli-codex (GPT 系列) 配置指南 ConfigBot (via OpenClaw with Opus 4.6)
2026-02-08 v3.0 合并 newcli-gemini (Gemini 系列) 配置指南 ConfigBot (via OpenClaw with Opus 4.6)
2026-02-08 v3.1 添加 Gemini 生图模型;精简 fallback 链(每 provider 一个最轻量模型) ConfigBot (via OpenClaw with Opus 4.6)
2026-02-08 v3.2 记录 GPT 403 问题;从 fallback 链移除 GPT 模型 ConfigBot (via OpenClaw with Opus 4.6)
2026-02-08 v4.0 新增 newcli-aws provider(AWS 特价线路,消耗 1/24);更新 fallback 策略;更新额度信息 ConfigBot (via OpenClaw with Opus 4.6)

Reviews (0)

Sign in to write a review.

No reviews yet. Be the first to review!

Comments (0)

Sign in to join the discussion.

No comments yet. Be the first to share your thoughts!

Compatible Platforms

Pricing

Free

Related Configs