1347 字
7 分钟
在Claude Code CLI中使用Codex模型

1. 碎碎念#

真不是我不想用AnthropicOpus模型,只不过A社额度给得低不说,还爱封大陆这边的号,封号是最难以接受的。

国内Kimi2.5GLM5.0其实做的也还可以,但距离市面上的顶尖模型还是差了一个Level,至于DeepSeek……便宜,傻快就是它的全部优势,我只有做I18n翻译这一块会用到它。

Gemini 3 Pro / Flash也不知道Google在干什么,在2.5 Pro时代俨然算是好用,但上了Version 3 后实在是一言难尽,那个奇怪的注意力机制以及对比别家稀碎的coding能力,也就只有总结文档、审阅小说单章上还行。 而且Gemini你可以明显感觉到降智严重,不管是API还是Ai.studio,都不如刚出来时候那会。

还有谁呢?哦,GPT

其实我对OpenAI的东西一直以来都不太感冒,GPT-5.2-Codex或者5.2,各种思维都用过,感觉在对比Opus4.5上,写前端代码的能力确实远不如A社,但是对于推理来说xhigh的思维一开准确度确实可圈可点,Opus4.5车轱辘来车轱辘去解决不了的问题,用gpt-5.2开个xhigh虽然做的很慢,但它真能搞定。

现在已经迈入了gpt-5.3-codex vs opus-4-6-thinking时代,两家产品都有了明显的进步,哪个好用嘛,网上测评也够多了。

某天我闲着没事干想了想,既然Claude Code CLI能够直接接中转,那我接别的模型行不行呢?

2. 工具链支持#

很多CLI工具链基本只对自家的模型做了匹配,毕竟工具链就是配合自家模型用的,不过令人惊喜的是,OpenAI在这块解开了限制。

既然确认可以做,随之而来的就是报文的解析以及翻译,这又是新的dirty工程了。

Github搜寻一圈后,找了个更新频繁,支持最全的开源项目CLIProxyAPI

注意这个工具的文档并不是很实时,使用的过程中需要自己做简单的校验,有一定的上手门槛。

不懂在干什么?其实就是干下面的事情:

Codex -> CLIProxyAPI -> 兼容Anthropic的中转服务 -> Claude Code CLI

这样就达成了使用Claude Code CLI调用Codex干活的目标,不是A家自己的模型调用Codex mcp的玩法,是实实在在的直接让Codex当驾驶员。

3. 实现#

其实CLIProxyAPI项目的文档已经说的很明白,不过你懒得看的话,可以直接往下看。

请注意,当前文章撰写时所在的日期为2026-02-15CLIProxyAPI最新的版本为6.8.16,请根据自身项目实际情况对配置的有效性做检查。

我是用的CodexRightcodes提供的第三方中转服务,比较常见的轮询GPT Team号池,且自家做了缓存命中的一个平台,在节省Token上有一定优势。

不管你是官方还是第三方中转,反正你总得拿到

  • base_url: 接入的url
  • api_key: 接入的key

简单地放入CLIProxyAPI项目的配置文件config.yaml中,如下:

port: 8317
# 如果你有暴露面板在公网的需求,建议你去文档那边了解一下需要提供的配置,走https。
tls:
enable: false
remote-management:
#开启ui面板
allow-remote: true
# 这玩意儿你改了后它会自己被加密后写回来,是你的面板密码,保障你的面板安全。
secret-key: $2a$10$CTFOJERm23coV4.sE08ww.seVLeNLA29aP/gxrFiSmQ7Zu/G4gqFK
disable-control-panel: false
panel-github-repository: https://github.com/router-for-me/Cli-Proxy-API-Management-Center
auth-dir: ~/.cli-proxy-api
# 对外提供服务时,允许接入的api_key
api-keys:
- sk-1234
debug: true
codex-api-key:
# 这里填写你 Codex 服务的实际运行地址。
- base-url: "?"
# api_key
api-key: "?"
# 这个,其实最好自己去从gemini那边拿一个key过来使用,免费的,后面你就知道为什么了。
gemini-api-key:
- api-key: "?" # 填入你从 AI Studio 拿到的 Key
# 以下是默认配置
20 collapsed lines
pprof:
enable: false
addr: 127.0.0.1:8316
commercial-mode: false
logging-to-file: false
logs-max-total-size-mb: 0
error-logs-max-files: 10
usage-statistics-enabled: false
# 如果你有走代理的需求,可以填入(这是Clash Verge Rev的端口),不需要的话注释下面这行即可。
proxy-url: socks5://127.0.0.1:7897
force-model-prefix: false
request-retry: 3
max-retry-interval: 30
quota-exceeded:
switch-project: true
switch-preview-model: true
routing:
strategy: round-robin
ws-auth: false
nonstream-keepalive-interval: 0

然后开启服务即可,不懂怎么做请参考文档

然后则是配置Claude Code CLI工具链使用CLIProxyAPI中反代出来的服务。

找到settings.json

还记得之前提到的geminiapi_key么?其实就是翻译A社调用HAIKU模型使用的,这种模型在A社的工具链里面,一般是用于执行获取文件信息、标题提取之类的轻量功能,现在用gemini-2.5-flash-lite来替代。

mcp仅推荐两个,一个是github,做仓库的操作。一个是context7,用于模型实时查阅资料。

有插件需求的,可以考虑everything-claude-code这个开源项目

{
"env": {
"ANTHROPIC_API_KEY": "sk-1234",
"ANTHROPIC_BASE_URL": "http://127.0.0.1:8317",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.3-codex(xhigh)",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.3-codex(high)",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "gemini-2.5-flash-lite"
},
"permissions": {
"allow": ["Bash(docker info:*)"]
},
"model": "claude-opus-4-6",
"mcpServers": {
"context7": {
"args": ["dlx", "@context7/mcp-server"],
14 collapsed lines
"command": "pnpm"
},
"github": {
"args": ["dlx", "@modelcontextprotocol/server-github"],
"command": "pnpm",
"env": {
"GITHUB_PERSONAL_ACCESS_TOKEN": "${GITHUB_PERSONAL_ACCESS_TOKEN}"
}
}
}
}

然后就可以愉快地在Claude Code CLI中使用Codex啦。

如果有在VS Code中使用Claude Code插件的需求:

对于使用了Native Claude Code CLI的用户,建议配置变更后,使用claude install,这样配置就可以自动同步至插件。

在Claude Code CLI中使用Codex模型
https://blog.astro777.cfd/posts/coding/using-codex-in-claude-code-cli/
作者
ASTRO
发布于
2026-02-15
许可协议
CC BY-NC-SA 4.0