1. 碎碎念
真不是我不想用Anthropic的Opus模型,只不过A社额度给得低不说,还爱封大陆这边的号,封号是最难以接受的。
国内Kimi2.5,GLM5.0其实做的也还可以,但距离市面上的顶尖模型还是差了一个Level,至于DeepSeek……便宜,傻快就是它的全部优势,我只有做I18n翻译这一块会用到它。
Gemini 3 Pro / Flash也不知道Google在干什么,在2.5 Pro时代俨然算是好用,但上了Version 3 后实在是一言难尽,那个奇怪的注意力机制以及对比别家稀碎的coding能力,也就只有总结文档、审阅小说单章上还行。
而且Gemini你可以明显感觉到降智严重,不管是API还是Ai.studio,都不如刚出来时候那会。
还有谁呢?哦,GPT。
其实我对OpenAI的东西一直以来都不太感冒,GPT-5.2-Codex或者5.2,各种思维都用过,感觉在对比Opus4.5上,写前端代码的能力确实远不如A社,但是对于推理来说xhigh的思维一开准确度确实可圈可点,Opus4.5车轱辘来车轱辘去解决不了的问题,用gpt-5.2开个xhigh虽然做的很慢,但它真能搞定。
现在已经迈入了gpt-5.3-codex vs opus-4-6-thinking时代,两家产品都有了明显的进步,哪个好用嘛,网上测评也够多了。
某天我闲着没事干想了想,既然Claude Code CLI能够直接接中转,那我接别的模型行不行呢?
2. 工具链支持
很多CLI工具链基本只对自家的模型做了匹配,毕竟工具链就是配合自家模型用的,不过令人惊喜的是,OpenAI在这块解开了限制。
既然确认可以做,随之而来的就是报文的解析以及翻译,这又是新的dirty工程了。
在Github搜寻一圈后,找了个更新频繁,支持最全的开源项目CLIProxyAPI。
注意这个工具的文档并不是很实时,使用的过程中需要自己做简单的校验,有一定的上手门槛。
不懂在干什么?其实就是干下面的事情:
Codex -> CLIProxyAPI -> 兼容Anthropic的中转服务 -> Claude Code CLI
这样就达成了使用Claude Code CLI调用Codex干活的目标,不是A家自己的模型调用Codex mcp的玩法,是实实在在的直接让Codex当驾驶员。
3. 实现
其实CLIProxyAPI项目的文档已经说的很明白,不过你懒得看的话,可以直接往下看。
请注意,当前文章撰写时所在的日期为
2026-02-15,CLIProxyAPI最新的版本为6.8.16,请根据自身项目实际情况对配置的有效性做检查。
我是用的Codex是Rightcodes提供的第三方中转服务,比较常见的轮询GPT Team号池,且自家做了缓存命中的一个平台,在节省Token上有一定优势。
不管你是官方还是第三方中转,反正你总得拿到
- base_url: 接入的url
- api_key: 接入的key
简单地放入CLIProxyAPI项目的配置文件config.yaml中,如下:
port: 8317# 如果你有暴露面板在公网的需求,建议你去文档那边了解一下需要提供的配置,走https。tls: enable: falseremote-management: #开启ui面板 allow-remote: true # 这玩意儿你改了后它会自己被加密后写回来,是你的面板密码,保障你的面板安全。 secret-key: $2a$10$CTFOJERm23coV4.sE08ww.seVLeNLA29aP/gxrFiSmQ7Zu/G4gqFK disable-control-panel: false panel-github-repository: https://github.com/router-for-me/Cli-Proxy-API-Management-Centerauth-dir: ~/.cli-proxy-api# 对外提供服务时,允许接入的api_keyapi-keys: - sk-1234debug: truecodex-api-key: # 这里填写你 Codex 服务的实际运行地址。 - base-url: "?" # api_key api-key: "?"# 这个,其实最好自己去从gemini那边拿一个key过来使用,免费的,后面你就知道为什么了。gemini-api-key: - api-key: "?" # 填入你从 AI Studio 拿到的 Key
# 以下是默认配置20 collapsed lines
pprof: enable: false addr: 127.0.0.1:8316commercial-mode: falselogging-to-file: falselogs-max-total-size-mb: 0error-logs-max-files: 10usage-statistics-enabled: false# 如果你有走代理的需求,可以填入(这是Clash Verge Rev的端口),不需要的话注释下面这行即可。proxy-url: socks5://127.0.0.1:7897force-model-prefix: falserequest-retry: 3max-retry-interval: 30quota-exceeded: switch-project: true switch-preview-model: truerouting: strategy: round-robinws-auth: falsenonstream-keepalive-interval: 0然后开启服务即可,不懂怎么做请参考文档
然后则是配置Claude Code CLI工具链使用CLIProxyAPI中反代出来的服务。
找到settings.json:
还记得之前提到的gemini的api_key么?其实就是翻译A社调用HAIKU模型使用的,这种模型在A社的工具链里面,一般是用于执行获取文件信息、标题提取之类的轻量功能,现在用gemini-2.5-flash-lite来替代。
mcp仅推荐两个,一个是github,做仓库的操作。一个是context7,用于模型实时查阅资料。
有插件需求的,可以考虑everything-claude-code这个开源项目
{ "env": { "ANTHROPIC_API_KEY": "sk-1234",
"ANTHROPIC_BASE_URL": "http://127.0.0.1:8317",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.3-codex(xhigh)",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.3-codex(high)",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "gemini-2.5-flash-lite" },
"permissions": { "allow": ["Bash(docker info:*)"] },
"model": "claude-opus-4-6",
"mcpServers": { "context7": { "args": ["dlx", "@context7/mcp-server"],
14 collapsed lines
"command": "pnpm" },
"github": { "args": ["dlx", "@modelcontextprotocol/server-github"],
"command": "pnpm",
"env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "${GITHUB_PERSONAL_ACCESS_TOKEN}" } } }}然后就可以愉快地在Claude Code CLI中使用Codex啦。
如果有在VS Code中使用Claude Code插件的需求:
对于使用了Native
Claude Code CLI的用户,建议配置变更后,使用claude install,这样配置就可以自动同步至插件。