OpenAI Codex CLI — 终端 AI 编程助手指南
OpenAI Codex CLI — 终端 AI 编程助手指南
OpenAI 开源的终端编程 Agent,在命令行里用自然语言写代码、改代码、跑命令。
一、它是什么?
Codex CLI 是 OpenAI 在 2025 年开源的命令行 AI 编程助手。它和 Claude Code 是同类工具 —— 在终端里直接和 AI 对话,AI 可以读文件、写代码、执行命令。
GitHub 仓库: https://github.com/openai/codex
特色: 沙箱安全机制,三档自主权模式(建议 / 自动编辑 / 全自动)。
二、安装
2.1 前置条件
- Node.js >= 22(注意:比 Claude Code 要求更高)
- macOS 或 Linux(Windows 需使用 WSL2)
- Git
2.2 安装 Node.js 22
# 使用 nvm
nvm install 22
nvm use 22
# 验证版本
node --version # 应该是 v22.x.x
国内用户export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node nvm install 22
2.3 安装 Codex CLI
# 全局安装
npm install -g @openai/codex
# 运行
codex
国内用户安装(无 VPN)# 使用淘宝镜像 npm install -g @openai/codex --registry=https://registry.npmmirror.com # 或永久设置镜像 npm config set registry https://registry.npmmirror.com npm install -g @openai/codex
2.4 免安装运行
npx @openai/codex
三、配置
3.1 API Key
# 设置 OpenAI API Key
export OPENAI_API_KEY="sk-xxxxxxxxxxxxxxxx"
# 写入配置文件
echo 'export OPENAI_API_KEY="sk-xxxxxxxxxxxxxxxx"' >> ~/.zshrc
source ~/.zshrc
首次运行如果没有检测到 Key,会交互式提示你输入。
3.2 自定义 API 地址
# 指向第三方 OpenAI 兼容 API
export OPENAI_BASE_URL="https://your-provider.com/v1"
export OPENAI_API_KEY="your-key"
codex
3.3 指定模型
codex --model o4-mini "修复这个 bug"
codex --model gpt-4o "解释这段代码"
默认模型是 o4-mini(OpenAI 的代码优化推理模型)。
3.4 配置文件
配置文件位于 ~/.codex/ 目录下。
3.5 项目指令
在项目根目录创建 AGENTS.md 文件(类似 Claude Code 的 CLAUDE.md),定制 AI 对该项目的行为。
四、三档自主权模式
这是 Codex CLI 的特色功能 —— 你可以控制 AI 的自主程度:
| 模式 | 说明 | 适用场景 |
|---|---|---|
| suggest | AI 只建议,不执行。每一步都需要你确认 | 学习、审查 |
| auto-edit | AI 可以自动读写文件,但执行命令前会询问 | 日常开发(推荐) |
| full-auto | AI 全自动执行所有操作,依赖沙箱保证安全 | 信任度高的任务 |
# 安全模式
codex --approval-mode suggest "解释这个项目"
# 自动编辑模式
codex --approval-mode auto-edit "重构这个函数"
# 全自动模式
codex --approval-mode full-auto "修复所有失败的测试"
五、沙箱安全机制
Codex CLI 的核心卖点之一 —— 即使全自动模式也不怕 AI 搞破坏:
| 平台 | 沙箱技术 |
|---|---|
| macOS | Apple Seatbelt(sandbox-exec) |
| Linux | Docker 容器隔离 |
沙箱限制:
- AI 只能访问项目目录内的文件
- 默认禁止网络访问
- 无法修改系统文件
六、使用国产模型
Codex CLI 原生支持 OpenAI 兼容 API,配置很简单:
6.1 DeepSeek(推荐)
export OPENAI_API_KEY="sk-your-deepseek-key"
export OPENAI_BASE_URL="https://api.deepseek.com/v1"
codex --model deepseek-chat "帮我优化这段代码"
6.2 智谱 GLM
export OPENAI_API_KEY="your-glm-key"
export OPENAI_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
codex --model glm-4-plus "分析这个项目结构"
6.3 通义千问 Qwen
export OPENAI_API_KEY="sk-your-dashscope-key"
export OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
codex --model qwen-max "添加输入校验"
6.4 月之暗面 Kimi
export OPENAI_API_KEY="sk-your-moonshot-key"
export OPENAI_BASE_URL="https://api.moonshot.cn/v1"
codex --model moonshot-v1-128k "review 这段代码"
6.5 硅基流动(聚合多模型)
export OPENAI_API_KEY="sk-your-siliconflow-key"
export OPENAI_BASE_URL="https://api.siliconflow.cn/v1"
codex --model deepseek-ai/DeepSeek-V3 "修复这个 bug"
兼容性提示Codex CLI 依赖 OpenAI 的**工具调用(function calling)**能力。模型需要支持此功能才能正常读写文件。DeepSeek 和 Qwen 的兼容性最好。
七、国内用户访问 OpenAI API
如果要使用 OpenAI 原版模型(o4-mini、GPT-4o 等):
方案一:代理
export HTTPS_PROXY="http://127.0.0.1:7890"
export OPENAI_API_KEY="sk-xxxx"
codex
方案二:直接用国产模型
参见上方第六节,完全不需要访问 OpenAI。
方案三:API 中转
使用 one-api / new-api 等网关工具统一管理,参见 Claude Code 终端 AI 编程助手指南。
八、常用命令
# 基本对话
codex "这个项目是做什么的?"
# 修复 bug
codex "修复 utils.py 中的 TypeError"
# 生成代码
codex "给注册表单添加输入校验"
# 指定模型
codex --model o4-mini "重构这个函数"
# 安静模式(减少输出)
codex -q "添加错误处理"
# 查看帮助
codex --help
总结Codex CLI 的最大优势:
- 沙箱安全 —— 全自动模式也不怕 AI 搞破坏
- 三档自主权 —— 灵活控制 AI 的自主程度
- 原生 OpenAI 兼容 —— 接入国产模型非常简单
- 开源免费 —— Apache 2.0 协议
国内用户推荐直接使用 DeepSeek 或 Qwen,无需任何代理。
参考链接