跳转到主内容
医点 AI医点 AI

OpenAI Codex CLI — 终端 AI 编程助手指南

OpenAI Codex CLI — 终端 AI 编程助手指南

OpenAI 开源的终端编程 Agent,在命令行里用自然语言写代码、改代码、跑命令。


一、它是什么?

Codex CLI 是 OpenAI 在 2025 年开源的命令行 AI 编程助手。它和 Claude Code 是同类工具 —— 在终端里直接和 AI 对话,AI 可以读文件、写代码、执行命令。

GitHub 仓库: https://github.com/openai/codex

特色: 沙箱安全机制,三档自主权模式(建议 / 自动编辑 / 全自动)。


二、安装

2.1 前置条件

  • Node.js >= 22(注意:比 Claude Code 要求更高)
  • macOS 或 Linux(Windows 需使用 WSL2)
  • Git

2.2 安装 Node.js 22

# 使用 nvm
nvm install 22
nvm use 22

# 验证版本
node --version   # 应该是 v22.x.x
国内用户
export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node
nvm install 22

2.3 安装 Codex CLI

# 全局安装
npm install -g @openai/codex

# 运行
codex
国内用户安装(无 VPN)
# 使用淘宝镜像
npm install -g @openai/codex --registry=https://registry.npmmirror.com

# 或永久设置镜像
npm config set registry https://registry.npmmirror.com
npm install -g @openai/codex

2.4 免安装运行

npx @openai/codex

三、配置

3.1 API Key

# 设置 OpenAI API Key
export OPENAI_API_KEY="sk-xxxxxxxxxxxxxxxx"

# 写入配置文件
echo 'export OPENAI_API_KEY="sk-xxxxxxxxxxxxxxxx"' >> ~/.zshrc
source ~/.zshrc

首次运行如果没有检测到 Key,会交互式提示你输入。

3.2 自定义 API 地址

# 指向第三方 OpenAI 兼容 API
export OPENAI_BASE_URL="https://your-provider.com/v1"
export OPENAI_API_KEY="your-key"
codex

3.3 指定模型

codex --model o4-mini "修复这个 bug"
codex --model gpt-4o "解释这段代码"

默认模型是 o4-mini(OpenAI 的代码优化推理模型)。

3.4 配置文件

配置文件位于 ~/.codex/ 目录下。

3.5 项目指令

在项目根目录创建 AGENTS.md 文件(类似 Claude Code 的 CLAUDE.md),定制 AI 对该项目的行为。


四、三档自主权模式

这是 Codex CLI 的特色功能 —— 你可以控制 AI 的自主程度:

模式说明适用场景
suggestAI 只建议,不执行。每一步都需要你确认学习、审查
auto-editAI 可以自动读写文件,但执行命令前会询问日常开发(推荐)
full-autoAI 全自动执行所有操作,依赖沙箱保证安全信任度高的任务
# 安全模式
codex --approval-mode suggest "解释这个项目"

# 自动编辑模式
codex --approval-mode auto-edit "重构这个函数"

# 全自动模式
codex --approval-mode full-auto "修复所有失败的测试"

五、沙箱安全机制

Codex CLI 的核心卖点之一 —— 即使全自动模式也不怕 AI 搞破坏:

平台沙箱技术
macOSApple Seatbelt(sandbox-exec
LinuxDocker 容器隔离

沙箱限制:

  • AI 只能访问项目目录内的文件
  • 默认禁止网络访问
  • 无法修改系统文件

六、使用国产模型

Codex CLI 原生支持 OpenAI 兼容 API,配置很简单:

6.1 DeepSeek(推荐)

export OPENAI_API_KEY="sk-your-deepseek-key"
export OPENAI_BASE_URL="https://api.deepseek.com/v1"
codex --model deepseek-chat "帮我优化这段代码"

6.2 智谱 GLM

export OPENAI_API_KEY="your-glm-key"
export OPENAI_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
codex --model glm-4-plus "分析这个项目结构"

6.3 通义千问 Qwen

export OPENAI_API_KEY="sk-your-dashscope-key"
export OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
codex --model qwen-max "添加输入校验"

6.4 月之暗面 Kimi

export OPENAI_API_KEY="sk-your-moonshot-key"
export OPENAI_BASE_URL="https://api.moonshot.cn/v1"
codex --model moonshot-v1-128k "review 这段代码"

6.5 硅基流动(聚合多模型)

export OPENAI_API_KEY="sk-your-siliconflow-key"
export OPENAI_BASE_URL="https://api.siliconflow.cn/v1"
codex --model deepseek-ai/DeepSeek-V3 "修复这个 bug"
兼容性提示

Codex CLI 依赖 OpenAI 的**工具调用(function calling)**能力。模型需要支持此功能才能正常读写文件。DeepSeekQwen 的兼容性最好。


七、国内用户访问 OpenAI API

如果要使用 OpenAI 原版模型(o4-mini、GPT-4o 等):

方案一:代理

export HTTPS_PROXY="http://127.0.0.1:7890"
export OPENAI_API_KEY="sk-xxxx"
codex

方案二:直接用国产模型

参见上方第六节,完全不需要访问 OpenAI。

方案三:API 中转

使用 one-api / new-api 等网关工具统一管理,参见 Claude Code 终端 AI 编程助手指南。


八、常用命令

# 基本对话
codex "这个项目是做什么的?"

# 修复 bug
codex "修复 utils.py 中的 TypeError"

# 生成代码
codex "给注册表单添加输入校验"

# 指定模型
codex --model o4-mini "重构这个函数"

# 安静模式(减少输出)
codex -q "添加错误处理"

# 查看帮助
codex --help

总结

Codex CLI 的最大优势:

  1. 沙箱安全 —— 全自动模式也不怕 AI 搞破坏
  2. 三档自主权 —— 灵活控制 AI 的自主程度
  3. 原生 OpenAI 兼容 —— 接入国产模型非常简单
  4. 开源免费 —— Apache 2.0 协议

国内用户推荐直接使用 DeepSeekQwen,无需任何代理。


参考链接

评论

登录 后发表评论
加载评论中...
AI 助手