Claude Code — 终端 AI 编程助手指南
Claude Code — 终端 AI 编程助手指南
Anthropic 官方出品的终端 AI 编程工具,直接在命令行里和 Claude 对话、写代码、改文件、跑命令。
一、它是什么?
Claude Code 是 Anthropic 推出的命令行 AI 编程助手。它不是一个编辑器插件,而是直接运行在终端里的 Agent —— 你用自然语言告诉它要做什么,它会自动读文件、改代码、执行命令、管理 Git。
核心能力:
| 能力 | 说明 |
|---|---|
| 读写文件 | 自动读取、创建、编辑项目中的任何文件 |
| 执行命令 | 在终端运行 shell 命令(需你授权) |
| Git 操作 | 提交、推送、创建分支、生成 PR |
| MCP 扩展 | 通过 MCP 协议连接外部工具和数据源 |
| 多文件编辑 | 跨文件理解和修改代码 |
| 自定义指令 | 通过 CLAUDE.md 定制项目级行为 |
二、安装
2.1 前置条件
- Node.js >= 18(推荐 20 或 22 LTS)
- macOS 或 Linux(Windows 需使用 WSL2)
2.2 安装 Node.js
# 方式一:使用 nvm(推荐)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
source ~/.zshrc
nvm install 22
nvm use 22
# 方式二:使用 Homebrew(macOS)
brew install node@22
国内用户安装 Node.jsnvm 默认从国外下载,速度较慢。可配置国内镜像:
export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node nvm install 22
2.3 安装 Claude Code
# 全局安装(推荐)
npm install -g @anthropic-ai/claude-code
# 安装完成后运行
claude
国内用户安装(无 VPN)npm 默认源
registry.npmjs.org在国内可能很慢或无法访问。使用国内镜像:# 方法一:临时使用镜像(推荐) npm install -g @anthropic-ai/claude-code --registry=https://registry.npmmirror.com # 方法二:永久切换镜像 npm config set registry https://registry.npmmirror.com npm install -g @anthropic-ai/claude-code # 方法三:使用 nrm 管理镜像源 npm install -g nrm --registry=https://registry.npmmirror.com nrm use taobao npm install -g @anthropic-ai/claude-code其他可用镜像:
镜像 地址 npmmirror(淘宝) https://registry.npmmirror.com腾讯 https://mirrors.tencent.com/npm/华为 https://repo.huaweicloud.com/repository/npm/
2.4 免安装运行
npx @anthropic-ai/claude-code
2.5 更新
npm update -g @anthropic-ai/claude-code
三、配置
3.1 认证(API Key)
方式一:交互式登录(OAuth)
首次运行 claude,会打开浏览器引导你登录 Anthropic 账户。
方式二:环境变量(推荐)
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
写入 shell 配置文件使其持久化:
echo 'export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"' >> ~/.zshrc
source ~/.zshrc
3.2 选择模型
# 命令行指定
claude --model claude-sonnet-4-20250514
claude --model claude-opus-4-20250514
# 或设置环境变量
export CLAUDE_MODEL="claude-sonnet-4-20250514"
也可以在交互模式中用 /model 命令切换。
3.3 代理设置(VPN / 代理软件)
如果你使用代理软件(Clash、V2Ray 等),需要让 Claude Code 走代理:
export HTTP_PROXY="http://127.0.0.1:7890"
export HTTPS_PROXY="http://127.0.0.1:7890"
# 或 SOCKS 代理
export ALL_PROXY="socks5://127.0.0.1:7890"
3.4 自定义 API 地址
通过 ANTHROPIC_BASE_URL 可以指向第三方代理或自建中转:
export ANTHROPIC_BASE_URL="https://your-proxy.example.com"
export ANTHROPIC_API_KEY="your-key"
claude
3.5 配置文件体系
| 文件 | 作用域 | 用途 |
|---|---|---|
~/.claude/settings.json | 全局(用户级) | 用户偏好、权限设置 |
.claude/settings.json | 项目级 | 项目特定设置,可提交到 Git |
.claude/CLAUDE.md | 项目级 | 自定义 AI 行为指令 |
~/.claude/CLAUDE.md | 全局 | 全局自定义指令 |
~/.claude.json | 全局 | MCP Server 等配置 |
四、国内用户访问 Anthropic API
Anthropic API(api.anthropic.com)在国内无法直连。以下是几种解决方案:
4.1 方案一:本地代理转发
如果你有代理软件(Clash、V2Ray 等),直接设置环境变量:
export HTTPS_PROXY="http://127.0.0.1:7890"
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
claude
4.2 方案二:自建 API 中转
在海外 VPS(香港、日本、美国等)上部署反向代理:
Nginx 配置示例:
server {
listen 443 ssl;
server_name your-relay.com;
location / {
proxy_pass https://api.anthropic.com;
proxy_set_header Host api.anthropic.com;
proxy_ssl_server_name on;
}
}
使用时:
export ANTHROPIC_BASE_URL="https://your-relay.com"
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
claude
4.3 方案三:Cloudflare Workers 中转
免费方案,利用 Cloudflare Workers 做 API 代理:
export default {
async fetch(request) {
const url = new URL(request.url);
url.hostname = 'api.anthropic.com';
return fetch(new Request(url, {
method: request.method,
headers: request.headers,
body: request.body,
}));
}
};
使用时:
export ANTHROPIC_BASE_URL="https://your-worker.workers.dev"
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
claude
4.4 方案四:第三方 API 中转服务
搜索「Claude API 中转」可以找到一些第三方服务。
注意第三方中转存在数据隐私风险,你的 API Key 和对话内容会经过第三方服务器。仅在了解风险的情况下使用。
五、使用国产模型(GLM、MiniMax、DeepSeek、Qwen)
前提须知Claude Code 是为 Claude 模型深度优化的工具,使用其他模型会有功能降级(extended thinking 不可用、工具调用可能不稳定)。但在某些场景下,使用国产模型仍然有实用价值。
5.1 原理说明
Claude Code 使用 Anthropic Messages API 格式(/v1/messages),而国产模型大多提供 OpenAI 兼容 API 格式(/v1/chat/completions)。要接通,需要中间层做格式转换。
Claude Code → Anthropic 格式 → [转换层] → OpenAI 格式 → 国产模型 API
5.2 方式一:Claude Code 内置第三方模型支持
Claude Code 支持通过 --model 参数使用 OpenAI 兼容的第三方模型:
# DeepSeek(最推荐,兼容性最好)
export OPENAI_BASE_URL="https://api.deepseek.com/v1"
export OPENAI_API_KEY="sk-your-deepseek-key"
claude --model openai/deepseek-chat
# 智谱 GLM
export OPENAI_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
export OPENAI_API_KEY="your-glm-api-key"
claude --model openai/glm-4-plus
# 通义千问 Qwen
export OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
export OPENAI_API_KEY="sk-your-dashscope-key"
claude --model openai/qwen-max
# MiniMax
export OPENAI_BASE_URL="https://api.minimax.chat/v1"
export OPENAI_API_KEY="your-minimax-key"
claude --model openai/MiniMax-Text-01
5.3 方式二:通过 one-api / new-api 统一网关
这是国内开发者社区最流行的方案,部署一个 API 网关,统一管理多个模型提供商。
one-api:https://github.com/songquanpeng/one-api new-api:https://github.com/Calcium-Ion/new-api(one-api 增强版,支持 Anthropic 格式)
部署(Docker):
# one-api
docker run -d --name one-api \
-p 3000:3000 \
-e TZ=Asia/Shanghai \
-v /data/one-api:/data \
justsong/one-api
# new-api(推荐,支持 Anthropic 格式转换)
docker run -d --name new-api \
-p 3000:3000 \
-e TZ=Asia/Shanghai \
-v /data/new-api:/data \
calciumion/new-api:latest
配置步骤:
- 访问
http://your-server:3000(默认账号root/123456) - 添加渠道(Channel):选择模型提供商,填入对应 API Key
- 创建令牌(Token):生成一个供 Claude Code 使用的 API Key
- 在 Claude Code 中配置:
# 使用 OpenAI 兼容模式
export OPENAI_BASE_URL="http://your-server:3000/v1"
export OPENAI_API_KEY="sk-your-one-api-token"
claude --model openai/deepseek-chat
5.4 各模型 API 注册入口
| 提供商 | 平台地址 | 获取 API Key |
|---|---|---|
| DeepSeek | https://platform.deepseek.com | 注册后在「API Keys」创建 |
| 智谱 GLM | https://open.bigmodel.cn | 注册后在控制台创建 API Key |
| 通义千问 | https://dashscope.console.aliyun.com | 需阿里云账号,激活 DashScope |
| MiniMax | https://platform.minimaxi.com | 注册后创建应用获取 Key |
| 硅基流动 | https://siliconflow.cn | 聚合平台,提供多种开源模型 |
5.5 推荐方案
| 场景 | 推荐方案 |
|---|---|
| 只想用一个模型 | DeepSeek 直连(兼容性最好、价格便宜) |
| 想灵活切换多模型 | 部署 new-api 网关 |
| 不想自己部署 | 硅基流动(SiliconFlow)聚合平台 |
兼容性说明
- DeepSeek-V3:OpenAI 兼容性最好,工具调用支持较好
- GLM-4:函数调用支持不错,中文场景表现好
- Qwen-Max:代码能力强,兼容性尚可
- MiniMax:兼容性较弱,不推荐作为首选
- 所有国产模型均不支持 extended thinking,复杂推理场景会降级
六、核心功能速览
6.1 斜杠命令
在交互模式中输入 / 即可使用:
| 命令 | 功能 |
|---|---|
/help | 查看帮助 |
/clear | 清空对话 |
/compact | 压缩对话(节省 token) |
/model | 切换模型 |
/cost | 查看 token 用量和费用 |
/init | 初始化项目 CLAUDE.md |
/mcp | 查看 MCP Server 状态 |
/doctor | 诊断安装问题 |
/permissions | 管理权限 |
/review | 代码审查 |
6.2 非交互模式
# 单次提问,不进入交互界面
claude -p "解释这个项目的架构"
# 管道输入
cat error.log | claude -p "分析这个错误日志"
# JSON 输出
claude -p "列出所有函数" --output-format json
6.3 MCP Server 配置
在 ~/.claude.json 中添加 MCP Server:
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/path"]
}
}
}
或使用命令行添加:
claude mcp add --scope user my-server -- command arg1 arg2
claude mcp list # 列出所有 Server
claude mcp remove name # 移除 Server
6.4 Hooks(钩子)
在 settings.json 中配置,可以在工具执行前后自动运行脚本:
{
"hooks": {
"PostToolUse": [
{
"matcher": "Write",
"hooks": ["npx prettier --write $CLAUDE_FILE_PATH"]
}
]
}
}
6.5 AWS Bedrock / Google Vertex AI
如果你的公司通过云平台访问 Claude:
# AWS Bedrock
export CLAUDE_CODE_USE_BEDROCK=1
export AWS_REGION="us-east-1"
export AWS_ACCESS_KEY_ID="your-key"
export AWS_SECRET_ACCESS_KEY="your-secret"
# Google Vertex AI
export CLAUDE_CODE_USE_VERTEX=1
export CLOUD_ML_REGION="us-east5"
export ANTHROPIC_VERTEX_PROJECT_ID="your-project-id"
七、环境变量速查表
| 变量 | 用途 |
|---|---|
ANTHROPIC_API_KEY | Anthropic API 密钥 |
ANTHROPIC_BASE_URL | 自定义 API 地址(中转/代理) |
CLAUDE_MODEL | 默认使用的模型 |
OPENAI_API_KEY | 第三方 OpenAI 兼容模型的密钥 |
OPENAI_BASE_URL | 第三方 OpenAI 兼容模型的地址 |
HTTP_PROXY / HTTPS_PROXY | HTTP 代理 |
ALL_PROXY | SOCKS 代理 |
CLAUDE_CODE_USE_BEDROCK | 启用 AWS Bedrock |
CLAUDE_CODE_USE_VERTEX | 启用 Google Vertex AI |
总结Claude Code 是目前最强大的终端 AI 编程工具之一。国内用户的核心挑战是网络访问:
- 安装:用 npmmirror 镜像解决 npm 下载问题
- API 访问:用代理、自建中转或 Cloudflare Workers 解决
- 使用国产模型:通过
--model openai/xxx+ 环境变量接入 DeepSeek 等推荐优先尝试 DeepSeek,兼容性最好、价格最低。
参考链接