跳转到主内容
医点 AI医点 AI

Claude Code — 终端 AI 编程助手指南

Claude Code — 终端 AI 编程助手指南

Anthropic 官方出品的终端 AI 编程工具,直接在命令行里和 Claude 对话、写代码、改文件、跑命令。


一、它是什么?

Claude Code 是 Anthropic 推出的命令行 AI 编程助手。它不是一个编辑器插件,而是直接运行在终端里的 Agent —— 你用自然语言告诉它要做什么,它会自动读文件、改代码、执行命令、管理 Git。

核心能力:

能力说明
读写文件自动读取、创建、编辑项目中的任何文件
执行命令在终端运行 shell 命令(需你授权)
Git 操作提交、推送、创建分支、生成 PR
MCP 扩展通过 MCP 协议连接外部工具和数据源
多文件编辑跨文件理解和修改代码
自定义指令通过 CLAUDE.md 定制项目级行为

二、安装

2.1 前置条件

  • Node.js >= 18(推荐 20 或 22 LTS)
  • macOS 或 Linux(Windows 需使用 WSL2)

2.2 安装 Node.js

# 方式一:使用 nvm(推荐)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
source ~/.zshrc
nvm install 22
nvm use 22

# 方式二:使用 Homebrew(macOS)
brew install node@22
国内用户安装 Node.js

nvm 默认从国外下载,速度较慢。可配置国内镜像:

export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node
nvm install 22

2.3 安装 Claude Code

# 全局安装(推荐)
npm install -g @anthropic-ai/claude-code

# 安装完成后运行
claude
国内用户安装(无 VPN)

npm 默认源 registry.npmjs.org 在国内可能很慢或无法访问。使用国内镜像:

# 方法一:临时使用镜像(推荐)
npm install -g @anthropic-ai/claude-code --registry=https://registry.npmmirror.com

# 方法二:永久切换镜像
npm config set registry https://registry.npmmirror.com
npm install -g @anthropic-ai/claude-code

# 方法三:使用 nrm 管理镜像源
npm install -g nrm --registry=https://registry.npmmirror.com
nrm use taobao
npm install -g @anthropic-ai/claude-code

其他可用镜像:

镜像地址
npmmirror(淘宝)https://registry.npmmirror.com
腾讯https://mirrors.tencent.com/npm/
华为https://repo.huaweicloud.com/repository/npm/

2.4 免安装运行

npx @anthropic-ai/claude-code

2.5 更新

npm update -g @anthropic-ai/claude-code

三、配置

3.1 认证(API Key)

方式一:交互式登录(OAuth)

首次运行 claude,会打开浏览器引导你登录 Anthropic 账户。

方式二:环境变量(推荐)

export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"

写入 shell 配置文件使其持久化:

echo 'export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"' >> ~/.zshrc
source ~/.zshrc

3.2 选择模型

# 命令行指定
claude --model claude-sonnet-4-20250514
claude --model claude-opus-4-20250514

# 或设置环境变量
export CLAUDE_MODEL="claude-sonnet-4-20250514"

也可以在交互模式中用 /model 命令切换。

3.3 代理设置(VPN / 代理软件)

如果你使用代理软件(Clash、V2Ray 等),需要让 Claude Code 走代理:

export HTTP_PROXY="http://127.0.0.1:7890"
export HTTPS_PROXY="http://127.0.0.1:7890"
# 或 SOCKS 代理
export ALL_PROXY="socks5://127.0.0.1:7890"

3.4 自定义 API 地址

通过 ANTHROPIC_BASE_URL 可以指向第三方代理或自建中转:

export ANTHROPIC_BASE_URL="https://your-proxy.example.com"
export ANTHROPIC_API_KEY="your-key"
claude

3.5 配置文件体系

文件作用域用途
~/.claude/settings.json全局(用户级)用户偏好、权限设置
.claude/settings.json项目级项目特定设置,可提交到 Git
.claude/CLAUDE.md项目级自定义 AI 行为指令
~/.claude/CLAUDE.md全局全局自定义指令
~/.claude.json全局MCP Server 等配置

四、国内用户访问 Anthropic API

Anthropic API(api.anthropic.com)在国内无法直连。以下是几种解决方案:

4.1 方案一:本地代理转发

如果你有代理软件(Clash、V2Ray 等),直接设置环境变量:

export HTTPS_PROXY="http://127.0.0.1:7890"
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
claude

4.2 方案二:自建 API 中转

在海外 VPS(香港、日本、美国等)上部署反向代理:

Nginx 配置示例:

server {
    listen 443 ssl;
    server_name your-relay.com;

    location / {
        proxy_pass https://api.anthropic.com;
        proxy_set_header Host api.anthropic.com;
        proxy_ssl_server_name on;
    }
}

使用时:

export ANTHROPIC_BASE_URL="https://your-relay.com"
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
claude

4.3 方案三:Cloudflare Workers 中转

免费方案,利用 Cloudflare Workers 做 API 代理:

export default {
  async fetch(request) {
    const url = new URL(request.url);
    url.hostname = 'api.anthropic.com';
    return fetch(new Request(url, {
      method: request.method,
      headers: request.headers,
      body: request.body,
    }));
  }
};

使用时:

export ANTHROPIC_BASE_URL="https://your-worker.workers.dev"
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
claude

4.4 方案四:第三方 API 中转服务

搜索「Claude API 中转」可以找到一些第三方服务。

注意

第三方中转存在数据隐私风险,你的 API Key 和对话内容会经过第三方服务器。仅在了解风险的情况下使用。


五、使用国产模型(GLM、MiniMax、DeepSeek、Qwen)

前提须知

Claude Code 是为 Claude 模型深度优化的工具,使用其他模型会有功能降级(extended thinking 不可用、工具调用可能不稳定)。但在某些场景下,使用国产模型仍然有实用价值。

5.1 原理说明

Claude Code 使用 Anthropic Messages API 格式(/v1/messages),而国产模型大多提供 OpenAI 兼容 API 格式(/v1/chat/completions)。要接通,需要中间层做格式转换。

Claude Code → Anthropic 格式 → [转换层] → OpenAI 格式 → 国产模型 API

5.2 方式一:Claude Code 内置第三方模型支持

Claude Code 支持通过 --model 参数使用 OpenAI 兼容的第三方模型:

# DeepSeek(最推荐,兼容性最好)
export OPENAI_BASE_URL="https://api.deepseek.com/v1"
export OPENAI_API_KEY="sk-your-deepseek-key"
claude --model openai/deepseek-chat

# 智谱 GLM
export OPENAI_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
export OPENAI_API_KEY="your-glm-api-key"
claude --model openai/glm-4-plus

# 通义千问 Qwen
export OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
export OPENAI_API_KEY="sk-your-dashscope-key"
claude --model openai/qwen-max

# MiniMax
export OPENAI_BASE_URL="https://api.minimax.chat/v1"
export OPENAI_API_KEY="your-minimax-key"
claude --model openai/MiniMax-Text-01

5.3 方式二:通过 one-api / new-api 统一网关

这是国内开发者社区最流行的方案,部署一个 API 网关,统一管理多个模型提供商。

one-apihttps://github.com/songquanpeng/one-api new-apihttps://github.com/Calcium-Ion/new-api(one-api 增强版,支持 Anthropic 格式)

部署(Docker):

# one-api
docker run -d --name one-api \
  -p 3000:3000 \
  -e TZ=Asia/Shanghai \
  -v /data/one-api:/data \
  justsong/one-api

# new-api(推荐,支持 Anthropic 格式转换)
docker run -d --name new-api \
  -p 3000:3000 \
  -e TZ=Asia/Shanghai \
  -v /data/new-api:/data \
  calciumion/new-api:latest

配置步骤:

  1. 访问 http://your-server:3000(默认账号 root / 123456
  2. 添加渠道(Channel):选择模型提供商,填入对应 API Key
  3. 创建令牌(Token):生成一个供 Claude Code 使用的 API Key
  4. 在 Claude Code 中配置:
# 使用 OpenAI 兼容模式
export OPENAI_BASE_URL="http://your-server:3000/v1"
export OPENAI_API_KEY="sk-your-one-api-token"
claude --model openai/deepseek-chat

5.4 各模型 API 注册入口

提供商平台地址获取 API Key
DeepSeekhttps://platform.deepseek.com注册后在「API Keys」创建
智谱 GLMhttps://open.bigmodel.cn注册后在控制台创建 API Key
通义千问https://dashscope.console.aliyun.com需阿里云账号,激活 DashScope
MiniMaxhttps://platform.minimaxi.com注册后创建应用获取 Key
硅基流动https://siliconflow.cn聚合平台,提供多种开源模型

5.5 推荐方案

场景推荐方案
只想用一个模型DeepSeek 直连(兼容性最好、价格便宜)
想灵活切换多模型部署 new-api 网关
不想自己部署硅基流动(SiliconFlow)聚合平台
兼容性说明
  • DeepSeek-V3:OpenAI 兼容性最好,工具调用支持较好
  • GLM-4:函数调用支持不错,中文场景表现好
  • Qwen-Max:代码能力强,兼容性尚可
  • MiniMax:兼容性较弱,不推荐作为首选
  • 所有国产模型均不支持 extended thinking,复杂推理场景会降级

六、核心功能速览

6.1 斜杠命令

在交互模式中输入 / 即可使用:

命令功能
/help查看帮助
/clear清空对话
/compact压缩对话(节省 token)
/model切换模型
/cost查看 token 用量和费用
/init初始化项目 CLAUDE.md
/mcp查看 MCP Server 状态
/doctor诊断安装问题
/permissions管理权限
/review代码审查

6.2 非交互模式

# 单次提问,不进入交互界面
claude -p "解释这个项目的架构"

# 管道输入
cat error.log | claude -p "分析这个错误日志"

# JSON 输出
claude -p "列出所有函数" --output-format json

6.3 MCP Server 配置

~/.claude.json 中添加 MCP Server:

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-filesystem", "/path"]
    }
  }
}

或使用命令行添加:

claude mcp add --scope user my-server -- command arg1 arg2
claude mcp list          # 列出所有 Server
claude mcp remove name   # 移除 Server

6.4 Hooks(钩子)

settings.json 中配置,可以在工具执行前后自动运行脚本:

{
  "hooks": {
    "PostToolUse": [
      {
        "matcher": "Write",
        "hooks": ["npx prettier --write $CLAUDE_FILE_PATH"]
      }
    ]
  }
}

6.5 AWS Bedrock / Google Vertex AI

如果你的公司通过云平台访问 Claude:

# AWS Bedrock
export CLAUDE_CODE_USE_BEDROCK=1
export AWS_REGION="us-east-1"
export AWS_ACCESS_KEY_ID="your-key"
export AWS_SECRET_ACCESS_KEY="your-secret"

# Google Vertex AI
export CLAUDE_CODE_USE_VERTEX=1
export CLOUD_ML_REGION="us-east5"
export ANTHROPIC_VERTEX_PROJECT_ID="your-project-id"

七、环境变量速查表

变量用途
ANTHROPIC_API_KEYAnthropic API 密钥
ANTHROPIC_BASE_URL自定义 API 地址(中转/代理)
CLAUDE_MODEL默认使用的模型
OPENAI_API_KEY第三方 OpenAI 兼容模型的密钥
OPENAI_BASE_URL第三方 OpenAI 兼容模型的地址
HTTP_PROXY / HTTPS_PROXYHTTP 代理
ALL_PROXYSOCKS 代理
CLAUDE_CODE_USE_BEDROCK启用 AWS Bedrock
CLAUDE_CODE_USE_VERTEX启用 Google Vertex AI

总结

Claude Code 是目前最强大的终端 AI 编程工具之一。国内用户的核心挑战是网络访问

  1. 安装:用 npmmirror 镜像解决 npm 下载问题
  2. API 访问:用代理、自建中转或 Cloudflare Workers 解决
  3. 使用国产模型:通过 --model openai/xxx + 环境变量接入 DeepSeek 等

推荐优先尝试 DeepSeek,兼容性最好、价格最低。


参考链接

评论

登录 后发表评论
加载评论中...
AI 助手