Claude Code 怎么配置 API?API 选型完整指南
Claude Code 支持多种 API 接入方式,从个人订阅直连、API Key 调用,到企业级 Amazon Bedrock、Google Vertex AI、Microsoft Foundry,以及通过 LiteLLM 等 LLM Gateway 接入任意兼容提供商。本文梳理各方案的配置步骤、适用场景和选型建议,覆盖从个人开发者到企业团队的全部需求。
五种接入方式一览
数据来源:Claude Code 官方认证文档、模型配置文档(code.claude.com/docs),2026 年 4 月。
方案一:Claude.ai 订阅直连(最简单)
适合个人开发者,使用 Claude Pro($20/月)或 Max($100/$200/月)订阅,无需管理 API Key。
配置步骤:
# 1. 安装 Claude Code
curl -fsSL https://claude.ai/install.sh | bash
# 2. 启动后自动打开浏览器登录
claude
# 3. 用 Claude.ai 账号登录即可
无需任何环境变量配置,订阅用量由 Anthropic 直接管理。
局限: 国内访问需代理;重度使用可能触及用量上限。
方案二:Claude Console API Key(开发者首选)
适合需要精确控制用量和费用的个人或小团队,按 Token 计费,灵活性最高。
配置步骤:
方式 A:环境变量(临时或开发环境)
export ANTHROPIC_API_KEY=sk-ant-xxxxxxxxxxxx
claude
方式 B:写入全局配置文件(永久生效)
编辑 ~/.claude/settings.json:
{
"env": {
"ANTHROPIC_API_KEY": "sk-ant-xxxxxxxxxxxx"
}
}
方式 C:配置第三方兼容 API(国内推荐)
Claude Code 支持通过 ANTHROPIC_BASE_URL 将请求转发到任何兼容 Anthropic Messages 格式的推理服务:
export ANTHROPIC_API_KEY=your-provider-key
export ANTHROPIC_BASE_URL=https://your-provider.com/v1
claude
或写入配置文件:
{
"env": {
"ANTHROPIC_API_KEY": "your-provider-key",
"ANTHROPIC_BASE_URL": "https://your-provider.com/v1"
}
}
第三方提供商需支持 /v1/messages 和 /v1/messages/count_tokens 端点,并正确转发 anthropic-beta 和 anthropic-version 请求头。
方案三:Amazon Bedrock(AWS 用户)
适合已在 AWS 生态内的团队,支持 IAM 权限管理和企业级审计。
快速配置:
# 方式 A:AWS CLI(最常用)
aws configure
export CLAUDE_CODE_USE_BEDROCK=1
export AWS_PROFILE=your-profile
# 方式 B:环境变量(Access Key)
export CLAUDE_CODE_USE_BEDROCK=1
export AWS_ACCESS_KEY_ID=your-key
export AWS_SECRET_ACCESS_KEY=your-secret
export AWS_SESSION_TOKEN=your-token # 临时凭证时需要
# 方式 C:Bedrock API Key(最简单,无需完整 AWS 凭证)
export CLAUDE_CODE_USE_BEDROCK=1
export AWS_BEARER_TOKEN_BEDROCK=your-bedrock-api-key
写入 settings.json(推荐团队部署):
{
"env": {
"CLAUDE_CODE_USE_BEDROCK": "1",
"AWS_PROFILE": "your-profile"
},
"awsAuthRefresh": "aws sso login --profile your-profile"
}
awsAuthRefresh 字段支持 AWS SSO 凭证过期时自动刷新,无需手动重新登录。
注意: 首次使用需在 Amazon Bedrock 控制台申请 Claude 模型访问权限(一次性操作),并在多用户部署时固定模型版本以防 Anthropic 更新模型后中断。
方案四:Google Vertex AI(GCP 用户)
适合 GCP 生态的团队,支持 global 和 regional 端点。
# 认证
gcloud auth application-default login
# 配置环境变量
export CLAUDE_CODE_USE_VERTEX=1
export CLOUD_ML_REGION=global
export ANTHROPIC_VERTEX_PROJECT_ID=your-gcp-project-id
固定区域(部分模型不支持 global 端点):
export VERTEX_REGION_CLAUDE_4_6_SONNET=europe-west1
export VERTEX_REGION_CLAUDE_HAIKU_4_5=us-east5
注意: Vertex AI 的 /login 和 /logout 命令被禁用,认证完全由 Google Cloud 凭证管理。
方案五:Microsoft Foundry(Azure 用户)
适合 Azure 生态的团队,支持 API Key 和 Microsoft Entra ID 两种认证。
# 方式 A:API Key
export CLAUDE_CODE_USE_FOUNDRY=1
export ANTHROPIC_FOUNDRY_RESOURCE=your-resource-name
export ANTHROPIC_FOUNDRY_API_KEY=your-azure-api-key
# 方式 B:Entra ID(不设置 API Key 时自动使用)
az login
export CLAUDE_CODE_USE_FOUNDRY=1
export ANTHROPIC_FOUNDRY_RESOURCE=your-resource-name
方案六:LLM Gateway(团队统一管理)
LLM Gateway 在 Claude Code 和模型提供商之间增加代理层,提供统一鉴权、用量追踪、成本控制和审计日志。官方支持 LiteLLM Proxy。
⚠️ 安全警告: LiteLLM PyPI 版本 1.82.7 和 1.82.8 被恶意软件污染,可窃取凭证。如已安装,立即移除并轮换所有相关 Key。
基础配置(推荐统一端点):
# 统一端点(推荐):支持负载均衡、Fallback、成本追踪
export ANTHROPIC_BASE_URL=https://your-litellm-server:4000
export ANTHROPIC_AUTH_TOKEN=sk-litellm-your-static-key
动态 Key 轮换(进阶):
{
"apiKeyHelper": "~/bin/get-litellm-key.sh"
}
配合 CLAUDE_CODE_API_KEY_HELPER_TTL_MS=3600000 设置 Key 刷新间隔(毫秒)。
Gateway 必须支持以下 API 格式之一,并正确转发所有请求头:
● Anthropic Messages:/v1/messages,需转发 anthropic-beta、anthropic-version 头
● Bedrock InvokeModel:/invoke,需保留请求体中的 anthropic_beta、anthropic_version
● Vertex rawPredict::rawPredict,需转发 anthropic-beta、anthropic-version 头
模型配置:别名与版本固定
配置好 API 接入后,可以单独设置使用哪个模型。
模型别名(自动跟随最新版)
设置模型(优先级从高到低)
# 1. 会话中切换(最高优先级,仅当前 session)
/model opus
# 2. 启动时指定
claude --model sonnet
# 3. 环境变量
export ANTHROPIC_MODEL=opus
# 4. 配置文件(永久)
{
"model": "opus"
}
固定具体版本(团队部署必做)
使用别名会在 Anthropic 发布新版时自动切换,可能导致团队成员使用不同版本。生产环境建议固定:
export ANTHROPIC_DEFAULT_SONNET_MODEL=claude-sonnet-4-6
export ANTHROPIC_DEFAULT_OPUS_MODEL=claude-opus-4-6
export ANTHROPIC_DEFAULT_HAIKU_MODEL=claude-haiku-4-5
或在 settings.json 中:
{
"model": "claude-sonnet-4-6",
"env": {
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6"
}
}
API 选型决策树
我的使用场景是?
│
├─ 个人开发,不想管理 Key
│ └─ → Claude.ai 订阅(Pro/Max)
│
├─ 个人开发,按用量付费 / 国内网络
│ └─ → Console API Key + 第三方兼容 API
│
├─ 团队 / 企业,已在 AWS
│ └─ → Amazon Bedrock
│
├─ 团队 / 企业,已在 GCP
│ └─ → Google Vertex AI
│
├─ 团队 / 企业,已在 Azure
│ └─ → Microsoft Foundry
│
└─ 团队,需要统一管理多个提供商
└─ → LLM Gateway(LiteLLM)
常见问题
Q:ANTHROPIC_BASE_URL 设置了但不生效,是什么原因?
优先排查两点:① 确认提供商支持 /v1/messages 端点并正确转发 anthropic-beta 和 anthropic-version 请求头;② 如果使用 Bedrock/Vertex 格式接入 Gateway,需额外设置 CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1 避免功能特性不兼容。
Q:如何判断当前 Claude Code 使用的是哪个 API 和模型?
在 Claude Code 会话中运行 /cost,2.1.92 版本起会显示每个模型的用量明细和缓存命中情况。也可运行 /config 查看当前生效的模型设置。
Q:企业如何限制用户只能用指定模型?
在 managed 或 policy 级别的 settings.json 中设置 availableModels 字段。设置后,用户无法通过 /model、--model 参数或 ANTHROPIC_MODEL 环境变量切换到列表外的模型:
{
"availableModels": ["claude-sonnet-4-6", "haiku"]
}
Q:Console API Key 和订阅方式哪个更便宜?
取决于使用量。订阅方式(Claude Max $100/月)包含大额用量,适合重度用户;Console 按 Token 计费,轻度使用更划算。[数据待核实:建议参考 anthropic.com/pricing 最新 Token 单价对比]Q:国内网络如何使用 Claude Code?
通过 ANTHROPIC_BASE_URL 指向兼容 Anthropic API 格式的国内第三方推理服务即可,无需修改其他配置。例如七牛云 AI 推理服务兼容该接口标准,可通过 API Key 直接接入,开发者在不修改代码的情况下切换底层模型。
总结
Claude Code API 配置的核心只有两个变量:ANTHROPIC_API_KEY(鉴权)和 ANTHROPIC_BASE_URL(端点)。云平台方案(Bedrock/Vertex/Foundry)通过各自的平台变量替代 API Key,适合已有云服务合同的企业。个人用户最简路径是订阅直连;国内用户通过 ANTHROPIC_BASE_URL 接入第三方兼容服务即可无缝使用。
本文配置信息来自 Claude Code 官方认证文档、模型配置文档及 LLM Gateway 文档(code.claude.com/docs,2026 年 4 月 7 日),Claude Code 当前版本 2.1.92。
延伸资源