Configuração do modelo

Por padrão, o Claude Code usa claude-opus-4-20250514. Você pode substituir isso usando as seguintes variáveis de ambiente:

# Anthropic API
ANTHROPIC_MODEL='claude-opus-4-20250514'
ANTHROPIC_SMALL_FAST_MODEL='claude-3-5-haiku-20241022'

# Amazon Bedrock (com ID do modelo)
ANTHROPIC_MODEL='us.anthropic.claude-opus-4-20250514-v1:0'
ANTHROPIC_SMALL_FAST_MODEL='us.anthropic.claude-3-5-haiku-20241022-v1:0'

# Amazon Bedrock (com ARN do perfil de inferência)
ANTHROPIC_MODEL='arn:aws:bedrock:us-east-2:your-account-id:application-inference-profile/your-model-id'
ANTHROPIC_SMALL_FAST_MODEL='arn:aws:bedrock:us-east-2:your-account-id:application-inference-profile/your-small-model-id'

# Google Vertex AI
ANTHROPIC_MODEL='claude-3-7-sonnet@20250219'
ANTHROPIC_SMALL_FAST_MODEL='claude-3-5-haiku@20241022'

Você também pode definir essas variáveis usando a configuração global:

# Configurar para Anthropic API
claude config set --global env '{"ANTHROPIC_MODEL": "claude-opus-4-20250514"}'

# Configurar para Bedrock (com ID do modelo)
claude config set --global env '{"CLAUDE_CODE_USE_BEDROCK": "true", "ANTHROPIC_MODEL": "us.anthropic.claude-opus-4-20250514-v1:0"}'

# Configurar para Bedrock (com ARN do perfil de inferência)
claude config set --global env '{"CLAUDE_CODE_USE_BEDROCK": "true", "ANTHROPIC_MODEL": "arn:aws:bedrock:us-east-2:your-account-id:application-inference-profile/your-model-id"}'

# Configurar para Vertex AI
claude config set --global env '{"CLAUDE_CODE_USE_VERTEX": "true", "ANTHROPIC_MODEL": "claude-3-7-sonnet@20250219"}'

Veja nossa referência de nomes de modelos para todos os modelos disponíveis em diferentes provedores.

Uso com APIs de terceiros

O Claude Code requer acesso aos modelos Claude Sonnet 3.7 e Claude Haiku 3.5, independentemente do provedor de API que você use.

Conectar ao Amazon Bedrock

CLAUDE_CODE_USE_BEDROCK=1

Se você não tiver o cache de prompts habilitado, também defina:

DISABLE_PROMPT_CACHING=1

Entre em contato com a Amazon Bedrock para cache de prompts para custos reduzidos e limites de taxa mais altos.

Requer credenciais padrão do AWS SDK (por exemplo, ~/.aws/credentials ou variáveis de ambiente relevantes como AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY). Para configurar as credenciais da AWS, execute:

aws configure

Se você quiser acessar o Claude Code via proxy, pode usar a variável de ambiente ANTHROPIC_BEDROCK_BASE_URL:

ANTHROPIC_BEDROCK_BASE_URL='https://your-proxy-url'

Se seu proxy mantém suas próprias credenciais AWS, você pode usar a variável de ambiente CLAUDE_CODE_SKIP_BEDROCK_AUTH para remover a exigência de credenciais AWS do Claude Code.

CLAUDE_CODE_SKIP_BEDROCK_AUTH=1

Os usuários precisarão de acesso aos modelos Claude Sonnet 3.7 e Claude Haiku 3.5 em sua conta AWS. Se você tiver uma função de acesso ao modelo, pode precisar solicitar acesso a esses modelos se eles ainda não estiverem disponíveis. O acesso ao Bedrock em cada região é necessário porque os perfis de inferência exigem capacidade entre regiões.

Conectar ao Google Vertex AI

CLAUDE_CODE_USE_VERTEX=1
CLOUD_ML_REGION=us-east5
ANTHROPIC_VERTEX_PROJECT_ID=your-project-id

Se você não tiver o cache de prompts habilitado, também defina:

DISABLE_PROMPT_CACHING=1

O Claude Code no Vertex AI atualmente suporta apenas a região us-east5. Certifique-se de que seu projeto tenha cota alocada nesta região específica.

Os usuários precisarão de acesso aos modelos Claude Sonnet 3.7 e Claude Haiku 3.5 em seu projeto Vertex AI.

Requer credenciais GCP padrão configuradas através da google-auth-library. Para configurar as credenciais GCP, execute:

gcloud auth application-default login

Se você quiser acessar o Claude Code via proxy, pode usar a variável de ambiente ANTHROPIC_VERTEX_BASE_URL:

ANTHROPIC_VERTEX_BASE_URL='https://your-proxy-url'

Se seu proxy mantém suas próprias credenciais GCP, você pode usar a variável de ambiente CLAUDE_CODE_SKIP_VERTEX_AUTH para remover a exigência de credenciais GCP do Claude Code.

CLAUDE_CODE_SKIP_VERTEX_AUTH=1

Para a melhor experiência, entre em contato com o Google para obter limites de taxa mais elevados.

Conectar através de um proxy

Ao usar o Claude Code com um proxy LLM, você pode controlar o comportamento de autenticação usando as seguintes variáveis de ambiente e configurações. Observe que você pode combinar essas configurações com as configurações específicas do Bedrock e do Vertex.

Configurações

O Claude Code suporta várias configurações controladas por variáveis de ambiente para configurar o uso com Bedrock e Vertex. Veja Variáveis de ambiente para uma referência completa.

Se você preferir configurar via arquivo em vez de variáveis de ambiente, pode adicionar qualquer uma dessas configurações ao objeto env nos seus arquivos de configurações do Claude Code.

Você também pode configurar a configuração apiKeyHelper, para definir um script shell personalizado para obter uma chave de API (invocado uma vez na inicialização e armazenado em cache durante a sessão, ou até que CLAUDE_CODE_API_KEY_HELPER_TTL_MS expire).

LiteLLM

LiteLLM é um serviço de proxy de terceiros. A Anthropic não endossa, mantém ou audita a segurança ou funcionalidade do LiteLLM. Este guia é fornecido para fins informativos e pode se tornar desatualizado. Use por sua própria conta e risco.

Esta seção mostra a configuração do Claude Code com o LiteLLM Proxy Server, um proxy LLM de terceiros que oferece rastreamento de uso e gastos, autenticação centralizada, orçamento por usuário e muito mais.

Passo 1: Pré-requisitos

  • Claude Code atualizado para a versão mais recente
  • LiteLLM Proxy Server em execução e acessível pela rede ao Claude Code
  • Sua chave de proxy LiteLLM

Passo 2: Configurar a autenticação do proxy

Escolha um destes métodos de autenticação:

Opção A: Chave de proxy estática Defina sua chave de proxy como uma variável de ambiente:

ANTHROPIC_AUTH_TOKEN=your-proxy-key

Opção B: Chave de proxy dinâmica Se sua organização usa chaves rotativas ou autenticação dinâmica:

  1. Não defina a variável de ambiente ANTHROPIC_AUTH_TOKEN
  2. Crie um script auxiliar de chave para fornecer tokens de autenticação
  3. Registre o script na configuração apiKeyHelper nas suas configurações do Claude Code
  4. Defina o tempo de vida do token para permitir a atualização automática:
    CLAUDE_CODE_API_KEY_HELPER_TTL_MS=3600000
    
    Defina isso para o tempo de vida (em milissegundos) dos tokens retornados pelo seu apiKeyHelper.

Passo 3: Configurar sua implantação

Escolha qual implantação do Claude você deseja usar através do LiteLLM:

  • Anthropic API: Conexão direta com a API da Anthropic
  • Bedrock: Amazon Bedrock com modelos Claude
  • Vertex AI: Google Cloud Vertex AI com modelos Claude
Opção A: Anthropic API através do LiteLLM
  1. Configure o endpoint LiteLLM:
    ANTHROPIC_BASE_URL=https://litellm-url:4000/anthropic
    
Opção B: Bedrock através do LiteLLM
  1. Configure as configurações do Bedrock:
    ANTHROPIC_BEDROCK_BASE_URL=https://litellm-url:4000/bedrock
    CLAUDE_CODE_SKIP_BEDROCK_AUTH=1
    CLAUDE_CODE_USE_BEDROCK=1
    
Opção C: Vertex AI através do LiteLLM

Recomendado: Credenciais especificadas pelo proxy

  1. Configure as configurações do Vertex:
    ANTHROPIC_VERTEX_BASE_URL=https://litellm-url:4000/vertex_ai/v1
    CLAUDE_CODE_SKIP_VERTEX_AUTH=1
    CLAUDE_CODE_USE_VERTEX=1
    

Alternativa: Credenciais especificadas pelo cliente

Se você preferir usar credenciais GCP locais:

  1. Autentique-se com o GCP localmente:

    gcloud auth application-default login
    
  2. Configure as configurações do Vertex:

    ANTHROPIC_VERTEX_BASE_URL=https://litellm-url:4000/vertex_ai/v1
    ANTHROPIC_VERTEX_PROJECT_ID=your-gcp-project-id
    CLAUDE_CODE_USE_VERTEX=1
    CLOUD_ML_REGION=your-gcp-region
    
  3. Atualize a configuração do cabeçalho LiteLLM:

    Certifique-se de que sua configuração LiteLLM tenha general_settings.litellm_key_header_name definido como Proxy-Authorization, já que o token GCP de passagem estará localizado no cabeçalho Authorization.

Passo 4. Selecionando um modelo

Por padrão, os modelos usarão aqueles especificados em Configuração do modelo.

Se você configurou nomes de modelos personalizados no LiteLLM, defina as variáveis de ambiente mencionadas anteriormente para esses nomes personalizados.

Para informações mais detalhadas, consulte a documentação do LiteLLM.