Configuração de gateway LLM
Aprenda como configurar o Claude Code com soluções de gateway LLM, incluindo configuração do LiteLLM, métodos de autenticação e recursos empresariais como rastreamento de uso e gerenciamento de orçamento.
Os gateways LLM fornecem uma camada de proxy centralizada entre o Claude Code e os provedores de modelo, oferecendo:
- Autenticação centralizada - Ponto único para gerenciamento de chaves de API
- Rastreamento de uso - Monitore o uso entre equipes e projetos
- Controles de custo - Implemente orçamentos e limites de taxa
- Log de auditoria - Rastreie todas as interações do modelo para conformidade
- Roteamento de modelo - Alterne entre provedores sem alterações de código
Configuração do LiteLLM
O LiteLLM é um serviço de proxy de terceiros. A Anthropic não endossa, mantém ou audita a segurança ou funcionalidade do LiteLLM. Este guia é fornecido para fins informativos e pode ficar desatualizado. Use por sua própria conta e risco.
Pré-requisitos
- Claude Code atualizado para a versão mais recente
- Servidor Proxy LiteLLM implantado e acessível
- Acesso aos modelos Claude através do seu provedor escolhido
Configuração básica do LiteLLM
Configure o Claude Code:
Métodos de autenticação
Chave de API estática
Método mais simples usando uma chave de API fixa:
Este valor será enviado como os cabeçalhos Authorization
e Proxy-Authorization
, embora Authorization
possa ser sobrescrito (veja Vertex “Credenciais especificadas pelo cliente” abaixo).
Chave de API dinâmica com auxiliar
Para chaves rotativas ou autenticação por usuário:
- Crie um script auxiliar de chave de API:
- Configure as configurações do Claude Code para usar o auxiliar:
- Defina o intervalo de atualização do token:
Este valor será enviado como cabeçalhos Authorization
, Proxy-Authorization
e X-Api-Key
, embora Authorization
possa ser sobrescrito (veja Google Vertex AI através do LiteLLM). O apiKeyHelper
tem precedência menor que ANTHROPIC_AUTH_TOKEN
ou ANTHROPIC_API_KEY
.
Configurações específicas do provedor
API Anthropic através do LiteLLM
Usando endpoint de passagem:
Amazon Bedrock através do LiteLLM
Usando endpoint de passagem:
Google Vertex AI através do LiteLLM
Usando endpoint de passagem:
Recomendado: Credenciais especificadas pelo proxy
Alternativa: Credenciais especificadas pelo cliente
Se você preferir usar credenciais GCP locais:
- Autentique com GCP localmente:
- Defina o ambiente do Claude Code:
- Atualize a configuração de cabeçalho do LiteLLM:
Certifique-se de que sua configuração do LiteLLM tenha general_settings.litellm_key_header_name
definido como Proxy-Authorization
, já que o token GCP de passagem estará localizado no cabeçalho Authorization
.
Endpoint unificado
Usando o endpoint de formato Anthropic do LiteLLM:
Seleção de modelo
Por padrão, os modelos usarão aqueles especificados em Configuração de modelo.
Se você configurou nomes de modelo personalizados no LiteLLM, defina as variáveis de ambiente mencionadas anteriormente para esses nomes personalizados.
Para informações mais detalhadas, consulte a documentação do LiteLLM.