Configuración de gateway LLM
Aprende cómo configurar Claude Code con soluciones de gateway LLM, incluyendo configuración de LiteLLM, métodos de autenticación y características empresariales como seguimiento de uso y gestión de presupuestos.
Los gateways LLM proporcionan una capa de proxy centralizada entre Claude Code y los proveedores de modelos, ofreciendo:
- Autenticación centralizada - Punto único para la gestión de claves API
- Seguimiento de uso - Monitorear el uso entre equipos y proyectos
- Controles de costos - Implementar presupuestos y límites de velocidad
- Registro de auditoría - Rastrear todas las interacciones del modelo para cumplimiento
- Enrutamiento de modelos - Cambiar entre proveedores sin cambios de código
Configuración de LiteLLM
LiteLLM es un servicio de proxy de terceros. Anthropic no respalda, mantiene ni audita la seguridad o funcionalidad de LiteLLM. Esta guía se proporciona con fines informativos y puede quedar desactualizada. Úsala bajo tu propia discreción.
Prerrequisitos
- Claude Code actualizado a la última versión
- Servidor Proxy LiteLLM desplegado y accesible
- Acceso a modelos Claude a través de tu proveedor elegido
Configuración básica de LiteLLM
Configurar Claude Code:
Métodos de autenticación
Clave API estática
Método más simple usando una clave API fija:
Este valor se enviará como los encabezados Authorization
y Proxy-Authorization
, aunque Authorization
puede ser sobrescrito (ver Vertex “Credenciales especificadas por el cliente” a continuación).
Clave API dinámica con ayudante
Para claves rotativas o autenticación por usuario:
- Crear un script ayudante de clave API:
- Configurar la configuración de Claude Code para usar el ayudante:
- Establecer intervalo de actualización de token:
Este valor se enviará como encabezados Authorization
, Proxy-Authorization
y X-Api-Key
, aunque Authorization
puede ser sobrescrito (ver Google Vertex AI a través de LiteLLM). El apiKeyHelper
tiene menor precedencia que ANTHROPIC_AUTH_TOKEN
o ANTHROPIC_API_KEY
.
Configuraciones específicas del proveedor
API de Anthropic a través de LiteLLM
Usando endpoint de paso directo:
Amazon Bedrock a través de LiteLLM
Usando endpoint de paso directo:
Google Vertex AI a través de LiteLLM
Usando endpoint de paso directo:
Recomendado: Credenciales especificadas por el proxy
Alternativa: Credenciales especificadas por el cliente
Si prefieres usar credenciales GCP locales:
- Autenticarse con GCP localmente:
- Establecer entorno de Claude Code:
- Actualizar configuración de encabezado de LiteLLM:
Asegúrate de que tu configuración de LiteLLM tenga general_settings.litellm_key_header_name
establecido en Proxy-Authorization
, ya que el token GCP de paso directo estará ubicado en el encabezado Authorization
.
Endpoint unificado
Usando el endpoint de formato Anthropic de LiteLLM:
Selección de modelo
Por defecto, los modelos usarán aquellos especificados en Configuración de modelo.
Si has configurado nombres de modelo personalizados en LiteLLM, establece las variables de entorno mencionadas anteriormente a esos nombres personalizados.
Para información más detallada, consulta la documentación de LiteLLM.