Configurazione del gateway LLM
Scopri come configurare Claude Code con soluzioni gateway LLM, inclusa la configurazione di LiteLLM, i metodi di autenticazione e le funzionalità aziendali come il monitoraggio dell’utilizzo e la gestione del budget.
I gateway LLM forniscono un livello proxy centralizzato tra Claude Code e i fornitori di modelli, offrendo:
- Autenticazione centralizzata - Punto unico per la gestione delle chiavi API
- Monitoraggio dell’utilizzo - Monitora l’utilizzo tra team e progetti
- Controlli dei costi - Implementa budget e limiti di velocità
- Registrazione di audit - Traccia tutte le interazioni del modello per la conformità
- Routing del modello - Cambia tra fornitori senza modifiche al codice
Configurazione LiteLLM
LiteLLM è un servizio proxy di terze parti. Anthropic non approva, mantiene o verifica la sicurezza o funzionalità di LiteLLM. Questa guida è fornita a scopo informativo e potrebbe diventare obsoleta. Utilizzare a propria discrezione.
Prerequisiti
- Claude Code aggiornato all’ultima versione
- Server Proxy LiteLLM distribuito e accessibile
- Accesso ai modelli Claude tramite il fornitore scelto
Configurazione base di LiteLLM
Configura Claude Code:
Metodi di autenticazione
Chiave API statica
Metodo più semplice utilizzando una chiave API fissa:
Questo valore verrà inviato come header Authorization
e Proxy-Authorization
, anche se Authorization
potrebbe essere sovrascritto (vedi Vertex “Credenziali specificate dal client” di seguito).
Chiave API dinamica con helper
Per chiavi rotanti o autenticazione per utente:
- Crea uno script helper per la chiave API:
- Configura le impostazioni di Claude Code per utilizzare l’helper:
- Imposta l’intervallo di aggiornamento del token:
Questo valore verrà inviato come header Authorization
, Proxy-Authorization
e X-Api-Key
, anche se Authorization
potrebbe essere sovrascritto (vedi Google Vertex AI tramite LiteLLM). L’apiKeyHelper
ha precedenza inferiore rispetto a ANTHROPIC_AUTH_TOKEN
o ANTHROPIC_API_KEY
.
Configurazioni specifiche per fornitore
API Anthropic tramite LiteLLM
Utilizzando endpoint pass-through:
Amazon Bedrock tramite LiteLLM
Utilizzando endpoint pass-through:
Google Vertex AI tramite LiteLLM
Utilizzando endpoint pass-through:
Raccomandato: Credenziali specificate dal proxy
Alternativa: Credenziali specificate dal client
Se preferisci utilizzare le credenziali GCP locali:
- Autentica con GCP localmente:
- Imposta l’ambiente di Claude Code:
- Aggiorna la configurazione degli header di LiteLLM:
Assicurati che la tua configurazione LiteLLM abbia general_settings.litellm_key_header_name
impostato su Proxy-Authorization
, poiché il token GCP pass-through sarà localizzato sull’header Authorization
.
Endpoint unificato
Utilizzando l’endpoint formato Anthropic di LiteLLM:
Selezione del modello
Per impostazione predefinita, i modelli utilizzeranno quelli specificati in Configurazione del modello.
Se hai configurato nomi di modelli personalizzati in LiteLLM, imposta le variabili d’ambiente sopra menzionate su quei nomi personalizzati.
Per informazioni più dettagliate, consulta la documentazione di LiteLLM.