LLM-Gateway-Konfiguration
Erfahren Sie, wie Sie Claude Code mit LLM-Gateway-Lösungen konfigurieren, einschließlich LiteLLM-Setup, Authentifizierungsmethoden und Unternehmensfunktionen wie Nutzungsverfolgung und Budgetverwaltung.
LLM-Gateways bieten eine zentralisierte Proxy-Schicht zwischen Claude Code und Modellanbietern und bieten:
- Zentralisierte Authentifizierung - Einzelner Punkt für API-Schlüsselverwaltung
- Nutzungsverfolgung - Überwachung der Nutzung über Teams und Projekte hinweg
- Kostenkontrollen - Implementierung von Budgets und Ratenlimits
- Audit-Protokollierung - Verfolgung aller Modellinteraktionen für Compliance
- Modell-Routing - Wechsel zwischen Anbietern ohne Code-Änderungen
LiteLLM-Konfiguration
LiteLLM ist ein Drittanbieter-Proxy-Service. Anthropic unterstützt, wartet oder prüft LiteLLMs Sicherheit oder Funktionalität nicht. Diese Anleitung wird zu Informationszwecken bereitgestellt und kann veraltet sein. Verwenden Sie sie auf eigene Verantwortung.
Voraussetzungen
- Claude Code auf die neueste Version aktualisiert
- LiteLLM Proxy Server bereitgestellt und zugänglich
- Zugang zu Claude-Modellen über Ihren gewählten Anbieter
Grundlegende LiteLLM-Einrichtung
Claude Code konfigurieren:
Authentifizierungsmethoden
Statischer API-Schlüssel
Einfachste Methode mit einem festen API-Schlüssel:
Dieser Wert wird als Authorization
- und Proxy-Authorization
-Header gesendet, obwohl Authorization
überschrieben werden kann (siehe Vertex “Client-spezifizierte Anmeldedaten” unten).
Dynamischer API-Schlüssel mit Helfer
Für rotierende Schlüssel oder benutzerbasierte Authentifizierung:
- Erstellen Sie ein API-Schlüssel-Helfer-Skript:
- Konfigurieren Sie Claude Code-Einstellungen zur Verwendung des Helfers:
- Token-Aktualisierungsintervall setzen:
Dieser Wert wird als Authorization
-, Proxy-Authorization
- und X-Api-Key
-Header gesendet, obwohl Authorization
überschrieben werden kann (siehe Google Vertex AI über LiteLLM). Der apiKeyHelper
hat niedrigere Priorität als ANTHROPIC_AUTH_TOKEN
oder ANTHROPIC_API_KEY
.
Anbieter-spezifische Konfigurationen
Anthropic API über LiteLLM
Verwendung des Pass-Through-Endpunkts:
Amazon Bedrock über LiteLLM
Verwendung des Pass-Through-Endpunkts:
Google Vertex AI über LiteLLM
Verwendung des Pass-Through-Endpunkts:
Empfohlen: Proxy-spezifizierte Anmeldedaten
Alternative: Client-spezifizierte Anmeldedaten
Wenn Sie lokale GCP-Anmeldedaten verwenden möchten:
- Authentifizierung mit GCP lokal:
- Claude Code-Umgebung setzen:
- LiteLLM-Header-Konfiguration aktualisieren:
Stellen Sie sicher, dass Ihre LiteLLM-Konfiguration general_settings.litellm_key_header_name
auf Proxy-Authorization
gesetzt hat, da sich das Pass-Through-GCP-Token im Authorization
-Header befindet.
Einheitlicher Endpunkt
Verwendung von LiteLLMs Anthropic-Format-Endpunkt:
Modellauswahl
Standardmäßig verwenden die Modelle die in Modellkonfiguration angegebenen.
Wenn Sie benutzerdefinierte Modellnamen in LiteLLM konfiguriert haben, setzen Sie die oben genannten Umgebungsvariablen auf diese benutzerdefinierten Namen.
Für detailliertere Informationen siehe die LiteLLM-Dokumentation.