Bedrock, Vertex und Proxies
Konfigurieren Sie Claude Code für die Arbeit mit Amazon Bedrock und Google Vertex AI und verbinden Sie sich über Proxies.
Modellkonfiguration
Standardmäßig verwendet Claude Code claude-opus-4-20250514
. Sie können dies mit den folgenden Umgebungsvariablen überschreiben:
Sie können diese Variablen auch über die globale Konfiguration festlegen:
Siehe unsere Modellnamen-Referenz für alle verfügbaren Modelle bei verschiedenen Anbietern.
Verwendung mit Drittanbieter-APIs
Claude Code benötigt Zugriff auf sowohl Claude Sonnet 3.7 als auch Claude Haiku 3.5 Modelle, unabhängig davon, welchen API-Anbieter Sie verwenden.
Verbindung zu Amazon Bedrock herstellen
Wenn Sie kein Prompt-Caching aktiviert haben, setzen Sie auch:
Kontaktieren Sie Amazon Bedrock für Prompt-Caching für reduzierte Kosten und höhere Rate-Limits.
Erfordert Standard-AWS-SDK-Anmeldedaten (z.B. ~/.aws/credentials
oder relevante Umgebungsvariablen wie AWS_ACCESS_KEY_ID
, AWS_SECRET_ACCESS_KEY
). Um AWS-Anmeldedaten einzurichten, führen Sie aus:
Wenn Sie auf Claude Code über einen Proxy zugreifen möchten, können Sie die Umgebungsvariable ANTHROPIC_BEDROCK_BASE_URL
verwenden:
Wenn Ihr Proxy eigene AWS-Anmeldedaten verwaltet, können Sie die Umgebungsvariable CLAUDE_CODE_SKIP_BEDROCK_AUTH
verwenden, um die Anforderung von Claude Code für AWS-Anmeldedaten zu entfernen.
Benutzer benötigen Zugriff auf sowohl Claude Sonnet 3.7 als auch Claude Haiku 3.5 Modelle in ihrem AWS-Konto. Wenn Sie eine Modellzugriffsrolle haben, müssen Sie möglicherweise Zugriff auf diese Modelle beantragen, falls sie noch nicht verfügbar sind. Der Zugriff auf Bedrock in jeder Region ist notwendig, da Inferenzprofile regionsübergreifende Fähigkeiten erfordern.
Verbindung zu Google Vertex AI herstellen
Wenn Sie kein Prompt-Caching aktiviert haben, setzen Sie auch:
Claude Code auf Vertex AI unterstützt derzeit nur die Region us-east5
. Stellen
Sie sicher, dass Ihr Projekt in dieser spezifischen Region Kontingent zugewiesen hat.
Benutzer benötigen Zugriff auf sowohl Claude Sonnet 3.7 als auch Claude Haiku 3.5 Modelle in ihrem Vertex AI-Projekt.
Erfordert Standard-GCP-Anmeldedaten, die über google-auth-library konfiguriert sind. Um GCP-Anmeldedaten einzurichten, führen Sie aus:
Wenn Sie auf Claude Code über einen Proxy zugreifen möchten, können Sie die Umgebungsvariable ANTHROPIC_VERTEX_BASE_URL
verwenden:
Wenn Ihr Proxy eigene GCP-Anmeldedaten verwaltet, können Sie die Umgebungsvariable CLAUDE_CODE_SKIP_VERTEX_AUTH
verwenden, um die Anforderung von Claude Code für GCP-Anmeldedaten zu entfernen.
Für die beste Erfahrung kontaktieren Sie Google für erhöhte Rate-Limits.
Verbindung über einen Proxy herstellen
Bei der Verwendung von Claude Code mit einem LLM-Proxy können Sie das Authentifizierungsverhalten mit den folgenden Umgebungsvariablen und Konfigurationen steuern. Beachten Sie, dass Sie diese mit Bedrock- und Vertex-spezifischen Einstellungen kombinieren können.
Einstellungen
Claude Code unterstützt eine Reihe von Einstellungen, die über Umgebungsvariablen gesteuert werden, um die Verwendung mit Bedrock und Vertex zu konfigurieren. Siehe Umgebungsvariablen für eine vollständige Referenz.
Wenn Sie lieber über eine Datei statt über Umgebungsvariablen konfigurieren möchten, können Sie jede dieser Einstellungen zum env
-Objekt in Ihren Claude Code-Einstellungen Dateien hinzufügen.
Sie können auch die Einstellung apiKeyHelper
konfigurieren, um ein benutzerdefiniertes Shell-Skript zum Abrufen eines API-Schlüssels festzulegen (wird einmal beim Start aufgerufen und für die Dauer jeder Sitzung zwischengespeichert oder bis CLAUDE_CODE_API_KEY_HELPER_TTL_MS
abläuft).
LiteLLM
LiteLLM ist ein Drittanbieter-Proxy-Dienst. Anthropic unterstützt, wartet oder prüft nicht die Sicherheit oder Funktionalität von LiteLLM. Dieser Leitfaden wird zu Informationszwecken bereitgestellt und kann veralten. Verwenden Sie ihn nach eigenem Ermessen.
Dieser Abschnitt zeigt die Konfiguration von Claude Code mit LiteLLM Proxy Server, einem Drittanbieter-LLM-Proxy, der Nutzungs- und Ausgabenverfolgung, zentralisierte Authentifizierung, Budgetierung pro Benutzer und mehr bietet.
Schritt 1: Voraussetzungen
- Claude Code auf die neueste Version aktualisiert
- LiteLLM Proxy Server läuft und ist für Claude Code netzwerktechnisch zugänglich
- Ihr LiteLLM-Proxy-Schlüssel
Schritt 2: Proxy-Authentifizierung einrichten
Wählen Sie eine dieser Authentifizierungsmethoden:
Option A: Statischer Proxy-Schlüssel Setzen Sie Ihren Proxy-Schlüssel als Umgebungsvariable:
Option B: Dynamischer Proxy-Schlüssel Wenn Ihre Organisation rotierende Schlüssel oder dynamische Authentifizierung verwendet:
- Setzen Sie die Umgebungsvariable
ANTHROPIC_AUTH_TOKEN
nicht - Erstellen Sie ein Schlüssel-Helfer-Skript, um Authentifizierungs-Tokens bereitzustellen
- Registrieren Sie das Skript unter der
apiKeyHelper
-Konfiguration in Ihren Claude Code-Einstellungen - Setzen Sie die Token-Lebensdauer, um automatische Aktualisierung zu ermöglichen:
Setzen Sie dies auf die Lebensdauer (in Millisekunden) der Tokens, die von Ihrem
apiKeyHelper
zurückgegeben werden.
Schritt 3: Konfigurieren Sie Ihre Bereitstellung
Wählen Sie, welche Claude-Bereitstellung Sie über LiteLLM verwenden möchten:
- Anthropic API: Direkte Verbindung zur Anthropic-API
- Bedrock: Amazon Bedrock mit Claude-Modellen
- Vertex AI: Google Cloud Vertex AI mit Claude-Modellen
Option A: Anthropic API über LiteLLM
- Konfigurieren Sie den LiteLLM-Endpunkt:
Option B: Bedrock über LiteLLM
- Konfigurieren Sie Bedrock-Einstellungen:
Option C: Vertex AI über LiteLLM
Empfohlen: Vom Proxy angegebene Anmeldedaten
- Konfigurieren Sie Vertex-Einstellungen:
Alternative: Vom Client angegebene Anmeldedaten
Wenn Sie lokale GCP-Anmeldedaten verwenden möchten:
-
Authentifizieren Sie sich lokal bei GCP:
-
Konfigurieren Sie Vertex-Einstellungen:
-
Aktualisieren Sie die LiteLLM-Header-Konfiguration:
Stellen Sie sicher, dass Ihre LiteLLM-Konfiguration
general_settings.litellm_key_header_name
aufProxy-Authorization
gesetzt hat, da das durchgereichte GCP-Token sich imAuthorization
-Header befinden wird.
Schritt 4. Auswahl eines Modells
Standardmäßig werden die Modelle verwendet, die in Modellkonfiguration angegeben sind.
Wenn Sie benutzerdefinierte Modellnamen in LiteLLM konfiguriert haben, setzen Sie die oben genannten Umgebungsvariablen auf diese benutzerdefinierten Namen.
Für detailliertere Informationen siehe die LiteLLM-Dokumentation.