Reichen Sie Feedback oder Fehler im Zusammenhang mit der OpenAI SDK-Kompatibilitätsfunktion hier ein.

Bevor Sie beginnen

Diese Kompatibilitätsschicht ist dafür gedacht, Modellfähigkeiten mit minimalem Entwicklungsaufwand zu testen und zu vergleichen, und wird nicht als langfristige oder produktionsreife Lösung für die meisten Anwendungsfälle betrachtet. Für die beste Erfahrung und Zugriff auf den vollen Funktionsumfang der Anthropic API (PDF-Verarbeitung, Zitationen, erweitertes Denken und Prompt-Caching) empfehlen wir die Verwendung der nativen Anthropic API.

Erste Schritte mit dem OpenAI SDK

Um die OpenAI SDK-Kompatibilitätsfunktion zu nutzen, müssen Sie:

  1. Ein offizielles OpenAI SDK verwenden
  2. Folgendes ändern:
    • Aktualisieren Sie Ihre Basis-URL, um auf die Anthropic API zu verweisen
    • Ersetzen Sie Ihren API-Schlüssel durch einen Anthropic API-Schlüssel
    • Aktualisieren Sie Ihren Modellnamen, um ein Claude-Modell zu verwenden
  3. Lesen Sie die nachfolgende Dokumentation, um zu erfahren, welche Funktionen unterstützt werden

Schnellstart-Beispiel

from openai import OpenAI

client = OpenAI(
    api_key="ANTHROPIC_API_KEY",  # Ihr Anthropic API-Schlüssel
    base_url="https://api.anthropic.com/v1/"  # Anthropic API-Endpunkt
)

response = client.chat.completions.create(
    model="claude-opus-4-20250514", # Anthropic-Modellname
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who are you?"}
    ],
)

print(response.choices[0].message.content)

Wichtige OpenAI-Kompatibilitätseinschränkungen

API-Verhalten

Hier sind die wesentlichsten Unterschiede zur Verwendung von OpenAI:

  • Der Parameter strict für Funktionsaufrufe wird ignoriert, was bedeutet, dass das Tool-Use-JSON nicht garantiert dem bereitgestellten Schema folgt.
  • Audio-Eingabe wird nicht unterstützt; sie wird einfach ignoriert und aus der Eingabe entfernt
  • Prompt-Caching wird nicht unterstützt, ist aber im Anthropic SDK verfügbar
  • System-/Entwicklernachrichten werden an den Anfang der Konversation verschoben und zusammengefügt, da Anthropic nur eine einzige anfängliche Systemnachricht unterstützt.

Die meisten nicht unterstützten Felder werden stillschweigend ignoriert, anstatt Fehler zu erzeugen. Diese sind alle unten dokumentiert.

Überlegungen zur Ausgabequalität

Wenn Sie viel an Ihrem Prompt gefeilt haben, ist er wahrscheinlich speziell für OpenAI optimiert. Erwägen Sie die Verwendung unseres Prompt-Verbesserers in der Anthropic Console als guten Ausgangspunkt.

System- / Entwicklernachrichten-Verschiebung

Die meisten Eingaben für das OpenAI SDK lassen sich direkt auf Anthropics API-Parameter abbilden, aber ein deutlicher Unterschied ist die Behandlung von System-/Entwickler-Prompts. Diese beiden Prompts können über OpenAI in einer Chat-Konversation platziert werden. Da Anthropic nur eine anfängliche Systemnachricht unterstützt, nehmen wir alle System-/Entwicklernachrichten und fügen sie mit einem einzelnen Zeilenumbruch (\n) dazwischen zusammen. Diese vollständige Zeichenfolge wird dann als eine einzige Systemnachricht am Anfang der Nachrichten bereitgestellt.

Unterstützung für erweitertes Denken

Sie können die Funktionen für erweitertes Denken aktivieren, indem Sie den Parameter thinking hinzufügen. Während dies Claudes Denkvermögen für komplexe Aufgaben verbessert, gibt das OpenAI SDK Claudes detaillierten Denkprozess nicht zurück. Für vollständige Funktionen des erweiterten Denkens, einschließlich des Zugriffs auf Claudes schrittweise Denkausgabe, verwenden Sie die native Anthropic API.

response = client.chat.completions.create(
    model="claude-opus-4-20250514",
    messages=...,
    extra_body={
        "thinking": { "type": "enabled", "budget_tokens": 2000 }
    }
)

Ratenbegrenzungen

Die Ratenbegrenzungen folgen Anthropics Standardlimits für den Endpunkt /v1/messages.

Detaillierte OpenAI-kompatible API-Unterstützung

Anforderungsfelder

Einfache Felder

FeldUnterstützungsstatus
modelVerwenden Sie Claude-Modellnamen
max_tokensVollständig unterstützt
max_completion_tokensVollständig unterstützt
streamVollständig unterstützt
stream_optionsVollständig unterstützt
top_pVollständig unterstützt
parallel_tool_callsVollständig unterstützt
stopAlle Stoppsequenzen ohne Leerzeichen funktionieren
temperatureZwischen 0 und 1 (inklusive). Werte größer als 1 werden auf 1 begrenzt.
nMuss genau 1 sein
logprobsIgnoriert
metadataIgnoriert
response_formatIgnoriert
predictionIgnoriert
presence_penaltyIgnoriert
frequency_penaltyIgnoriert
seedIgnoriert
service_tierIgnoriert
audioIgnoriert
logit_biasIgnoriert
storeIgnoriert
userIgnoriert
modalitiesIgnoriert
top_logprobsIgnoriert
Reasoning_effortIgnoriert

tools / functions Felder

messages Array-Felder

Antwortfelder

FeldUnterstützungsstatus
idVollständig unterstützt
choices[]Hat immer eine Länge von 1
choices[].finish_reasonVollständig unterstützt
choices[].indexVollständig unterstützt
choices[].message.roleVollständig unterstützt
choices[].message.contentVollständig unterstützt
choices[].message.tool_callsVollständig unterstützt
objectVollständig unterstützt
createdVollständig unterstützt
modelVollständig unterstützt
finish_reasonVollständig unterstützt
contentVollständig unterstützt
usage.completion_tokensVollständig unterstützt
usage.prompt_tokensVollständig unterstützt
usage.total_tokensVollständig unterstützt
usage.completion_tokens_detailsImmer leer
usage.prompt_tokens_detailsImmer leer
choices[].message.refusalImmer leer
choices[].message.audioImmer leer
logprobsImmer leer
service_tierImmer leer
system_fingerprintImmer leer

Fehlermeldungs-Kompatibilität

Die Kompatibilitätsschicht behält konsistente Fehlerformate mit der OpenAI API bei. Die detaillierten Fehlermeldungen werden jedoch nicht äquivalent sein. Wir empfehlen, die Fehlermeldungen nur für Protokollierung und Debugging zu verwenden.

Header-Kompatibilität

Während das OpenAI SDK automatisch Header verwaltet, hier ist die vollständige Liste der von Anthropics API unterstützten Header für Entwickler, die direkt mit ihnen arbeiten müssen.

HeaderUnterstützungsstatus
x-ratelimit-limit-requestsVollständig unterstützt
x-ratelimit-limit-tokensVollständig unterstützt
x-ratelimit-remaining-requestsVollständig unterstützt
x-ratelimit-remaining-tokensVollständig unterstützt
x-ratelimit-reset-requestsVollständig unterstützt
x-ratelimit-reset-tokensVollständig unterstützt
retry-afterVollständig unterstützt
request-idVollständig unterstützt
openai-versionImmer 2020-10-01
authorizationVollständig unterstützt
openai-processing-msImmer leer