Soumettez vos commentaires ou signalements de bugs concernant la fonctionnalité de compatibilité du SDK OpenAI ici.

Avant de commencer

Cette couche de compatibilité est destinée à tester et comparer les capacités des modèles avec un effort de développement minimal et n’est pas considérée comme une solution à long terme ou prête pour la production dans la plupart des cas d’utilisation. Pour une meilleure expérience et un accès complet aux fonctionnalités de l’API Anthropic (traitement PDF, citations, réflexion approfondie, et mise en cache des prompts), nous recommandons d’utiliser l’API Anthropic native.

Démarrer avec le SDK OpenAI

Pour utiliser la fonctionnalité de compatibilité du SDK OpenAI, vous devrez :

  1. Utiliser un SDK OpenAI officiel
  2. Effectuer les modifications suivantes
    • Mettre à jour votre URL de base pour pointer vers l’API d’Anthropic
    • Remplacer votre clé API par une clé API Anthropic
    • Mettre à jour le nom de votre modèle pour utiliser un modèle Claude
  3. Consulter la documentation ci-dessous pour connaître les fonctionnalités prises en charge

Exemple de démarrage rapide

from openai import OpenAI

client = OpenAI(
    api_key="ANTHROPIC_API_KEY",  # Votre clé API Anthropic
    base_url="https://api.anthropic.com/v1/"  # Point de terminaison de l'API Anthropic
)

response = client.chat.completions.create(
    model="claude-opus-4-20250514", # Nom du modèle Anthropic
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who are you?"}
    ],
)

print(response.choices[0].message.content)

Limitations importantes de la compatibilité OpenAI

Comportement de l’API

Voici les différences les plus importantes par rapport à l’utilisation d’OpenAI :

  • Le paramètre strict pour l’appel de fonction est ignoré, ce qui signifie que le JSON d’utilisation d’outil n’est pas garanti de suivre le schéma fourni.
  • L’entrée audio n’est pas prise en charge ; elle sera simplement ignorée et supprimée de l’entrée
  • La mise en cache des prompts n’est pas prise en charge, mais elle l’est dans le SDK Anthropic
  • Les messages système/développeur sont remontés et concaténés au début de la conversation, car Anthropic ne prend en charge qu’un seul message système initial.

La plupart des champs non pris en charge sont silencieusement ignorés plutôt que de produire des erreurs. Tous ces éléments sont documentés ci-dessous.

Considérations sur la qualité des résultats

Si vous avez beaucoup ajusté votre prompt, il est probablement bien adapté spécifiquement à OpenAI. Envisagez d’utiliser notre améliorateur de prompts dans la Console Anthropic comme bon point de départ.

Remontée des messages système / développeur

La plupart des entrées du SDK OpenAI correspondent directement aux paramètres de l’API Anthropic, mais une différence notable est le traitement des prompts système / développeur. Ces deux types de prompts peuvent être placés tout au long d’une conversation via OpenAI. Comme Anthropic ne prend en charge qu’un message système initial, nous prenons tous les messages système/développeur et les concaténons avec un seul saut de ligne (\n) entre eux. Cette chaîne complète est ensuite fournie comme un seul message système au début des messages.

Prise en charge de la réflexion approfondie

Vous pouvez activer les capacités de réflexion approfondie en ajoutant le paramètre thinking. Bien que cela améliorera le raisonnement de Claude pour les tâches complexes, le SDK OpenAI ne renverra pas le processus de réflexion détaillé de Claude. Pour les fonctionnalités complètes de réflexion approfondie, y compris l’accès au raisonnement étape par étape de Claude, utilisez l’API Anthropic native.

response = client.chat.completions.create(
    model="claude-opus-4-20250514",
    messages=...,
    extra_body={
        "thinking": { "type": "enabled", "budget_tokens": 2000 }
    }
)

Limites de débit

Les limites de débit suivent les limites standard d’Anthropic pour le point de terminaison /v1/messages.

Support détaillé de l’API compatible OpenAI

Champs de requête

Champs simples

ChampStatut de prise en charge
modelUtilisez les noms de modèles Claude
max_tokensEntièrement pris en charge
max_completion_tokensEntièrement pris en charge
streamEntièrement pris en charge
stream_optionsEntièrement pris en charge
top_pEntièrement pris en charge
parallel_tool_callsEntièrement pris en charge
stopToutes les séquences d’arrêt non-espaces fonctionnent
temperatureEntre 0 et 1 (inclus). Les valeurs supérieures à 1 sont plafonnées à 1.
nDoit être exactement 1
logprobsIgnoré
metadataIgnoré
response_formatIgnoré
predictionIgnoré
presence_penaltyIgnoré
frequency_penaltyIgnoré
seedIgnoré
service_tierIgnoré
audioIgnoré
logit_biasIgnoré
storeIgnoré
userIgnoré
modalitiesIgnoré
top_logprobsIgnoré
Reasoning_effortIgnoré

Champs tools / functions

Champs du tableau messages

Champs de réponse

ChampStatut de prise en charge
idEntièrement pris en charge
choices[]Aura toujours une longueur de 1
choices[].finish_reasonEntièrement pris en charge
choices[].indexEntièrement pris en charge
choices[].message.roleEntièrement pris en charge
choices[].message.contentEntièrement pris en charge
choices[].message.tool_callsEntièrement pris en charge
objectEntièrement pris en charge
createdEntièrement pris en charge
modelEntièrement pris en charge
finish_reasonEntièrement pris en charge
contentEntièrement pris en charge
usage.completion_tokensEntièrement pris en charge
usage.prompt_tokensEntièrement pris en charge
usage.total_tokensEntièrement pris en charge
usage.completion_tokens_detailsToujours vide
usage.prompt_tokens_detailsToujours vide
choices[].message.refusalToujours vide
choices[].message.audioToujours vide
logprobsToujours vide
service_tierToujours vide
system_fingerprintToujours vide

Compatibilité des messages d’erreur

La couche de compatibilité maintient des formats d’erreur cohérents avec l’API OpenAI. Cependant, les messages d’erreur détaillés ne seront pas équivalents. Nous recommandons d’utiliser les messages d’erreur uniquement pour la journalisation et le débogage.

Compatibilité des en-têtes

Bien que le SDK OpenAI gère automatiquement les en-têtes, voici la liste complète des en-têtes pris en charge par l’API d’Anthropic pour les développeurs qui doivent travailler directement avec eux.

En-têteStatut de prise en charge
x-ratelimit-limit-requestsEntièrement pris en charge
x-ratelimit-limit-tokensEntièrement pris en charge
x-ratelimit-remaining-requestsEntièrement pris en charge
x-ratelimit-remaining-tokensEntièrement pris en charge
x-ratelimit-reset-requestsEntièrement pris en charge
x-ratelimit-reset-tokensEntièrement pris en charge
retry-afterEntièrement pris en charge
request-idEntièrement pris en charge
openai-versionToujours 2020-10-01
authorizationEntièrement pris en charge
openai-processing-msToujours vide