Compatibilité SDK OpenAI
Anthropic fournit une couche de compatibilité qui vous permet d’utiliser le SDK OpenAI pour tester l’API Anthropic. Avec quelques modifications de code, vous pouvez rapidement évaluer les capacités du modèle Anthropic.
Cette couche de compatibilité est principalement destinée à tester et comparer les capacités des modèles, et n’est pas considérée comme une solution à long terme ou prête pour la production pour la plupart des cas d’usage. Bien que nous ayons l’intention de la maintenir entièrement fonctionnelle et de ne pas apporter de changements cassants, notre priorité est la fiabilité et l’efficacité de l’API Anthropic.
Pour plus d’informations sur les limitations de compatibilité OpenAI connues, voir Limitations importantes de compatibilité OpenAI.
Si vous rencontrez des problèmes avec la fonctionnalité de compatibilité SDK OpenAI, veuillez nous le faire savoir ici.
Pour la meilleure expérience et l’accès à l’ensemble complet des fonctionnalités de l’API Anthropic (traitement PDF, citations, réflexion étendue, et mise en cache des prompts), nous recommandons d’utiliser l’API Anthropic native.
Commencer avec le SDK OpenAI
Pour utiliser la fonctionnalité de compatibilité SDK OpenAI, vous devrez :
- Utiliser un SDK OpenAI officiel
- Changer les éléments suivants
- Mettre à jour votre URL de base pour pointer vers l’API d’Anthropic
- Remplacer votre clé API par une clé API Anthropic
- Mettre à jour le nom de votre modèle pour utiliser un modèle Claude
- Consulter la documentation ci-dessous pour savoir quelles fonctionnalités sont prises en charge
Exemple de démarrage rapide
Limitations importantes de compatibilité OpenAI
Comportement de l’API
Voici les différences les plus substantielles par rapport à l’utilisation d’OpenAI :
- Le paramètre
strict
pour l’appel de fonction est ignoré, ce qui signifie que le JSON d’utilisation d’outil n’est pas garanti de suivre le schéma fourni. - L’entrée audio n’est pas prise en charge ; elle sera simplement ignorée et supprimée de l’entrée
- La mise en cache des prompts n’est pas prise en charge, mais elle est prise en charge dans le SDK Anthropic
- Les messages système/développeur sont hissés et concaténés au début de la conversation, car Anthropic ne prend en charge qu’un seul message système initial.
La plupart des champs non pris en charge sont silencieusement ignorés plutôt que de produire des erreurs. Ils sont tous documentés ci-dessous.
Considérations sur la qualité de sortie
Si vous avez fait beaucoup d’ajustements à votre prompt, il est probable qu’il soit bien adapté à OpenAI spécifiquement. Considérez l’utilisation de notre améliorateur de prompt dans la Console Anthropic comme un bon point de départ.
Hissage des messages système / développeur
La plupart des entrées du SDK OpenAI correspondent clairement directement aux paramètres de l’API d’Anthropic, mais une différence distincte est la gestion des prompts système / développeur. Ces deux prompts peuvent être placés tout au long d’une conversation de chat via OpenAI. Puisque Anthropic ne prend en charge qu’un message système initial, nous prenons tous les messages système/développeur et les concaténons ensemble avec un seul saut de ligne (\n
) entre eux. Cette chaîne complète est ensuite fournie comme un seul message système au début des messages.
Support de la réflexion étendue
Vous pouvez activer les capacités de réflexion étendue en ajoutant le paramètre thinking
. Bien que cela améliore le raisonnement de Claude pour les tâches complexes, le SDK OpenAI ne retournera pas le processus de pensée détaillé de Claude. Pour les fonctionnalités complètes de réflexion étendue, y compris l’accès à la sortie de raisonnement étape par étape de Claude, utilisez l’API Anthropic native.
Limites de taux
Les limites de taux suivent les limites standard d’Anthropic pour le point de terminaison /v1/messages
.
Support détaillé de l’API compatible OpenAI
Champs de requête
Champs simples
Champ | Statut de support |
---|---|
model | Utiliser les noms de modèles Claude |
max_tokens | Entièrement pris en charge |
max_completion_tokens | Entièrement pris en charge |
stream | Entièrement pris en charge |
stream_options | Entièrement pris en charge |
top_p | Entièrement pris en charge |
parallel_tool_calls | Entièrement pris en charge |
stop | Toutes les séquences d’arrêt non-espaces fonctionnent |
temperature | Entre 0 et 1 (inclus). Les valeurs supérieures à 1 sont plafonnées à 1. |
n | Doit être exactement 1 |
logprobs | Ignoré |
metadata | Ignoré |
response_format | Ignoré |
prediction | Ignoré |
presence_penalty | Ignoré |
frequency_penalty | Ignoré |
seed | Ignoré |
service_tier | Ignoré |
audio | Ignoré |
logit_bias | Ignoré |
store | Ignoré |
user | Ignoré |
modalities | Ignoré |
top_logprobs | Ignoré |
reasoning_effort | Ignoré |
Champs tools
/ functions
Champs du tableau messages
Champs de réponse
Champ | Statut de support |
---|---|
id | Entièrement pris en charge |
choices[] | Aura toujours une longueur de 1 |
choices[].finish_reason | Entièrement pris en charge |
choices[].index | Entièrement pris en charge |
choices[].message.role | Entièrement pris en charge |
choices[].message.content | Entièrement pris en charge |
choices[].message.tool_calls | Entièrement pris en charge |
object | Entièrement pris en charge |
created | Entièrement pris en charge |
model | Entièrement pris en charge |
finish_reason | Entièrement pris en charge |
content | Entièrement pris en charge |
usage.completion_tokens | Entièrement pris en charge |
usage.prompt_tokens | Entièrement pris en charge |
usage.total_tokens | Entièrement pris en charge |
usage.completion_tokens_details | Toujours vide |
usage.prompt_tokens_details | Toujours vide |
choices[].message.refusal | Toujours vide |
choices[].message.audio | Toujours vide |
logprobs | Toujours vide |
service_tier | Toujours vide |
system_fingerprint | Toujours vide |
Compatibilité des messages d’erreur
La couche de compatibilité maintient des formats d’erreur cohérents avec l’API OpenAI. Cependant, les messages d’erreur détaillés ne seront pas équivalents. Nous recommandons d’utiliser les messages d’erreur uniquement pour la journalisation et le débogage.
Compatibilité des en-têtes
Bien que le SDK OpenAI gère automatiquement les en-têtes, voici la liste complète des en-têtes pris en charge par l’API d’Anthropic pour les développeurs qui ont besoin de travailler avec eux directement.
En-tête | Statut de support |
---|---|
x-ratelimit-limit-requests | Entièrement pris en charge |
x-ratelimit-limit-tokens | Entièrement pris en charge |
x-ratelimit-remaining-requests | Entièrement pris en charge |
x-ratelimit-remaining-tokens | Entièrement pris en charge |
x-ratelimit-reset-requests | Entièrement pris en charge |
x-ratelimit-reset-tokens | Entièrement pris en charge |
retry-after | Entièrement pris en charge |
request-id | Entièrement pris en charge |
openai-version | Toujours 2020-10-01 |
authorization | Entièrement pris en charge |
openai-processing-ms | Toujours vide |