Prima di iniziare

Questo livello di compatibilità è pensato per testare e confrontare le capacità dei modelli con uno sforzo di sviluppo minimo e non è considerato una soluzione a lungo termine o pronta per la produzione nella maggior parte dei casi. Per la migliore esperienza e l’accesso al set completo di funzionalità dell’API Anthropic (elaborazione PDF, citazioni, pensiero esteso e caching dei prompt), raccomandiamo di utilizzare l’API Anthropic nativa.

Iniziare con l’SDK OpenAI

Per utilizzare la funzionalità di compatibilità SDK OpenAI, dovrai:

  1. Utilizzare un SDK OpenAI ufficiale
  2. Modificare quanto segue
    • Aggiornare l’URL base per puntare all’API di Anthropic
    • Sostituire la tua chiave API con una chiave API Anthropic
    • Aggiornare il nome del modello per utilizzare un modello Claude
  3. Consultare la documentazione qui sotto per vedere quali funzionalità sono supportate

Esempio di avvio rapido

Importanti limitazioni di compatibilità OpenAI

Comportamento API

Ecco le differenze più sostanziali rispetto all’uso di OpenAI:

  • Il parametro strict per la chiamata di funzioni viene ignorato, il che significa che il JSON per l’uso degli strumenti non è garantito seguire lo schema fornito
  • L’input audio non è supportato; verrà semplicemente ignorato e rimosso dall’input
  • Il caching dei prompt non è supportato, ma è supportato nell’SDK Anthropic
  • I messaggi di sistema/sviluppatore vengono sollevati e concatenati all’inizio della conversazione, poiché Anthropic supporta solo un singolo messaggio di sistema iniziale.

La maggior parte dei campi non supportati viene ignorata silenziosamente anziché produrre errori. Tutti questi sono documentati di seguito.

Considerazioni sulla qualità dell’output

Se hai fatto molte modifiche al tuo prompt, è probabile che sia ben ottimizzato specificamente per OpenAI. Considera l’utilizzo del nostro miglioratore di prompt nella Console Anthropic come un buon punto di partenza.

Sollevamento dei messaggi di sistema / sviluppatore

La maggior parte degli input all’SDK OpenAI si mappano direttamente ai parametri dell’API di Anthropic, ma una differenza distintiva è la gestione dei prompt di sistema / sviluppatore. Questi due prompt possono essere inseriti in tutta una conversazione chat tramite OpenAI. Poiché Anthropic supporta solo un messaggio di sistema iniziale, prendiamo tutti i messaggi di sistema/sviluppatore e li concateniamo insieme con un singolo newline (\n) tra di loro. Questa stringa completa viene quindi fornita come un singolo messaggio di sistema all’inizio dei messaggi.

Supporto al pensiero esteso

Puoi abilitare le capacità di pensiero esteso aggiungendo il parametro thinking. Mentre questo migliorerà il ragionamento di Claude per compiti complessi, l’SDK OpenAI non restituirà il processo di pensiero dettagliato di Claude. Per le funzionalità complete di pensiero esteso, incluso l’accesso all’output del ragionamento passo-passo di Claude, usa l’API Anthropic nativa.

Limiti di velocità

I limiti di velocità seguono i limiti standard di Anthropic per l’endpoint /v1/messages.

Supporto API OpenAI compatibile dettagliato

Campi della richiesta

Campi semplici

CampoStato del supporto
modelUsa i nomi dei modelli Claude
max_tokensCompletamente supportato
max_completion_tokensCompletamente supportato
streamCompletamente supportato
stream_optionsCompletamente supportato
top_pCompletamente supportato
parallel_tool_callsCompletamente supportato
stopTutte le sequenze di stop non-whitespace funzionano
temperatureTra 0 e 1 (inclusi). Valori maggiori di 1 sono limitati a 1.
nDeve essere esattamente 1
logprobsIgnorato
metadataIgnorato
response_formatIgnorato
predictionIgnorato
presence_penaltyIgnorato
frequency_penaltyIgnorato
seedIgnorato
service_tierIgnorato
audioIgnorato
logit_biasIgnorato
storeIgnorato
userIgnorato
modalitiesIgnorato
top_logprobsIgnorato
Reasoning_effortIgnorato

Campi tools / functions

Campi array messages

Campi di risposta

CampoStato del supporto
idCompletamente supportato
choices[]Avrà sempre lunghezza 1
choices[].finish_reasonCompletamente supportato
choices[].indexCompletamente supportato
choices[].message.roleCompletamente supportato
choices[].message.contentCompletamente supportato
choices[].message.tool_callsCompletamente supportato
objectCompletamente supportato
createdCompletamente supportato
modelCompletamente supportato
finish_reasonCompletamente supportato
contentCompletamente supportato
usage.completion_tokensCompletamente supportato
usage.prompt_tokensCompletamente supportato
usage.total_tokensCompletamente supportato
usage.completion_tokens_detailsSempre vuoto
usage.prompt_tokens_detailsSempre vuoto
choices[].message.refusalSempre vuoto
choices[].message.audioSempre vuoto
logprobsSempre vuoto
service_tierSempre vuoto
system_fingerprintSempre vuoto

Compatibilità dei messaggi di errore

Il livello di compatibilità mantiene formati di errore coerenti con l’API OpenAI. Tuttavia, i messaggi di errore dettagliati non saranno equivalenti. Raccomandiamo di utilizzare i messaggi di errore solo per la registrazione e il debug.

Compatibilità degli header

Mentre l’SDK OpenAI gestisce automaticamente gli header, ecco l’elenco completo degli header supportati dall’API di Anthropic per gli sviluppatori che hanno bisogno di lavorare direttamente con essi.

HeaderStato del supporto
x-ratelimit-limit-requestsCompletamente supportato
x-ratelimit-limit-tokensCompletamente supportato
x-ratelimit-remaining-requestsCompletamente supportato
x-ratelimit-remaining-tokensCompletamente supportato
x-ratelimit-reset-requestsCompletamente supportato
x-ratelimit-reset-tokensCompletamente supportato
retry-afterCompletamente supportato
x-request-idCompletamente supportato
openai-versionSempre 2020-10-01
authorizationCompletamente supportato
openai-processing-msSempre vuoto