Esempi di messaggi
Esempi di richieste e risposte per l’API Messages
Consulta la documentazione di riferimento dell’API per la documentazione completa sui parametri disponibili.
Richiesta e risposta di base
{
"id": "msg_01XFDUDYJgAACzvnptvVoYEL",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Ciao!"
}
],
"model": "claude-3-5-sonnet-20240620",
"stop_reason": "end_turn",
"stop_sequence": null,
"usage": {
"input_tokens": 12,
"output_tokens": 6
}
}
Turni di conversazione multipli
L’API Messages è stateless, il che significa che invii sempre la cronologia completa della conversazione all’API. Puoi utilizzare questo pattern per costruire una conversazione nel tempo. I turni di conversazione precedenti non devono necessariamente provenire da Claude: puoi utilizzare messaggi sintetici di assistant
.
#!/bin/sh
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data \
'{
"model": "claude-3-5-sonnet-20240620",
"max_tokens": 1024,
"messages": [
{"role": "user", "content": "Ciao, Claude"},
{"role": "assistant", "content": "Ciao!"},
{"role": "user", "content": "Puoi descrivermi gli LLM?"}
]
}'
import anthropic
message = anthropic.Anthropic().messages.create(
model="claude-3-5-sonnet-20240620",
max_tokens=1024,
messages=[
{"role": "user", "content": "Ciao, Claude"},
{"role": "assistant", "content": "Ciao!"},
{"role": "user", "content": "Puoi descrivermi gli LLM?"}
],
)
print(message)
import Anthropic from '@anthropic-ai/sdk';
const anthropic = new Anthropic();
await anthropic.messages.create({
model: 'claude-3-5-sonnet-20240620',
max_tokens: 1024,
messages: [
{"role": "user", "content": "Ciao, Claude"},
{"role": "assistant", "content": "Ciao!"},
{"role": "user", "content": "Puoi descrivermi gli LLM?"}
]
});
{
"id": "msg_018gCsTGsXkYJVqYPxTgDHBU",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Certo, sarò felice di fornire..."
}
],
"stop_reason": "end_turn",
"stop_sequence": null,
"usage": {
"input_tokens": 30,
"output_tokens": 309
}
}
Mettere le parole in bocca a Claude
Puoi pre-compilare parte della risposta di Claude nell’ultima posizione della lista dei messaggi di input. Questo può essere utilizzato per modellare la risposta di Claude. L’esempio seguente utilizza "max_tokens": 1
per ottenere una singola risposta a scelta multipla da Claude.
{
"id": "msg_01Q8Faay6S7QPTvEUUQARt7h",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "C"
}
],
"model": "claude-3-5-sonnet-20240620",
"stop_reason": "max_tokens",
"stop_sequence": null,
"usage": {
"input_tokens": 42,
"output_tokens": 1
}
}
Visione
Claude può leggere sia testo che immagini nelle richieste. Attualmente, supportiamo il tipo di sorgente base64
per le immagini e i tipi di media image/jpeg
, image/png
, image/gif
e image/webp
. Consulta la nostra guida sulla visione per ulteriori dettagli.
{
"id": "msg_01EcyWo6m4hyW8KHs2y2pei5",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Questa immagine mostra una formica, in particolare una vista ravvicinata di una formica. La formica è mostrata in dettaglio, con la sua testa, le antenne e le zampe chiaramente visibili. L'immagine è focalizzata sulla cattura dei dettagli intricati e delle caratteristiche della formica, probabilmente scattata con un obiettivo macro per ottenere una prospettiva estremamente ravvicinata."
}
],
"model": "claude-3-5-sonnet-20240620",
"stop_reason": "end_turn",
"stop_sequence": null,
"usage": {
"input_tokens": 1551,
"output_tokens": 71
}
}
Utilizzo di strumenti e modalità JSON
Consulta la nostra guida per esempi su come utilizzare gli strumenti con l’API Messages.