Siehe die API-Referenz für die vollständige Dokumentation der verfügbaren Parameter.
Grundlegende Anfrage und Antwort
{
"id": "msg_01XFDUDYJgAACzvnptvVoYEL",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Hello!"
}
],
"model": "claude-3-5-sonnet-20241022",
"stop_reason": "end_turn",
"stop_sequence": null,
"usage": {
"input_tokens": 12,
"output_tokens": 6
}
}
Mehrere Gesprächsrunden
Die Messages API ist zustandslos, was bedeutet, dass Sie immer den vollständigen Gesprächsverlauf an die API senden. Sie können dieses Muster verwenden, um im Laufe der Zeit ein Gespräch aufzubauen. Frühere Gesprächsrunden müssen nicht unbedingt tatsächlich von Claude stammen - Sie können synthetische assistant
-Nachrichten verwenden.
#!/bin/sh
curl https://api.anthropic.com/v1/messages \
--header "x-api-key: $ANTHROPIC_API_KEY" \
--header "anthropic-version: 2023-06-01" \
--header "content-type: application/json" \
--data \
'{
"model": "claude-3-5-sonnet-20241022",
"max_tokens": 1024,
"messages": [
{"role": "user", "content": "Hello, Claude"},
{"role": "assistant", "content": "Hello!"},
{"role": "user", "content": "Can you describe LLMs to me?"}
]
}'
import anthropic
message = anthropic.Anthropic().messages.create(
model="claude-3-5-sonnet-20241022",
max_tokens=1024,
messages=[
{"role": "user", "content": "Hello, Claude"},
{"role": "assistant", "content": "Hello!"},
{"role": "user", "content": "Can you describe LLMs to me?"}
],
)
print(message)
import Anthropic from '@anthropic-ai/sdk';
const anthropic = new Anthropic();
await anthropic.messages.create({
model: 'claude-3-5-sonnet-20241022',
max_tokens: 1024,
messages: [
{"role": "user", "content": "Hello, Claude"},
{"role": "assistant", "content": "Hello!"},
{"role": "user", "content": "Can you describe LLMs to me?"}
]
});
{
"id": "msg_018gCsTGsXkYJVqYPxTgDHBU",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Sure, I'd be happy to provide..."
}
],
"stop_reason": "end_turn",
"stop_sequence": null,
"usage": {
"input_tokens": 30,
"output_tokens": 309
}
}
Claude Worte in den Mund legen
Sie können einen Teil von Claudes Antwort an der letzten Position der Eingabenachrichtenliste vorausfüllen. Dies kann verwendet werden, um Claudes Antwort zu gestalten. Das folgende Beispiel verwendet "max_tokens": 1
, um eine einzelne Multiple-Choice-Antwort von Claude zu erhalten.
{
"id": "msg_01Q8Faay6S7QPTvEUUQARt7h",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "C"
}
],
"model": "claude-3-5-sonnet-20241022",
"stop_reason": "max_tokens",
"stop_sequence": null,
"usage": {
"input_tokens": 42,
"output_tokens": 1
}
}
Vision
Claude kann sowohl Text als auch Bilder in Anfragen lesen. Derzeit unterstützen wir den base64
-Quellentyp für Bilder und die Medientypen image/jpeg
, image/png
, image/gif
und image/webp
. Weitere Details finden Sie in unserem Vision-Leitfaden.
{
"id": "msg_01EcyWo6m4hyW8KHs2y2pei5",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Dieses Bild zeigt eine Ameise, genauer gesagt eine Nahaufnahme einer Ameise. Die Ameise wird detailliert dargestellt, wobei ihr charakteristischer Kopf, die Antennen und Beine deutlich zu erkennen sind. Das Bild konzentriert sich darauf, die feinen Details und Merkmale der Ameise einzufangen, wahrscheinlich mit einem Makroobjektiv aufgenommen, um eine extreme Nahaufnahme zu erhalten."
}
],
"model": "claude-3-5-sonnet-20241022",
"stop_reason": "end_turn",
"stop_sequence": null,
"usage": {
"input_tokens": 1551,
"output_tokens": 71
}
}
Werkzeugnutzung, JSON-Modus und Computernutzung (Beta)
Siehe unseren Leitfaden für Beispiele zur Verwendung von Werkzeugen mit der Messages API.
Siehe unseren Leitfaden zur Computernutzung (Beta) für Beispiele zur Steuerung von Desktop-Computerumgebungen mit der Messages API.