max_tokens
-Parameters, werden als Ausgabe-Token abgerechnet und zählen zu den Ratenlimits.
Jedoch werden vorherige Denkblöcke automatisch aus der Kontextfenster-Berechnung von der Anthropic API entfernt und sind nicht Teil der Gesprächshistorie, die das Modell für nachfolgende Runden “sieht”, wodurch Token-Kapazität für tatsächlichen Gesprächsinhalt erhalten bleibt.
Das folgende Diagramm demonstriert das spezialisierte Token-Management, wenn erweitertes Denken aktiviert ist:
context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens
.thinking
-Blöcke als auch redacted_thinking
-Blöcke.Erste Runden-Architektur
Tool-Ergebnis-Behandlung (Runde 2)
tool_result
. Der erweiterte Denkblock muss mit den entsprechenden Tool-Ergebnissen zurückgegeben werden. Dies ist der einzige Fall, in dem Sie Denkblöcke zurückgeben müssen.user
-Nachricht).Dritter Schritt
User
-Runde hinzufügen.User
-Runde außerhalb des Tool-Nutzungszyklus gibt, wird Claude einen neuen erweiterten Denkblock generieren und von dort aus fortfahren.Assistant
-Runde zählt als Teil des Kontextfensters.context_window = input_tokens + current_turn_tokens
.tool_result
-Benutzerrunde dazwischen.Für weitere Informationen über die Verwendung von Tools mit erweitertem Denken siehe unseren Leitfaden für erweitertes Denken.context-1m-2025-08-07
Beta-Header in Ihre API-Anfragen ein: