max_tokens
anpassen, um innerhalb des Kontextlimits zu bleiben, wenn die Summe aus Prompt-Tokens und max_tokens
das Kontextfenster des Modells überschritt. Das bedeutete, dass Sie einen großen max_tokens
-Wert festlegen konnten und das System diesen bei Bedarf stillschweigend reduzierte.
Bei erweiterten Denkmodellen wird max_tokens
(was Ihr Denkbudget einschließt, wenn Denken aktiviert ist) als strikte Grenze durchgesetzt. Das System gibt jetzt einen Validierungsfehler zurück, wenn Prompt-Tokens + max_tokens
die Größe des Kontextfensters überschreiten.