Ventanas de contexto
Entendiendo la ventana de contexto
La “ventana de contexto” se refiere a la totalidad de la cantidad de texto que un modelo de lenguaje puede revisar y referenciar al generar nuevo texto, más el nuevo texto que genera. Esto es diferente del gran corpus de datos en el que se entrenó el modelo de lenguaje, y en su lugar representa una “memoria de trabajo” para el modelo. Una ventana de contexto más grande permite al modelo entender y responder a prompts más complejos y extensos, mientras que una ventana de contexto más pequeña puede limitar la capacidad del modelo para manejar prompts más largos o mantener coherencia durante conversaciones extendidas.
El diagrama a continuación ilustra el comportamiento estándar de la ventana de contexto para solicitudes de API1:
1Para interfaces de chat, como para claude.ai, las ventanas de contexto también pueden configurarse en un sistema rotativo “primero en entrar, primero en salir”.
- Acumulación progresiva de tokens: A medida que la conversación avanza a través de turnos, cada mensaje del usuario y respuesta del asistente se acumula dentro de la ventana de contexto. Los turnos anteriores se preservan completamente.
- Patrón de crecimiento lineal: El uso del contexto crece linealmente con cada turno, con los turnos anteriores preservados completamente.
- Capacidad de 200K tokens: La ventana de contexto total disponible (200,000 tokens) representa la capacidad máxima para almacenar el historial de conversación y generar nueva salida de Claude.
- Flujo de entrada-salida: Cada turno consiste en:
- Fase de entrada: Contiene todo el historial de conversación anterior más el mensaje actual del usuario
- Fase de salida: Genera una respuesta de texto que se convierte en parte de una entrada futura
La ventana de contexto con pensamiento extendido
Al usar pensamiento extendido, todos los tokens de entrada y salida, incluyendo los tokens utilizados para pensar, cuentan hacia el límite de la ventana de contexto, con algunos matices en situaciones de múltiples turnos.
Los tokens del presupuesto de pensamiento son un subconjunto de tu parámetro max_tokens
, se facturan como tokens de salida y cuentan hacia los límites de tasa.
Sin embargo, los bloques de pensamiento anteriores se eliminan automáticamente del cálculo de la ventana de contexto por la API de Anthropic y no son parte del historial de conversación que el modelo “ve” para turnos posteriores, preservando la capacidad de tokens para el contenido real de la conversación.
El diagrama a continuación demuestra la gestión especializada de tokens cuando el pensamiento extendido está habilitado:
- Eliminación del pensamiento extendido: Los bloques de pensamiento extendido (mostrados en gris oscuro) se generan durante la fase de salida de cada turno, pero no se llevan adelante como tokens de entrada para turnos posteriores. No necesitas eliminar los bloques de pensamiento tú mismo. La API de Anthropic hace esto automáticamente si los devuelves.
- Detalles de implementación técnica:
- La API excluye automáticamente los bloques de pensamiento de turnos anteriores cuando los devuelves como parte del historial de conversación.
- Los tokens de pensamiento extendido se facturan como tokens de salida solo una vez, durante su generación.
- El cálculo efectivo de la ventana de contexto se convierte en:
context_window = (input_tokens - previous_thinking_tokens) + current_turn_tokens
. - Los tokens de pensamiento incluyen tanto bloques
thinking
como bloquesredacted_thinking
.
Esta arquitectura es eficiente en tokens y permite un razonamiento extenso sin desperdicio de tokens, ya que los bloques de pensamiento pueden ser sustanciales en longitud.
Puedes leer más sobre la ventana de contexto y el pensamiento extendido en nuestra guía de pensamiento extendido.
La ventana de contexto con pensamiento extendido y uso de herramientas
El diagrama a continuación ilustra la gestión de tokens de la ventana de contexto al combinar pensamiento extendido con uso de herramientas:
Arquitectura del primer turno
- Componentes de entrada: Configuración de herramientas y mensaje del usuario
- Componentes de salida: Pensamiento extendido + respuesta de texto + solicitud de uso de herramienta
- Cálculo de tokens: Todos los componentes de entrada y salida cuentan hacia la ventana de contexto, y todos los componentes de salida se facturan como tokens de salida.
Manejo de resultados de herramientas (turno 2)
- Componentes de entrada: Cada bloque en el primer turno así como el
tool_result
. El bloque de pensamiento extendido debe ser devuelto con los resultados de herramienta correspondientes. Este es el único caso en el que tienes que devolver bloques de pensamiento. - Componentes de salida: Después de que los resultados de herramientas han sido devueltos a Claude, Claude responderá con solo texto (sin pensamiento extendido adicional hasta el siguiente mensaje de
user
). - Cálculo de tokens: Todos los componentes de entrada y salida cuentan hacia la ventana de contexto, y todos los componentes de salida se facturan como tokens de salida.
Tercer Paso
- Componentes de entrada: Todas las entradas y la salida del turno anterior se llevan adelante con la excepción del bloque de pensamiento, que puede eliminarse ahora que Claude ha completado todo el ciclo de uso de herramientas. La API eliminará automáticamente el bloque de pensamiento si lo devuelves, o puedes sentirte libre de eliminarlo tú mismo en esta etapa. Aquí también es donde agregarías el siguiente turno de
User
. - Componentes de salida: Dado que hay un nuevo turno de
User
fuera del ciclo de uso de herramientas, Claude generará un nuevo bloque de pensamiento extendido y continuará desde ahí. - Cálculo de tokens: Los tokens de pensamiento anteriores se eliminan automáticamente de los cálculos de la ventana de contexto. Todos los otros bloques anteriores aún cuentan como parte de la ventana de tokens, y el bloque de pensamiento en el turno actual de
Assistant
cuenta como parte de la ventana de contexto.
- Consideraciones para el uso de herramientas con pensamiento extendido:
- Al publicar resultados de herramientas, debe incluirse todo el bloque de pensamiento sin modificar que acompaña esa solicitud específica de herramienta (incluyendo porciones de firma/redactadas).
- El cálculo efectivo de la ventana de contexto para pensamiento extendido con uso de herramientas se convierte en:
context_window = input_tokens + current_turn_tokens
. - El sistema usa firmas criptográficas para verificar la autenticidad del bloque de pensamiento. Fallar en preservar los bloques de pensamiento durante el uso de herramientas puede romper la continuidad de razonamiento de Claude. Por lo tanto, si modificas los bloques de pensamiento, la API devolverá un error.
Los modelos Claude 4 soportan pensamiento intercalado, que permite a Claude pensar entre llamadas de herramientas y hacer razonamiento más sofisticado después de recibir resultados de herramientas.
Claude Sonnet 3.7 no soporta pensamiento intercalado, por lo que no hay intercalación de pensamiento extendido y llamadas de herramientas sin un turno de usuario que no sea tool_result
en el medio.
Para más información sobre usar herramientas con pensamiento extendido, consulta nuestra guía de pensamiento extendido.
Ventana de contexto de 1M tokens
Claude Sonnet 4 soporta una ventana de contexto de 1 millón de tokens. Esta ventana de contexto extendida te permite procesar documentos mucho más grandes, mantener conversaciones más largas y trabajar con bases de código más extensas.
La ventana de contexto de 1M tokens está actualmente en beta para organizaciones en nivel de uso 4 y organizaciones con límites de tasa personalizados. La ventana de contexto de 1M tokens solo está disponible para Claude Sonnet 4.
Para usar la ventana de contexto de 1M tokens, incluye el encabezado beta context-1m-2025-08-07
en tus solicitudes de API:
Consideraciones importantes:
- Estado beta: Esta es una característica beta sujeta a cambios. Las características y precios pueden ser modificados o eliminados en versiones futuras.
- Requisito de nivel de uso: La ventana de contexto de 1M tokens está disponible para organizaciones en nivel de uso 4 y organizaciones con límites de tasa personalizados. Las organizaciones de nivel inferior deben avanzar al nivel de uso 4 para acceder a esta característica.
- Disponibilidad: La ventana de contexto de 1M tokens está actualmente disponible en la API de Anthropic y Amazon Bedrock. El soporte para Google Vertex AI seguirá.
- Precios: Las solicitudes que excedan 200K tokens se cobran automáticamente a tarifas premium (2x entrada, 1.5x salida). Consulta la documentación de precios para detalles.
- Límites de tasa: Las solicitudes de contexto largo tienen límites de tasa dedicados. Consulta la documentación de límites de tasa para detalles.
- Consideraciones multimodales: Al procesar grandes números de imágenes o pdfs, ten en cuenta que los archivos pueden variar en el uso de tokens. Al emparejar un prompt grande con un gran número de imágenes, puedes alcanzar límites de tamaño de solicitud.
Gestión de ventana de contexto con modelos Claude más nuevos
En los modelos Claude más nuevos (comenzando con Claude Sonnet 3.7), si la suma de tokens de prompt y tokens de salida excede la ventana de contexto del modelo, el sistema devolverá un error de validación en lugar de truncar silenciosamente el contexto. Este cambio proporciona un comportamiento más predecible pero requiere una gestión de tokens más cuidadosa.
Para planificar tu uso de tokens y asegurar que te mantengas dentro de los límites de la ventana de contexto, puedes usar la API de conteo de tokens para estimar cuántos tokens usarán tus mensajes antes de enviarlos a Claude.
Consulta nuestra tabla de comparación de modelos para una lista de tamaños de ventana de contexto por modelo.
Próximos pasos
Tabla de comparación de modelos
Consulta nuestra tabla de comparación de modelos para una lista de tamaños de ventana de contexto y precios de tokens de entrada / salida por modelo.
Resumen de pensamiento extendido
Aprende más sobre cómo funciona el pensamiento extendido y cómo implementarlo junto con otras características como el uso de herramientas y el almacenamiento en caché de prompts.