Расширенное мышление дает Claude улучшенные возможности рассуждения для сложных задач, обеспечивая различные уровни прозрачности в его пошаговый мыслительный процесс перед тем, как он предоставит свой окончательный ответ.

Поддерживаемые модели

Расширенное мышление поддерживается в следующих моделях:

  • Claude Opus 4 (claude-opus-4-20250514)
  • Claude Sonnet 4 (claude-sonnet-4-20250514)
  • Claude Sonnet 3.7 (claude-3-7-sonnet-20250219)

Поведение API различается между моделями Claude 3.7 и Claude 4, но формы API остаются точно такими же.

Для получения дополнительной информации см. Различия в мышлении между версиями моделей.

Как работает расширенное мышление

Когда расширенное мышление включено, Claude создает блоки содержимого thinking, где он выводит свои внутренние рассуждения. Claude включает идеи из этих рассуждений перед созданием окончательного ответа.

Ответ API будет включать блоки содержимого thinking, за которыми следуют блоки содержимого text.

Вот пример формата ответа по умолчанию:

{
  "content": [
    {
      "type": "thinking",
      "thinking": "Позвольте мне проанализировать это пошагово...",
      "signature": "WaUjzkypQ2mUEVM36O2TxuC06KN8xyfbJwyem2dw3URve/op91XWHOEBLLqIOMfFG/UvLEczmEsUjavL...."
    },
    {
      "type": "text",
      "text": "На основе моего анализа..."
    }
  ]
}

Для получения дополнительной информации о формате ответа расширенного мышления см. Справочник по API сообщений.

Как использовать расширенное мышление

Вот пример использования расширенного мышления в API сообщений:

curl https://api.anthropic.com/v1/messages \
     --header "x-api-key: $ANTHROPIC_API_KEY" \
     --header "anthropic-version: 2023-06-01" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "claude-sonnet-4-20250514",
    "max_tokens": 16000,
    "thinking": {
        "type": "enabled",
        "budget_tokens": 10000
    },
    "messages": [
        {
            "role": "user",
            "content": "Существует ли бесконечное количество простых чисел таких, что n mod 4 == 3?"
        }
    ]
}'

Чтобы включить расширенное мышление, добавьте объект thinking с параметром type, установленным в enabled, и budget_tokens в указанный бюджет токенов для расширенного мышления.

Параметр budget_tokens определяет максимальное количество токенов, которое Claude разрешено использовать для своего внутреннего процесса рассуждения. В моделях Claude 4 этот лимит применяется к полным токенам мышления, а не к суммированному выводу. Большие бюджеты могут улучшить качество ответов, позволяя более тщательный анализ сложных проблем, хотя Claude может не использовать весь выделенный бюджет, особенно в диапазонах выше 32k.

budget_tokens должен быть установлен в значение меньше max_tokens. Однако при использовании чередующегося мышления с инструментами вы можете превысить этот лимит, поскольку лимит токенов становится вашим полным контекстным окном (200k токенов).

Суммированное мышление

При включенном расширенном мышлении API сообщений для моделей Claude 4 возвращает краткое изложение полного мыслительного процесса Claude. Суммированное мышление обеспечивает полные преимущества интеллекта расширенного мышления, предотвращая при этом неправильное использование.

Вот некоторые важные соображения для суммированного мышления:

  • Вам выставляется счет за полные токены мышления, сгенерированные исходным запросом, а не за токены краткого изложения.
  • Количество выходных токенов к оплате не будет соответствовать количеству токенов, которые вы видите в ответе.
  • Первые несколько строк вывода мышления более подробны, предоставляя детальные рассуждения, которые особенно полезны для целей инженерии промптов.
  • Поскольку Anthropic стремится улучшить функцию расширенного мышления, поведение суммирования может изменяться.
  • Суммирование сохраняет ключевые идеи мыслительного процесса Claude с минимальной дополнительной задержкой, обеспечивая потоковый пользовательский опыт и легкую миграцию с моделей Claude 3.7 на модели Claude 4.
  • Суммирование обрабатывается другой моделью, чем та, на которую вы нацеливаетесь в своих запросах. Модель мышления не видит суммированный вывод.

Claude Sonnet 3.7 продолжает возвращать полный вывод мышления.

В редких случаях, когда вам нужен доступ к полному выводу мышления для моделей Claude 4, свяжитесь с нашей командой продаж.

Потоковое мышление

Вы можете передавать ответы расширенного мышления в потоке, используя события, отправляемые сервером (SSE).

Когда потоковая передача включена для расширенного мышления, вы получаете содержимое мышления через события thinking_delta.

Для получения дополнительной документации по потоковой передаче через API сообщений см. Потоковые сообщения.

Вот как обрабатывать потоковую передачу с мышлением:

curl https://api.anthropic.com/v1/messages \
     --header "x-api-key: $ANTHROPIC_API_KEY" \
     --header "anthropic-version: 2023-06-01" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "claude-sonnet-4-20250514",
    "max_tokens": 16000,
    "stream": true,
    "thinking": {
        "type": "enabled",
        "budget_tokens": 10000
    },
    "messages": [
        {
            "role": "user",
            "content": "Сколько будет 27 * 453?"
        }
    ]
}'

Пример потокового вывода:

event: message_start
data: {"type": "message_start", "message": {"id": "msg_01...", "type": "message", "role": "assistant", "content": [], "model": "claude-sonnet-4-20250514", "stop_reason": null, "stop_sequence": null}}

event: content_block_start
data: {"type": "content_block_start", "index": 0, "content_block": {"type": "thinking", "thinking": ""}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "Позвольте мне решить это пошагово:\n\n1. Сначала разложим 27 * 453"}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "thinking_delta", "thinking": "\n2. 453 = 400 + 50 + 3"}}

// Дополнительные дельты мышления...

event: content_block_delta
data: {"type": "content_block_delta", "index": 0, "delta": {"type": "signature_delta", "signature": "EqQBCgIYAhIM1gbcDa9GJwZA2b3hGgxBdjrkzLoky3dl1pkiMOYds..."}}

event: content_block_stop
data: {"type": "content_block_stop", "index": 0}

event: content_block_start
data: {"type": "content_block_start", "index": 1, "content_block": {"type": "text", "text": ""}}

event: content_block_delta
data: {"type": "content_block_delta", "index": 1, "delta": {"type": "text_delta", "text": "27 * 453 = 12,231"}}

// Дополнительные текстовые дельты...

event: content_block_stop
data: {"type": "content_block_stop", "index": 1}

event: message_delta
data: {"type": "message_delta", "delta": {"stop_reason": "end_turn", "stop_sequence": null}}

event: message_stop
data: {"type": "message_stop"}

При использовании потоковой передачи с включенным мышлением вы можете заметить, что текст иногда приходит большими блоками, чередующимися с меньшей доставкой токен за токеном. Это ожидаемое поведение, особенно для содержимого мышления.

Система потоковой передачи должна обрабатывать содержимое пакетами для оптимальной производительности, что может привести к такому “блочному” паттерну доставки с возможными задержками между событиями потоковой передачи. Мы постоянно работаем над улучшением этого опыта, с будущими обновлениями, сосредоточенными на том, чтобы содержимое мышления передавалось более плавно.

Расширенное мышление с использованием инструментов

Расширенное мышление может использоваться вместе с использованием инструментов, позволяя Claude рассуждать о выборе инструментов и обработке результатов.

При использовании расширенного мышления с использованием инструментов учитывайте следующие ограничения:

  1. Ограничение выбора инструмента: Использование инструментов с мышлением поддерживает только tool_choice: {"type": "auto"} (по умолчанию) или tool_choice: {"type": "none"}. Использование tool_choice: {"type": "any"} или tool_choice: {"type": "tool", "name": "..."} приведет к ошибке, поскольку эти опции принуждают к использованию инструментов, что несовместимо с расширенным мышлением.

  2. Сохранение блоков мышления: Во время использования инструментов вы должны передавать блоки thinking обратно в API для последнего сообщения ассистента. Включите полный неизмененный блок обратно в API для поддержания непрерывности рассуждений.

Сохранение блоков мышления

Во время использования инструментов вы должны передавать блоки thinking обратно в API, и вы должны включить полный неизмененный блок обратно в API. Это критически важно для поддержания потока рассуждений модели и целостности разговора.

Хотя вы можете опустить блоки thinking из предыдущих ходов assistant, мы предлагаем всегда передавать обратно все блоки мышления в API для любого многоходового разговора. API будет:

  • Автоматически фильтровать предоставленные блоки мышления
  • Использовать соответствующие блоки мышления, необходимые для сохранения рассуждений модели
  • Выставлять счет только за входные токены для блоков, показанных Claude

Когда Claude вызывает инструменты, он приостанавливает построение ответа, чтобы дождаться внешней информации. Когда возвращаются результаты инструментов, Claude продолжит строить этот существующий ответ. Это требует сохранения блоков мышления во время использования инструментов по нескольким причинам:

  1. Непрерывность рассуждений: Блоки мышления фиксируют пошаговые рассуждения Claude, которые привели к запросам инструментов. Когда вы публикуете результаты инструментов, включение исходного мышления гарантирует, что Claude может продолжить свои рассуждения с того места, где остановился.

  2. Поддержание контекста: Хотя результаты инструментов появляются как сообщения пользователя в структуре API, они являются частью непрерывного потока рассуждений. Сохранение блоков мышления поддерживает этот концептуальный поток через несколько вызовов API. Для получения дополнительной информации об управлении контекстом см. наше руководство по контекстным окнам.

Важно: При предоставлении блоков thinking вся последовательность последовательных блоков thinking должна соответствовать выводам, сгенерированным моделью во время исходного запроса; вы не можете переставлять или изменять последовательность этих блоков.

Чередующееся мышление

Расширенное мышление с использованием инструментов в моделях Claude 4 поддерживает чередующееся мышление, которое позволяет Claude думать между вызовами инструментов и делать более сложные рассуждения после получения результатов инструментов.

С чередующимся мышлением Claude может:

  • Рассуждать о результатах вызова инструмента перед принятием решения о том, что делать дальше
  • Связывать несколько вызовов инструментов с шагами рассуждения между ними
  • Принимать более тонкие решения на основе промежуточных результатов

Чтобы включить чередующееся мышление, добавьте бета-заголовок interleaved-thinking-2025-05-14 к вашему запросу API.

Вот некоторые важные соображения для чередующегося мышления:

  • С чередующимся мышлением budget_tokens может превышать параметр max_tokens, поскольку он представляет общий бюджет для всех блоков мышления в рамках одного хода ассистента.
  • Чередующееся мышление поддерживается только для инструментов, используемых через API сообщений.
  • Чередующееся мышление поддерживается только для моделей Claude 4 с бета-заголовком interleaved-thinking-2025-05-14.
  • Прямые вызовы к API Anthropic позволяют передавать interleaved-thinking-2025-05-14 в запросах к любой модели без эффекта.
  • На сторонних платформах (например, Amazon Bedrock и Vertex AI), если вы передаете interleaved-thinking-2025-05-14 любой модели, кроме Claude Opus 4 или Sonnet 4, ваш запрос завершится неудачей.

Расширенное мышление с кэшированием промптов

Кэширование промптов с мышлением имеет несколько важных соображений:

Задачи расширенного мышления часто занимают больше 5 минут для завершения. Рассмотрите использование 1-часовой продолжительности кэша для поддержания попаданий в кэш через более длинные сессии мышления и многошаговые рабочие процессы.

Удаление контекста блоков мышления

  • Блоки мышления из предыдущих ходов удаляются из контекста, что может повлиять на точки разрыва кэша
  • При продолжении разговоров с использованием инструментов блоки мышления кэшируются и считаются как входные токены при чтении из кэша
  • Это создает компромисс: хотя блоки мышления не потребляют пространство контекстного окна визуально, они все еще считаются в вашем использовании входных токенов при кэшировании
  • Если мышление становится отключенным, запросы завершатся неудачей, если вы передаете содержимое мышления в текущем ходе использования инструмента. В других контекстах содержимое мышления, переданное в API, просто игнорируется

Паттерны инвалидации кэша

  • Изменения параметров мышления (включено/отключено или распределение бюджета) инвалидируют точки разрыва кэша сообщений
  • Чередующееся мышление усиливает инвалидацию кэша, поскольку блоки мышления могут происходить между несколькими вызовами инструментов
  • Системные промпты и инструменты остаются кэшированными несмотря на изменения параметров мышления или удаление блоков

Хотя блоки мышления удаляются для кэширования и вычислений контекста, они должны быть сохранены при продолжении разговоров с использованием инструментов, особенно с чередующимся мышлением.

Понимание поведения кэширования блоков мышления

При использовании расширенного мышления с использованием инструментов блоки мышления демонстрируют специфическое поведение кэширования, которое влияет на подсчет токенов:

Как это работает:

  1. Кэширование происходит только когда вы делаете последующий запрос, который включает результаты инструментов
  2. Когда делается последующий запрос, предыдущая история разговора (включая блоки мышления) может быть кэширована
  3. Эти кэшированные блоки мышления считаются как входные токены в ваших метриках использования при чтении из кэша
  4. Когда включается блок пользователя, не являющийся результатом инструмента, все предыдущие блоки мышления игнорируются и удаляются из контекста

Подробный пример потока:

Запрос 1:

Пользователь: "Какая погода в Париже?"

Ответ 1:

[thinking_block_1] + [tool_use block 1]

Запрос 2:

Пользователь: ["Какая погода в Париже?"], 
Ассистент: [thinking_block_1] + [tool_use block 1], 
Пользователь: [tool_result_1, cache=True]

Ответ 2:

[thinking_block_2] + [text block 2]

Запрос 2 записывает кэш содержимого запроса (не ответа). Кэш включает исходное сообщение пользователя, первый блок мышления, блок использования инструмента и результат инструмента.

Запрос 3:

Пользователь: ["Какая погода в Париже?"], 
Ассистент: [thinking_block_1] + [tool_use block 1], 
Пользователь: [tool_result_1, cache=True], 
Ассистент: [thinking_block_2] + [text block 2], 
Пользователь: [Текстовый ответ, cache=True]

Поскольку был включен блок пользователя, не являющийся результатом инструмента, все предыдущие блоки мышления игнорируются. Этот запрос будет обработан так же, как:

Пользователь: ["Какая погода в Париже?"], 
Ассистент: [tool_use block 1], 
Пользователь: [tool_result_1, cache=True], 
Ассистент: [text block 2], 
Пользователь: [Текстовый ответ, cache=True]

Ключевые моменты:

  • Это поведение кэширования происходит автоматически, даже без явных маркеров cache_control
  • Это поведение согласовано независимо от того, используете ли вы обычное мышление или чередующееся мышление

Максимальные токены и размер контекстного окна с расширенным мышлением

В старых моделях Claude (до Claude Sonnet 3.7), если сумма токенов промпта и max_tokens превышала контекстное окно модели, система автоматически корректировала max_tokens для соответствия лимиту контекста. Это означало, что вы могли установить большое значение max_tokens, и система молча уменьшала его по мере необходимости.

С моделями Claude 3.7 и 4 max_tokens (который включает ваш бюджет мышления при включенном мышлении) применяется как строгий лимит. Система теперь вернет ошибку валидации, если токены промпта + max_tokens превышают размер контекстного окна.

Вы можете прочитать наше руководство по контекстным окнам для более тщательного погружения.

Контекстное окно с расширенным мышлением

При расчете использования контекстного окна с включенным мышлением есть некоторые соображения, которые следует учитывать:

  • Блоки мышления из предыдущих ходов удаляются и не считаются в вашем контекстном окне
  • Мышление текущего хода считается в вашем лимите max_tokens для этого хода

Диаграмма ниже демонстрирует специализированное управление токенами при включенном расширенном мышлении:

Эффективное контекстное окно рассчитывается как:

контекстное окно =
  (текущие входные токены - предыдущие токены мышления) +
  (токены мышления + зашифрованные токены мышления + токены текстового вывода)

Мы рекомендуем использовать API подсчета токенов для получения точных подсчетов токенов для вашего конкретного случая использования, особенно при работе с многоходовыми разговорами, включающими мышление.

Контекстное окно с расширенным мышлением и использованием инструментов

При использовании расширенного мышления с использованием инструментов блоки мышления должны быть явно сохранены и возвращены с результатами инструментов.

Расчет эффективного контекстного окна для расширенного мышления с использованием инструментов становится:

контекстное окно =
  (текущие входные токены + предыдущие токены мышления + токены использования инструментов) +
  (токены мышления + зашифрованные токены мышления + токены текстового вывода)

Диаграмма ниже иллюстрирует управление токенами для расширенного мышления с использованием инструментов:

Управление токенами с расширенным мышлением

Учитывая поведение контекстного окна и max_tokens с расширенным мышлением в моделях Claude 3.7 и 4, вам может потребоваться:

  • Более активно отслеживать и управлять использованием токенов
  • Корректировать значения max_tokens по мере изменения длины промпта
  • Потенциально использовать конечные точки подсчета токенов чаще
  • Помнить, что предыдущие блоки мышления не накапливаются в вашем контекстном окне

Это изменение было сделано для обеспечения более предсказуемого и прозрачного поведения, особенно поскольку максимальные лимиты токенов значительно увеличились.

Шифрование мышления

Полное содержимое мышления зашифровано и возвращается в поле signature. Это поле используется для проверки того, что блоки мышления были сгенерированы Claude при передаче обратно в API.

Строго необходимо отправлять обратно блоки мышления только при использовании инструментов с расширенным мышлением. В противном случае вы можете опустить блоки мышления из предыдущих ходов или позволить API удалить их за вас, если вы передаете их обратно.

Если отправляете обратно блоки мышления, мы рекомендуем передавать все обратно, как вы получили, для согласованности и во избежание потенциальных проблем.

Вот некоторые важные соображения по шифрованию мышления:

  • При потоковых ответах подпись добавляется через signature_delta внутри события content_block_delta непосредственно перед событием content_block_stop.
  • Значения signature значительно длиннее в Claude 4, чем в предыдущих моделях.
  • Поле signature является непрозрачным полем и не должно интерпретироваться или анализироваться - оно существует исключительно для целей проверки.
  • Значения signature совместимы между платформами (API Anthropic, Amazon Bedrock и Vertex AI). Значения, сгенерированные на одной платформе, будут совместимы с другой.

Редактирование мышления

Иногда внутренние рассуждения Claude будут помечены нашими системами безопасности. Когда это происходит, мы шифруем часть или все блоки thinking и возвращаем их вам как блоки redacted_thinking. Блоки redacted_thinking расшифровываются при передаче обратно в API, позволяя Claude продолжить свой ответ без потери контекста.

При создании клиентских приложений, использующих расширенное мышление:

  • Помните, что редактированные блоки мышления содержат зашифрованное содержимое, которое не читается человеком
  • Рассмотрите предоставление простого объяснения, например: “Часть внутренних рассуждений Claude была автоматически зашифрована по соображениям безопасности. Это не влияет на качество ответов.”
  • Если показываете блоки мышления пользователям, вы можете отфильтровать редактированные блоки, сохраняя обычные блоки мышления
  • Будьте прозрачны в том, что использование функций расширенного мышления может иногда приводить к шифрованию некоторых рассуждений
  • Реализуйте соответствующую обработку ошибок для изящного управления редактированным мышлением без нарушения вашего пользовательского интерфейса

Вот пример, показывающий как обычные, так и редактированные блоки мышления:

{
  "content": [
    {
      "type": "thinking",
      "thinking": "Позвольте мне проанализировать это пошагово...",
      "signature": "WaUjzkypQ2mUEVM36O2TxuC06KN8xyfbJwyem2dw3URve/op91XWHOEBLLqIOMfFG/UvLEczmEsUjavL...."
    },
    {
      "type": "redacted_thinking",
      "data": "EmwKAhgBEgy3va3pzix/LafPsn4aDFIT2Xlxh0L5L8rLVyIwxtE3rAFBa8cr3qpPkNRj2YfWXGmKDxH4mPnZ5sQ7vB9URj2pLmN3kF8/dW5hR7xJ0aP1oLs9yTcMnKVf2wRpEGjH9XZaBt4UvDcPrQ..."
    },
    {
      "type": "text",
      "text": "На основе моего анализа..."
    }
  ]
}

Видеть редактированные блоки мышления в вашем выводе - это ожидаемое поведение. Модель все еще может использовать эти редактированные рассуждения для информирования своих ответов, поддерживая при этом защитные ограждения безопасности.

Если вам нужно протестировать обработку редактированного мышления в вашем приложении, вы можете использовать эту специальную тестовую строку в качестве промпта: ANTHROPIC_MAGIC_STRING_TRIGGER_REDACTED_THINKING_46C9A13E193C177646C7398A98432ECCCE4C1253D5E2D82641AC0E52CC2876CB

При передаче блоков thinking и redacted_thinking обратно в API в многоходовом разговоре вы должны включить полный неизмененный блок обратно в API для последнего хода ассистента. Это критически важно для поддержания потока рассуждений модели. Мы предлагаем всегда передавать обратно все блоки мышления в API. Для получения дополнительной информации см. раздел Сохранение блоков мышления выше.

Различия в мышлении между версиями моделей

API сообщений обрабатывает мышление по-разному в моделях Claude Sonnet 3.7 и Claude 4, в основном в поведении редактирования и суммирования.

См. таблицу ниже для сжатого сравнения:

ФункцияClaude Sonnet 3.7Модели Claude 4
Вывод мышленияВозвращает полный вывод мышленияВозвращает суммированное мышление
Чередующееся мышлениеНе поддерживаетсяПоддерживается с бета-заголовком interleaved-thinking-2025-05-14

Ценообразование

Расширенное мышление использует стандартную схему ценообразования токенов:

МодельБазовые входные токеныЗаписи кэшаПопадания в кэшВыходные токены
Claude Opus 4$15 / MTok$18.75 / MTok$1.50 / MTok$75 / MTok
Claude Sonnet 4$3 / MTok$3.75 / MTok$0.30 / MTok$15 / MTok
Claude Sonnet 3.7$3 / MTok$3.75 / MTok$0.30 / MTok$15 / MTok

Процесс мышления влечет за собой плату за:

  • Токены, используемые во время мышления (выходные токены)
  • Блоки мышления из последнего хода ассистента, включенные в последующие запросы (входные токены)
  • Стандартные токены текстового вывода

Когда расширенное мышление включено, специализированный системный промпт автоматически включается для поддержки этой функции.

При использовании суммированного мышления:

  • Входные токены: Токены в вашем исходном запросе (исключает токены мышления из предыдущих ходов)
  • Выходные токены (к оплате): Исходные токены мышления, которые Claude сгенерировал внутренне
  • Выходные токены (видимые): Суммированные токены мышления, которые вы видите в ответе
  • Без платы: Токены, используемые для генерации краткого изложения

Количество выходных токенов к оплате не будет соответствовать видимому количеству токенов в ответе. Вам выставляется счет за полный процесс мышления, а не за краткое изложение, которое вы видите.

Лучшие практики и соображения для расширенного мышления

Работа с бюджетами мышления

  • Оптимизация бюджета: Минимальный бюджет составляет 1,024 токена. Мы предлагаем начинать с минимума и увеличивать бюджет мышления постепенно, чтобы найти оптимальный диапазон для вашего случая использования. Более высокие количества токенов обеспечивают более всестороннее рассуждение, но с убывающей отдачей в зависимости от задачи. Увеличение бюджета может улучшить качество ответов за счет увеличения задержки. Для критических задач тестируйте разные настройки, чтобы найти оптимальный баланс. Обратите внимание, что бюджет мышления является целью, а не строгим лимитом - фактическое использование токенов может варьироваться в зависимости от задачи.
  • Отправные точки: Начинайте с больших бюджетов мышления (16k+ токенов) для сложных задач и корректируйте в зависимости от ваших потребностей.
  • Большие бюджеты: Для бюджетов мышления выше 32k мы рекомендуем использовать пакетную обработку, чтобы избежать проблем с сетью. Запросы, заставляющие модель думать выше 32k токенов, вызывают долго выполняющиеся запросы, которые могут столкнуться с системными таймаутами и лимитами открытых соединений.
  • Отслеживание использования токенов: Отслеживайте использование токенов мышления для оптимизации затрат и производительности.

Соображения производительности

  • Время ответа: Будьте готовы к потенциально более длительному времени ответа из-за дополнительной обработки, необходимой для процесса рассуждения. Учитывайте, что генерация блоков мышления может увеличить общее время ответа.
  • Требования к потоковой передаче: Потоковая передача требуется, когда max_tokens больше 21,333. При потоковой передаче будьте готовы обрабатывать как блоки содержимого мышления, так и текстовые блоки по мере их поступления.

Совместимость функций

  • Мышление несовместимо с модификациями temperature или top_k, а также с принудительным использованием инструментов.
  • Когда мышление включено, вы можете установить top_p в значения между 1 и 0.95.
  • Вы не можете предварительно заполнять ответы при включенном мышлении.
  • Изменения бюджета мышления инвалидируют кэшированные префиксы промптов, которые включают сообщения. Однако кэшированные системные промпты и определения инструментов будут продолжать работать при изменении параметров мышления.

Руководящие принципы использования

  • Выбор задач: Используйте расширенное мышление для особенно сложных задач, которые выигрывают от пошагового рассуждения, таких как математика, кодирование и анализ.
  • Обработка контекста: Вам не нужно удалять предыдущие блоки мышления самостоятельно. API Anthropic автоматически игнорирует блоки мышления из предыдущих ходов, и они не включаются при расчете использования контекста.
  • Инженерия промптов: Просмотрите наши советы по промптингу расширенного мышления, если вы хотите максимизировать возможности мышления Claude.

Следующие шаги