Глоссарий
Эти концепции не уникальны для языковых моделей Anthropic, но мы представляем краткое изложение ключевых терминов ниже.
Контекстное окно
“Контекстное окно” относится к объему текста, который языковая модель может просматривать и на который может ссылаться при генерации нового текста. Это отличается от большого корпуса данных, на котором обучалась языковая модель, и представляет собой “рабочую память” для модели. Большее контекстное окно позволяет модели понимать и отвечать на более сложные и длинные запросы, в то время как меньшее контекстное окно может ограничивать способность модели обрабатывать более длинные запросы или поддерживать согласованность в течение продолжительных разговоров.
Узнайте больше в нашем руководстве по пониманию контекстных окон.
Дообучение (Fine-tuning)
Дообучение — это процесс дальнейшего обучения предварительно обученной языковой модели с использованием дополнительных данных. Это заставляет модель начать представлять и имитировать паттерны и характеристики набора данных для дообучения. Claude — это не просто базовая языковая модель; она уже прошла дообучение, чтобы стать полезным ассистентом. Наш API в настоящее время не предлагает возможности дообучения, но, пожалуйста, обратитесь к вашему контактному лицу в Anthropic, если вы заинтересованы в изучении этой опции. Дообучение может быть полезно для адаптации языковой модели к конкретной области, задаче или стилю письма, но требует тщательного рассмотрения данных для дообучения и потенциального влияния на производительность и предвзятость модели.
HHH
Эти три буквы H представляют цели Anthropic в обеспечении того, чтобы Claude был полезен для общества:
- Helpful (полезный) ИИ будет пытаться выполнить задачу или ответить на поставленный вопрос в меру своих возможностей, предоставляя релевантную и полезную информацию.
- Honest (честный) ИИ будет давать точную информацию, а не галлюцинировать или конфабулировать. Он будет признавать свои ограничения и неопределенности, когда это уместно.
- Harmless (безвредный) ИИ не будет оскорбительным или дискриминационным, и когда его просят помочь в опасном или неэтичном действии, ИИ должен вежливо отказаться и объяснить, почему он не может выполнить эту просьбу.
Задержка (Latency)
Задержка, в контексте генеративного ИИ и больших языковых моделей, относится ко времени, которое требуется модели для ответа на данный запрос. Это задержка между отправкой запроса и получением сгенерированного вывода. Меньшая задержка указывает на более быстрое время отклика, что критически важно для приложений реального времени, чат-ботов и интерактивного взаимодействия. Факторы, которые могут влиять на задержку, включают размер модели, возможности оборудования, сетевые условия и сложность запроса и сгенерированного ответа.
LLM
Большие языковые модели (LLM) — это языковые модели искусственного интеллекта с множеством параметров, способные выполнять различные удивительно полезные задачи. Эти модели обучаются на огромных объемах текстовых данных и могут генерировать текст, похожий на человеческий, отвечать на вопросы, обобщать информацию и многое другое. Claude — это разговорный ассистент, основанный на большой языковой модели, которая была дообучена и обучена с использованием RLHF, чтобы быть более полезной, честной и безвредной.
MCP (Model Context Protocol)
Model Context Protocol (MCP) — это открытый протокол, который стандартизирует способ предоставления контекста приложениями для LLM. Подобно порту USB-C для приложений ИИ, MCP предоставляет унифицированный способ подключения моделей ИИ к различным источникам данных и инструментам. MCP позволяет системам ИИ поддерживать последовательный контекст во взаимодействиях и получать доступ к внешним ресурсам стандартизированным образом. Узнайте больше в нашей документации по MCP.
MCP коннектор
MCP коннектор — это функция, которая позволяет пользователям API подключаться к серверам MCP напрямую из Messages API без создания клиента MCP. Это обеспечивает беспрепятственную интеграцию с инструментами и сервисами, совместимыми с MCP, через API Anthropic. MCP коннектор поддерживает такие функции, как вызов инструментов, и доступен в публичной бета-версии. Узнайте больше в нашей документации по MCP коннектору.
Предварительное обучение (Pretraining)
Предварительное обучение — это начальный процесс обучения языковых моделей на большом немаркированном корпусе текста. В случае Claude, авторегрессивные языковые модели (такие как базовая модель Claude) предварительно обучаются предсказывать следующее слово, учитывая предыдущий контекст текста в документе. Эти предварительно обученные модели не обладают врожденной способностью отвечать на вопросы или следовать инструкциям и часто требуют глубоких навыков в инженерии промптов для получения желаемого поведения. Дообучение и RLHF используются для улучшения этих предварительно обученных моделей, делая их более полезными для широкого спектра задач.
RAG (Retrieval augmented generation)
Retrieval augmented generation (RAG) — это техника, которая объединяет информационный поиск с генерацией языковой модели для улучшения точности и релевантности сгенерированного текста, а также для лучшего обоснования ответа модели на доказательствах. В RAG языковая модель дополняется внешней базой знаний или набором документов, которые передаются в контекстное окно. Данные извлекаются во время выполнения, когда запрос отправляется модели, хотя сама модель не обязательно извлекает данные (но может с помощью использования инструментов и функции извлечения). При генерации текста сначала должна быть извлечена релевантная информация из базы знаний на основе входного запроса, а затем передана модели вместе с исходным запросом. Модель использует эту информацию для руководства при генерации вывода. Это позволяет модели получать доступ и использовать информацию за пределами ее обучающих данных, уменьшая зависимость от запоминания и улучшая фактическую точность сгенерированного текста. RAG может быть особенно полезен для задач, требующих актуальной информации, специфических знаний в определенной области или явного цитирования источников. Однако эффективность RAG зависит от качества и релевантности внешней базы знаний и знаний, которые извлекаются во время выполнения.
RLHF
Reinforcement Learning from Human Feedback (RLHF) — это техника, используемая для обучения предварительно обученной языковой модели вести себя способами, соответствующими человеческим предпочтениям. Это может включать помощь модели более эффективно следовать инструкциям или действовать больше как чат-бот. Обратная связь от людей состоит из ранжирования набора из двух или более примеров текстов, а процесс обучения с подкреплением поощряет модель предпочитать выводы, которые похожи на более высоко ранжированные. Claude был обучен с использованием RLHF, чтобы стать более полезным ассистентом. Для получения дополнительной информации вы можете прочитать статью Anthropic по этой теме.
Температура
Температура — это параметр, который контролирует случайность предсказаний модели во время генерации текста. Более высокие температуры приводят к более творческим и разнообразным выводам, позволяя получать множество вариаций в формулировках и, в случае художественной литературы, вариации в ответах. Более низкие температуры приводят к более консервативным и детерминированным выводам, которые придерживаются наиболее вероятных формулировок и ответов. Регулировка температуры позволяет пользователям поощрять языковую модель исследовать редкие, необычные или удивительные выборы слов и последовательности, а не только выбирать наиболее вероятные предсказания.
TTFT (Time to first token)
Time to First Token (TTFT) — это показатель производительности, который измеряет время, необходимое языковой модели для генерации первого токена вывода после получения запроса. Это важный индикатор отзывчивости модели и особенно актуален для интерактивных приложений, чат-ботов и систем реального времени, где пользователи ожидают быстрой начальной обратной связи. Более низкий TTFT указывает на то, что модель может начать генерировать ответ быстрее, обеспечивая более плавный и увлекательный пользовательский опыт. Факторы, которые могут влиять на TTFT, включают размер модели, возможности оборудования, сетевые условия и сложность запроса.
Токены
Токены — это наименьшие отдельные единицы языковой модели, которые могут соответствовать словам, подсловам, символам или даже байтам (в случае Unicode). Для Claude токен примерно представляет 3,5 английских символа, хотя точное число может варьироваться в зависимости от используемого языка. Токены обычно скрыты при взаимодействии с языковыми моделями на уровне “текста”, но становятся актуальными при изучении точных входов и выходов языковой модели. Когда Claude получает текст для оценки, текст (состоящий из серии символов) кодируется в серию токенов для обработки моделью. Более крупные токены обеспечивают эффективность данных во время вывода и предварительного обучения (и используются, когда это возможно), в то время как меньшие токены позволяют модели обрабатывать необычные или никогда ранее не встречавшиеся слова. Выбор метода токенизации может влиять на производительность модели, размер словаря и способность обрабатывать слова, отсутствующие в словаре.