Fenêtre de contexte

La “fenêtre de contexte” fait référence à la quantité de texte qu’un modèle de langage peut examiner et référencer lors de la génération d’un nouveau texte. Cela diffère du large corpus de données sur lequel le modèle de langage a été entraîné, et représente plutôt une “mémoire de travail” pour le modèle. Une fenêtre de contexte plus large permet au modèle de comprendre et de répondre à des invites plus complexes et plus longues, tandis qu’une fenêtre de contexte plus petite peut limiter la capacité du modèle à gérer des invites plus longues ou à maintenir une cohérence sur des conversations prolongées.

Consultez notre tableau de comparaison des modèles pour une liste des tailles de fenêtre de contexte par modèle.

Fine-tuning

Le fine-tuning est le processus consistant à poursuivre l’entraînement d’un modèle de langage pré-entraîné en utilisant des données supplémentaires. Cela amène le modèle à commencer à représenter et à imiter les modèles et les caractéristiques de l’ensemble de données de fine-tuning. Claude n’est pas un simple modèle de langage ; il a déjà été fine-tuné pour être un assistant utile. Notre API n’offre pas actuellement de fine-tuning, mais veuillez contacter votre interlocuteur Anthropic si vous souhaitez explorer cette option. Le fine-tuning peut être utile pour adapter un modèle de langage à un domaine, une tâche ou un style d’écriture spécifique, mais il nécessite un examen attentif des données de fine-tuning et de l’impact potentiel sur les performances et les biais du modèle.

HHH

Ces trois H représentent les objectifs d’Anthropic pour s’assurer que Claude est bénéfique pour la société :

  • Une IA utile tentera d’effectuer la tâche ou de répondre à la question posée au mieux de ses capacités, en fournissant des informations pertinentes et utiles.
  • Une IA honnête fournira des informations précises, sans halluciner ou confabuler. Elle reconnaîtra ses limites et ses incertitudes lorsque cela est approprié.
  • Une IA inoffensive ne sera pas offensante ou discriminatoire, et lorsqu’on lui demandera d’aider à un acte dangereux ou contraire à l’éthique, l’IA devra poliment refuser et expliquer pourquoi elle ne peut pas se conformer.

Latence

La latence, dans le contexte de l’IA générative et des grands modèles de langage, fait référence au temps nécessaire au modèle pour répondre à une invite donnée. C’est le délai entre la soumission d’une invite et la réception de la sortie générée. Une latence plus faible indique des temps de réponse plus rapides, ce qui est crucial pour les applications en temps réel, les chatbots et les expériences interactives. Les facteurs qui peuvent affecter la latence comprennent la taille du modèle, les capacités matérielles, les conditions du réseau et la complexité de l’invite et de la réponse générée.

LLM

Les grands modèles de langage (LLM) sont des modèles de langage d’IA avec de nombreux paramètres qui sont capables d’effectuer une variété de tâches étonnamment utiles. Ces modèles sont entraînés sur de vastes quantités de données textuelles et peuvent générer du texte semblable à celui d’un humain, répondre à des questions, résumer des informations, et plus encore. Claude est un assistant conversationnel basé sur un grand modèle de langage qui a été fine-tuné et entraîné en utilisant RLHF pour être plus utile, honnête et inoffensif.

Pré-entraînement

Le pré-entraînement est le processus initial d’entraînement des modèles de langage sur un grand corpus de texte non étiqueté. Dans le cas de Claude, les modèles de langage autorégressifs (comme le modèle sous-jacent de Claude) sont pré-entraînés pour prédire le mot suivant, étant donné le contexte précédent du texte dans le document. Ces modèles pré-entraînés ne sont pas intrinsèquement bons pour répondre aux questions ou suivre les instructions, et nécessitent souvent une compétence approfondie en ingénierie des invites pour susciter les comportements souhaités. Le fine-tuning et RLHF sont utilisés pour affiner ces modèles pré-entraînés, les rendant plus utiles pour un large éventail de tâches.

RAG (Génération augmentée par récupération)

La génération augmentée par récupération (RAG) est une technique qui combine la récupération d’informations avec la génération de modèles de langage pour améliorer la précision et la pertinence du texte généré, et pour mieux ancrer la réponse du modèle dans les preuves. Dans RAG, un modèle de langage est augmenté avec une base de connaissances externe ou un ensemble de documents qui est passé dans la fenêtre de contexte. Les données sont récupérées au moment de l’exécution lorsqu’une requête est envoyée au modèle, bien que le modèle lui-même ne récupère pas nécessairement les données (mais peut le faire avec l’utilisation d’outils et une fonction de récupération). Lors de la génération de texte, les informations pertinentes doivent d’abord être récupérées à partir de la base de connaissances en fonction de l’invite d’entrée, puis transmises au modèle avec la requête d’origine. Le modèle utilise ces informations pour guider la sortie qu’il génère. Cela permet au modèle d’accéder et d’utiliser des informations au-delà de ses données d’entraînement, réduisant la dépendance à la mémorisation et améliorant la précision factuelle du texte généré. RAG peut être particulièrement utile pour les tâches qui nécessitent des informations à jour, des connaissances spécifiques à un domaine ou une citation explicite des sources. Cependant, l’efficacité de RAG dépend de la qualité et de la pertinence de la base de connaissances externe et des connaissances qui sont récupérées au moment de l’exécution.

RLHF

L’apprentissage par renforcement à partir de feedback humain (RLHF) est une technique utilisée pour entraîner un modèle de langage pré-entraîné à se comporter de manière cohérente avec les préférences humaines. Cela peut inclure d’aider le modèle à suivre les instructions plus efficacement ou à agir davantage comme un chatbot. Le feedback humain consiste à classer un ensemble de deux ou plusieurs textes d’exemple, et le processus d’apprentissage par renforcement encourage le modèle à préférer les sorties similaires à celles classées plus haut. Claude a été entraîné en utilisant RLHF pour être un assistant plus utile. Pour plus de détails, vous pouvez lire l’article d’Anthropic sur le sujet.

Température

La température est un paramètre qui contrôle le caractère aléatoire des prédictions d’un modèle lors de la génération de texte. Des températures plus élevées conduisent à des sorties plus créatives et diversifiées, permettant de multiples variations dans la formulation et, dans le cas de la fiction, une variation dans les réponses également. Des températures plus basses entraînent des sorties plus conservatrices et déterministes qui s’en tiennent à la formulation et aux réponses les plus probables. L’ajustement de la température permet aux utilisateurs d’encourager un modèle de langage à explorer des choix et des séquences de mots rares, peu communs ou surprenants, plutôt que de sélectionner uniquement les prédictions les plus probables. Claude Slackbot utilise une température non nulle lors de la génération de réponses, ce qui permet une certaine variation dans ses réponses tout en maintenant la cohérence et la pertinence.

TTFT (Temps jusqu’au premier token)

Le temps jusqu’au premier token (TTFT) est une métrique de performance qui mesure le temps nécessaire à un modèle de langage pour générer le premier token de sa sortie après avoir reçu une invite. C’est un indicateur important de la réactivité du modèle et il est particulièrement pertinent pour les applications interactives, les chatbots et les systèmes en temps réel où les utilisateurs attendent un retour initial rapide. Un TTFT plus faible indique que le modèle peut commencer à générer une réponse plus rapidement, offrant une expérience utilisateur plus fluide et engageante. Les facteurs qui peuvent influencer le TTFT comprennent la taille du modèle, les capacités matérielles, les conditions du réseau et la complexité de l’invite.

Tokens

Les tokens sont les plus petites unités individuelles d’un modèle de langage, et peuvent correspondre à des mots, des sous-mots, des caractères, ou même des octets (dans le cas d’Unicode). Pour Claude, un token représente environ 3,5 caractères anglais, bien que le nombre exact puisse varier en fonction de la langue utilisée. Les tokens sont généralement cachés lors de l’interaction avec les modèles de langage au niveau du “texte” mais deviennent pertinents lors de l’examen des entrées et sorties exactes d’un modèle de langage. Lorsque du texte est fourni à Claude pour évaluation, le texte (constitué d’une série de caractères) est encodé en une série de tokens pour que le modèle puisse les traiter. Des tokens plus grands permettent une efficacité des données pendant l’inférence et le pré-entraînement (et sont utilisés lorsque c’est possible), tandis que des tokens plus petits permettent à un modèle de gérer des mots peu communs ou jamais vus auparavant. Le choix de la méthode de tokenisation peut avoir un impact sur les performances du modèle, la taille du vocabulaire et la capacité à gérer les mots hors vocabulaire.