Fenêtre de contexte

La “fenêtre de contexte” fait référence à la quantité de texte qu’un modèle de langage peut consulter et référencer lors de la génération de nouveau texte. Cela diffère du vaste corpus de données sur lequel le modèle de langage a été entraîné, et représente plutôt une “mémoire de travail” pour le modèle. Une fenêtre de contexte plus grande permet au modèle de comprendre et de répondre à des prompts plus complexes et plus longs, tandis qu’une fenêtre de contexte plus petite peut limiter la capacité du modèle à gérer des prompts plus longs ou à maintenir la cohérence sur des conversations étendues.

Consultez notre tableau de comparaison des modèles pour une liste des tailles de fenêtre de contexte par modèle.

Fine-tuning

Le fine-tuning est le processus consistant à poursuivre l’entraînement d’un modèle de langage préentraîné en utilisant des données supplémentaires. Cela amène le modèle à commencer à représenter et à imiter les modèles et les caractéristiques de l’ensemble de données de fine-tuning. Claude n’est pas un modèle de langage brut ; il a déjà été affiné pour être un assistant utile. Notre API n’offre actuellement pas de fine-tuning, mais n’hésitez pas à contacter votre interlocuteur Anthropic si vous souhaitez explorer cette option. Le fine-tuning peut être utile pour adapter un modèle de langage à un domaine, une tâche ou un style d’écriture spécifique, mais il nécessite une réflexion approfondie sur les données de fine-tuning et l’impact potentiel sur les performances et les biais du modèle.

HHH

Ces trois H représentent les objectifs d’Anthropic pour s’assurer que Claude soit bénéfique pour la société :

  • Une IA helpful (utile) tentera d’accomplir la tâche ou de répondre à la question posée au mieux de ses capacités, en fournissant des informations pertinentes et utiles.
  • Une IA honest (honnête) donnera des informations exactes, sans halluciner ni confabuler. Elle reconnaîtra ses limites et ses incertitudes lorsque c’est approprié.
  • Une IA harmless (inoffensive) ne sera ni offensante ni discriminatoire, et lorsqu’on lui demandera d’aider à un acte dangereux ou contraire à l’éthique, l’IA devra poliment refuser et expliquer pourquoi elle ne peut pas s’y conformer.

Latence

La latence, dans le contexte de l’IA générative et des grands modèles de langage, fait référence au temps nécessaire au modèle pour répondre à un prompt donné. C’est le délai entre la soumission d’un prompt et la réception de la sortie générée. Une latence plus faible indique des temps de réponse plus rapides, ce qui est crucial pour les applications en temps réel, les chatbots et les expériences interactives. Les facteurs qui peuvent affecter la latence comprennent la taille du modèle, les capacités matérielles, les conditions réseau et la complexité du prompt et de la réponse générée.

LLM

Les grands modèles de langage (LLM) sont des modèles de langage d’IA avec de nombreux paramètres capables d’effectuer une variété de tâches étonnamment utiles. Ces modèles sont entraînés sur de vastes quantités de données textuelles et peuvent générer du texte semblable à celui d’un humain, répondre à des questions, résumer des informations, et plus encore. Claude est un assistant conversationnel basé sur un grand modèle de langage qui a été affiné et entraîné en utilisant le RLHF pour être plus utile, honnête et inoffensif.

Préentraînement

Le préentraînement est le processus initial d’entraînement des modèles de langage sur un grand corpus de texte non étiqueté. Dans le cas de Claude, les modèles de langage autorégressifs (comme le modèle sous-jacent de Claude) sont préentraînés pour prédire le mot suivant, étant donné le contexte précédent du texte dans le document. Ces modèles préentraînés ne sont pas intrinsèquement bons pour répondre aux questions ou suivre des instructions, et nécessitent souvent une grande compétence en ingénierie des prompts pour obtenir les comportements souhaités. Le fine-tuning et le RLHF sont utilisés pour affiner ces modèles préentraînés, les rendant plus utiles pour une large gamme de tâches.

RAG (Génération augmentée par récupération)

La génération augmentée par récupération (RAG) est une technique qui combine la récupération d’informations avec la génération de modèles de langage pour améliorer la précision et la pertinence du texte généré, et pour mieux ancrer la réponse du modèle dans des preuves. Dans le RAG, un modèle de langage est augmenté avec une base de connaissances externe ou un ensemble de documents qui est transmis dans la fenêtre de contexte. Les données sont récupérées au moment de l’exécution lorsqu’une requête est envoyée au modèle, bien que le modèle lui-même ne récupère pas nécessairement les données (mais peut le faire avec l’utilisation d’outils et une fonction de récupération). Lors de la génération de texte, les informations pertinentes doivent d’abord être récupérées de la base de connaissances en fonction du prompt d’entrée, puis transmises au modèle avec la requête originale. Le modèle utilise ces informations pour guider la sortie qu’il génère. Cela permet au modèle d’accéder et d’utiliser des informations au-delà de ses données d’entraînement, réduisant la dépendance à la mémorisation et améliorant l’exactitude factuelle du texte généré. Le RAG peut être particulièrement utile pour les tâches qui nécessitent des informations à jour, des connaissances spécifiques à un domaine ou une citation explicite des sources. Cependant, l’efficacité du RAG dépend de la qualité et de la pertinence de la base de connaissances externe et des connaissances qui sont récupérées au moment de l’exécution.

RLHF

L’apprentissage par renforcement à partir de feedback humain (RLHF) est une technique utilisée pour entraîner un modèle de langage préentraîné à se comporter de manière cohérente avec les préférences humaines. Cela peut inclure d’aider le modèle à suivre les instructions plus efficacement ou à agir davantage comme un chatbot. Le feedback humain consiste à classer un ensemble de deux textes ou plus, et le processus d’apprentissage par renforcement encourage le modèle à préférer les sorties similaires à celles les mieux classées. Claude a été entraîné en utilisant le RLHF pour être un assistant plus utile. Pour plus de détails, vous pouvez lire l’article d’Anthropic sur le sujet.

Température

La température est un paramètre qui contrôle l’aléatoire des prédictions d’un modèle pendant la génération de texte. Des températures plus élevées conduisent à des sorties plus créatives et diverses, permettant plusieurs variations dans la formulation et, dans le cas de la fiction, des variations dans les réponses également. Des températures plus basses donnent des sorties plus conservatrices et déterministes qui s’en tiennent aux formulations et aux réponses les plus probables. L’ajustement de la température permet aux utilisateurs d’encourager un modèle de langage à explorer des choix et des séquences de mots rares, inhabituels ou surprenants, plutôt que de ne sélectionner que les prédictions les plus probables.

TTFT (Temps jusqu’au premier token)

Le Temps jusqu’au Premier Token (TTFT) est une métrique de performance qui mesure le temps nécessaire à un modèle de langage pour générer le premier token de sa sortie après avoir reçu un prompt. C’est un indicateur important de la réactivité du modèle et est particulièrement pertinent pour les applications interactives, les chatbots et les systèmes en temps réel où les utilisateurs s’attendent à un retour initial rapide. Un TTFT plus bas indique que le modèle peut commencer à générer une réponse plus rapidement, offrant une expérience utilisateur plus fluide et plus engageante. Les facteurs qui peuvent influencer le TTFT comprennent la taille du modèle, les capacités matérielles, les conditions réseau et la complexité du prompt.

Tokens

Les tokens sont les plus petites unités individuelles d’un modèle de langage, et peuvent correspondre à des mots, des sous-mots, des caractères ou même des octets (dans le cas d’Unicode). Pour Claude, un token représente approximativement 3,5 caractères anglais, bien que le nombre exact puisse varier selon la langue utilisée. Les tokens sont généralement cachés lors de l’interaction avec les modèles de langage au niveau “texte” mais deviennent pertinents lors de l’examen des entrées et sorties exactes d’un modèle de langage. Lorsque Claude reçoit du texte à évaluer, le texte (composé d’une série de caractères) est encodé en une série de tokens que le modèle peut traiter. Des tokens plus grands permettent l’efficacité des données pendant l’inférence et le préentraînement (et sont utilisés lorsque possible), tandis que des tokens plus petits permettent à un modèle de gérer des mots peu communs ou jamais vus auparavant. Le choix de la méthode de tokenisation peut avoir un impact sur les performances du modèle, la taille du vocabulaire et la capacité à gérer les mots hors vocabulaire.