Glossaire
Ces concepts ne sont pas uniques aux modèles de langage d’Anthropic, mais nous présentons ci-dessous un bref résumé des termes clés.
Fenêtre de contexte
La “fenêtre de contexte” fait référence à la quantité de texte qu’un modèle de langage peut consulter et référencer lors de la génération de nouveau texte. Cela diffère du vaste corpus de données sur lequel le modèle de langage a été entraîné, et représente plutôt une “mémoire de travail” pour le modèle. Une fenêtre de contexte plus grande permet au modèle de comprendre et de répondre à des requêtes plus complexes et plus longues, tandis qu’une fenêtre de contexte plus petite peut limiter la capacité du modèle à traiter des requêtes plus longues ou à maintenir la cohérence lors de conversations prolongées.
Consultez notre guide pour comprendre les fenêtres de contexte pour en savoir plus.
Fine-tuning (Ajustement précis)
Le fine-tuning est le processus qui consiste à poursuivre l’entraînement d’un modèle de langage préentraîné en utilisant des données supplémentaires. Cela amène le modèle à commencer à représenter et à imiter les modèles et les caractéristiques de l’ensemble de données d’ajustement. Claude n’est pas un modèle de langage brut ; il a déjà été affiné pour être un assistant utile. Notre API n’offre actuellement pas de fine-tuning, mais n’hésitez pas à contacter votre interlocuteur chez Anthropic si vous souhaitez explorer cette option. Le fine-tuning peut être utile pour adapter un modèle de langage à un domaine, une tâche ou un style d’écriture spécifique, mais il nécessite une réflexion approfondie sur les données d’ajustement et l’impact potentiel sur les performances et les biais du modèle.
HHH
Ces trois H représentent les objectifs d’Anthropic pour garantir que Claude soit bénéfique pour la société :
- Une IA helpful (utile) tentera d’accomplir la tâche ou de répondre à la question posée au mieux de ses capacités, en fournissant des informations pertinentes et utiles.
- Une IA honest (honnête) donnera des informations précises, sans halluciner ou confabuler. Elle reconnaîtra ses limites et ses incertitudes lorsque cela est approprié.
- Une IA harmless (inoffensive) ne sera ni offensante ni discriminatoire, et lorsqu’on lui demandera d’aider à un acte dangereux ou contraire à l’éthique, l’IA devrait poliment refuser et expliquer pourquoi elle ne peut pas s’y conformer.
Latence
La latence, dans le contexte de l’IA générative et des grands modèles de langage, fait référence au temps nécessaire au modèle pour répondre à une requête donnée. C’est le délai entre la soumission d’une requête et la réception de la sortie générée. Une latence plus faible indique des temps de réponse plus rapides, ce qui est crucial pour les applications en temps réel, les chatbots et les expériences interactives. Les facteurs qui peuvent affecter la latence comprennent la taille du modèle, les capacités matérielles, les conditions du réseau, ainsi que la complexité de la requête et de la réponse générée.
LLM
Les grands modèles de langage (LLM, Large Language Models) sont des modèles de langage d’IA avec de nombreux paramètres qui sont capables d’effectuer une variété de tâches étonnamment utiles. Ces modèles sont entraînés sur de vastes quantités de données textuelles et peuvent générer du texte semblable à celui d’un humain, répondre à des questions, résumer des informations, et plus encore. Claude est un assistant conversationnel basé sur un grand modèle de langage qui a été affiné et entraîné à l’aide de RLHF pour être plus utile, honnête et inoffensif.
MCP (Model Context Protocol)
Le Model Context Protocol (MCP) est un protocole ouvert qui standardise la façon dont les applications fournissent du contexte aux LLM. Comme un port USB-C pour les applications d’IA, MCP fournit une façon unifiée de connecter les modèles d’IA à différentes sources de données et outils. MCP permet aux systèmes d’IA de maintenir un contexte cohérent à travers les interactions et d’accéder à des ressources externes de manière standardisée. Consultez notre documentation MCP pour en savoir plus.
Connecteur MCP
Le connecteur MCP est une fonctionnalité qui permet aux utilisateurs de l’API de se connecter directement aux serveurs MCP depuis l’API Messages sans avoir à construire un client MCP. Cela permet une intégration transparente avec des outils et services compatibles MCP via l’API Anthropic. Le connecteur MCP prend en charge des fonctionnalités comme l’appel d’outils et est disponible en version bêta publique. Consultez notre documentation sur le connecteur MCP pour en savoir plus.
Préentraînement
Le préentraînement est le processus initial d’entraînement des modèles de langage sur un vaste corpus de texte non étiqueté. Dans le cas de Claude, les modèles de langage autorégressifs (comme le modèle sous-jacent de Claude) sont préentraînés pour prédire le mot suivant, étant donné le contexte précédent du texte dans le document. Ces modèles préentraînés ne sont pas intrinsèquement bons pour répondre aux questions ou suivre des instructions, et nécessitent souvent une compétence approfondie en ingénierie de prompts pour obtenir les comportements souhaités. Le fine-tuning et le RLHF sont utilisés pour affiner ces modèles préentraînés, les rendant plus utiles pour un large éventail de tâches.
RAG (Retrieval augmented generation)
La génération augmentée par récupération (RAG) est une technique qui combine la récupération d’informations avec la génération de modèles de langage pour améliorer la précision et la pertinence du texte généré, et pour mieux ancrer la réponse du modèle dans des preuves. Dans le RAG, un modèle de langage est augmenté avec une base de connaissances externe ou un ensemble de documents qui est transmis dans la fenêtre de contexte. Les données sont récupérées au moment de l’exécution lorsqu’une requête est envoyée au modèle, bien que le modèle lui-même ne récupère pas nécessairement les données (mais peut le faire avec l’utilisation d’outils et une fonction de récupération). Lors de la génération de texte, les informations pertinentes doivent d’abord être récupérées de la base de connaissances en fonction de la requête d’entrée, puis transmises au modèle avec la requête originale. Le modèle utilise ces informations pour guider la sortie qu’il génère. Cela permet au modèle d’accéder et d’utiliser des informations au-delà de ses données d’entraînement, réduisant la dépendance à la mémorisation et améliorant l’exactitude factuelle du texte généré. Le RAG peut être particulièrement utile pour les tâches qui nécessitent des informations à jour, des connaissances spécifiques à un domaine ou une citation explicite des sources. Cependant, l’efficacité du RAG dépend de la qualité et de la pertinence de la base de connaissances externe et des connaissances qui sont récupérées au moment de l’exécution.
RLHF
L’Apprentissage par Renforcement à partir de Feedback Humain (RLHF, Reinforcement Learning from Human Feedback) est une technique utilisée pour entraîner un modèle de langage préentraîné à se comporter de manière cohérente avec les préférences humaines. Cela peut inclure aider le modèle à suivre les instructions plus efficacement ou à agir davantage comme un chatbot. Le feedback humain consiste à classer un ensemble de deux textes d’exemple ou plus, et le processus d’apprentissage par renforcement encourage le modèle à préférer les sorties qui sont similaires à celles les mieux classées. Claude a été entraîné en utilisant RLHF pour être un assistant plus utile. Pour plus de détails, vous pouvez lire l’article d’Anthropic sur le sujet.
Température
La température est un paramètre qui contrôle le caractère aléatoire des prédictions d’un modèle pendant la génération de texte. Des températures plus élevées conduisent à des sorties plus créatives et diverses, permettant plusieurs variations dans la formulation et, dans le cas de la fiction, une variation dans les réponses également. Des températures plus basses donnent des sorties plus conservatrices et déterministes qui s’en tiennent aux formulations et réponses les plus probables. L’ajustement de la température permet aux utilisateurs d’encourager un modèle de langage à explorer des choix et des séquences de mots rares, peu communs ou surprenants, plutôt que de sélectionner uniquement les prédictions les plus probables.
TTFT (Time to first token)
Le Time to First Token (TTFT) est une métrique de performance qui mesure le temps nécessaire à un modèle de langage pour générer le premier token de sa sortie après avoir reçu une requête. C’est un indicateur important de la réactivité du modèle et est particulièrement pertinent pour les applications interactives, les chatbots et les systèmes en temps réel où les utilisateurs s’attendent à un retour initial rapide. Un TTFT plus bas indique que le modèle peut commencer à générer une réponse plus rapidement, offrant une expérience utilisateur plus fluide et engageante. Les facteurs qui peuvent influencer le TTFT comprennent la taille du modèle, les capacités matérielles, les conditions du réseau et la complexité de la requête.
Tokens
Les tokens sont les plus petites unités individuelles d’un modèle de langage, et peuvent correspondre à des mots, des sous-mots, des caractères, ou même des octets (dans le cas d’Unicode). Pour Claude, un token représente approximativement 3,5 caractères anglais, bien que le nombre exact puisse varier en fonction de la langue utilisée. Les tokens sont généralement cachés lors de l’interaction avec les modèles de langage au niveau du “texte”, mais deviennent pertinents lors de l’examen des entrées et sorties exactes d’un modèle de langage. Lorsque Claude reçoit du texte à évaluer, le texte (composé d’une série de caractères) est encodé en une série de tokens que le modèle doit traiter. Des tokens plus grands permettent une efficacité des données pendant l’inférence et le préentraînement (et sont utilisés lorsque c’est possible), tandis que des tokens plus petits permettent à un modèle de gérer des mots peu courants ou jamais vus auparavant. Le choix de la méthode de tokenisation peut avoir un impact sur les performances du modèle, la taille du vocabulaire et la capacité à gérer les mots hors vocabulaire.