Utiliser des modèles de prompts et des variables
Lors du déploiement d’une application basée sur un LLM avec Claude, vos appels API se composent généralement de deux types de contenu :
- Contenu fixe : Instructions ou contexte statiques qui restent constants à travers plusieurs interactions
- Contenu variable : Éléments dynamiques qui changent à chaque requête ou conversation, tels que :
- Les entrées utilisateur
- Le contenu récupéré pour la Génération Augmentée par Récupération (RAG)
- Le contexte de conversation comme l’historique du compte utilisateur
- Les données générées par le système comme les résultats d’utilisation d’outils provenant d’autres appels indépendants à Claude
Un modèle de prompt combine ces parties fixes et variables, en utilisant des espaces réservés pour le contenu dynamique. Dans la Console Anthropic, ces espaces réservés sont indiqués par des {{doubles accolades}}, les rendant facilement identifiables et permettant de tester rapidement différentes valeurs.
Quand utiliser les modèles de prompts et les variables
Vous devriez toujours utiliser des modèles de prompts et des variables lorsque vous vous attendez à ce qu’une partie de votre prompt soit répétée dans un autre appel à Claude (uniquement via l’API ou la Console Anthropic. claude.ai ne prend actuellement pas en charge les modèles de prompts ou les variables).
Les modèles de prompts offrent plusieurs avantages :
- Cohérence : Assurer une structure cohérente pour vos prompts à travers plusieurs interactions
- Efficacité : Échanger facilement le contenu variable sans réécrire l’intégralité du prompt
- Testabilité : Tester rapidement différentes entrées et cas limites en ne modifiant que la partie variable
- Évolutivité : Simplifier la gestion des prompts à mesure que votre application gagne en complexité
- Contrôle de version : Suivre facilement les modifications de la structure de votre prompt au fil du temps en ne surveillant que la partie centrale de votre prompt, séparément des entrées dynamiques
La Console Anthropic utilise largement les modèles de prompts et les variables pour prendre en charge les fonctionnalités et les outils pour tout ce qui précède, notamment avec :
- Générateur de prompts : Décide quelles variables votre prompt nécessite et les inclut dans le modèle qu’il génère
- Améliorateur de prompts : Prend votre modèle existant, y compris toutes les variables, et les maintient dans le modèle amélioré qu’il génère
- Outil d’évaluation : Permet de tester, mettre à l’échelle et suivre facilement les versions de vos prompts en séparant les parties variables et fixes de votre modèle de prompt
Exemple de modèle de prompt
Prenons l’exemple d’une application simple qui traduit du texte anglais en espagnol. Le texte traduit serait variable puisque vous vous attendriez à ce que ce texte change entre les utilisateurs ou les appels à Claude. Ce texte traduit pourrait être récupéré dynamiquement depuis des bases de données ou l’entrée de l’utilisateur.
Ainsi, pour votre application de traduction, vous pourriez utiliser ce modèle de prompt simple :
Prochaines étapes
Générer un prompt
Découvrez le générateur de prompts dans la Console Anthropic et essayez de faire générer un prompt par Claude.
Appliquer des balises XML
Si vous voulez améliorer vos variables de prompt, enveloppez-les dans des balises XML.
Console Anthropic
Découvrez les nombreux outils de développement de prompts disponibles dans la Console Anthropic.
Was this page helpful?