Les contournements et les injections de prompts se produisent lorsque les utilisateurs créent des prompts pour exploiter les vulnérabilités du modèle, dans le but de générer du contenu inapproprié. Bien que Claude soit intrinsèquement résistant à de telles attaques, voici des étapes supplémentaires pour renforcer vos garde-fous.

Claude est beaucoup plus résistant aux contournements que les autres grands LLMs, grâce à des méthodes d’entraînement avancées comme l’IA Constitutionnelle.
  • Filtres d’innocuité : Utilisez un modèle léger comme Claude 3 Haiku pour pré-filtrer les entrées des utilisateurs.

  • Validation des entrées : Filtrez les prompts pour détecter les schémas de contournement. Vous pouvez même utiliser un LLM pour créer un filtre de validation généralisé en fournissant des exemples connus de langage de contournement.

  • Ingénierie de prompts : Élaborez des prompts qui mettent l’accent sur les limites éthiques.

  • Surveillance continue : Analysez régulièrement les sorties pour détecter les signes de contournement. Utilisez cette surveillance pour affiner itérativement vos prompts et stratégies de validation.

Avancé : Protections en chaîne

Combinez les stratégies pour une protection robuste. Voici un exemple de niveau entreprise avec utilisation d’outils :

En superposant ces stratégies, vous créez une défense robuste contre les contournements et les injections de prompts, garantissant que vos applications alimentées par Claude maintiennent les plus hauts standards de sécurité et de conformité.