Ao implantar uma aplicação baseada em LLM com Claude, suas chamadas de API geralmente consistirão em dois tipos de conteúdo:

  • Conteúdo fixo: Instruções estáticas ou contexto que permanecem constantes em múltiplas interações
  • Conteúdo variável: Elementos dinâmicos que mudam a cada solicitação ou conversa, como:
    • Entradas do usuário
    • Conteúdo recuperado para Geração Aumentada por Recuperação (RAG)
    • Contexto da conversa como histórico da conta do usuário
    • Dados gerados pelo sistema, como resultados do uso de ferramentas alimentados por outras chamadas independentes ao Claude

Um modelo de prompt combina essas partes fixas e variáveis, usando espaços reservados para o conteúdo dinâmico. No Anthropic Console, esses espaços reservados são indicados com {{chaves duplas}}, tornando-os facilmente identificáveis e permitindo testes rápidos de diferentes valores.


Quando usar modelos de prompt e variáveis

Você deve sempre usar modelos de prompt e variáveis quando esperar que qualquer parte do seu prompt seja repetida em outra chamada ao Claude (apenas via API ou pelo Anthropic Console. O claude.ai atualmente não suporta modelos de prompt ou variáveis).

Modelos de prompt oferecem vários benefícios:

  • Consistência: Garantem uma estrutura consistente para seus prompts em múltiplas interações
  • Eficiência: Facilmente trocam conteúdo variável sem reescrever o prompt inteiro
  • Testabilidade: Testam rapidamente diferentes entradas e casos extremos alterando apenas a parte variável
  • Escalabilidade: Simplificam o gerenciamento de prompts conforme sua aplicação cresce em complexidade
  • Controle de versão: Facilmente rastreiam mudanças na estrutura do seu prompt ao longo do tempo, mantendo o controle apenas sobre a parte central do seu prompt, separada das entradas dinâmicas

O Anthropic Console usa intensamente modelos de prompt e variáveis para suportar recursos e ferramentas para todos os itens acima, como com o:

  • Gerador de prompt: Decide quais variáveis seu prompt precisa e as inclui no modelo que gera
  • Aprimorador de prompt: Pega seu modelo existente, incluindo todas as variáveis, e as mantém no modelo aprimorado que gera
  • Ferramenta de avaliação: Permite que você teste, escale e rastreie versões de seus prompts facilmente, separando as partes variáveis e fixas do seu modelo de prompt

Exemplo de modelo de prompt

Vamos considerar uma aplicação simples que traduz texto do inglês para o espanhol. O texto traduzido seria variável, já que você esperaria que este texto mudasse entre usuários ou chamadas ao Claude. Este texto traduzido poderia ser recuperado dinamicamente de bancos de dados ou da entrada do usuário.

Assim, para seu aplicativo de tradução, você poderia usar este modelo de prompt simples:

Traduza este texto do inglês para o espanhol: {{text}}

Próximos passos