Reduzir vazamento de prompt
Vazamentos de prompt podem expor informações sensíveis que você espera que estejam “ocultas” em seu prompt. Embora nenhum método seja infalível, as estratégias abaixo podem reduzir significativamente o risco.
Antes de tentar reduzir o vazamento de prompt
Recomendamos usar estratégias de engenharia de prompt resistentes a vazamentos apenas quando absolutamente necessário. Tentativas de tornar seu prompt à prova de vazamentos podem adicionar complexidade que pode degradar o desempenho em outras partes da tarefa devido ao aumento da complexidade da tarefa geral do LLM.
Se você decidir implementar técnicas resistentes a vazamentos, certifique-se de testar seus prompts completamente para garantir que a complexidade adicional não impacte negativamente o desempenho do modelo ou a qualidade de suas saídas.
Estratégias para reduzir vazamento de prompt
- Separe o contexto das consultas:
Você pode tentar usar prompts do sistema para isolar informações-chave e contexto das consultas do usuário. Você pode enfatizar instruções-chave no turno do
User
, depois reenfatizar essas instruções pré-preenchendo o turno doAssistant
.
- Use pós-processamento: Filtre as saídas do Claude em busca de palavras-chave que possam indicar um vazamento. As técnicas incluem o uso de expressões regulares, filtragem de palavras-chave ou outros métodos de processamento de texto.
Você também pode usar um LLM com prompt para filtrar saídas em busca de vazamentos mais sutis.
- Evite detalhes proprietários desnecessários: Se o Claude não precisar disso para realizar a tarefa, não inclua. Conteúdo extra distrai o Claude do foco nas instruções de “não vazar”.
- Auditorias regulares: Revise periodicamente seus prompts e as saídas do Claude em busca de possíveis vazamentos.
Lembre-se, o objetivo não é apenas prevenir vazamentos, mas manter o desempenho do Claude. A prevenção de vazamentos excessivamente complexa pode degradar os resultados. O equilíbrio é fundamental.