Reduzir vazamento de prompt
Vazamentos de prompt podem expor informações confidenciais que você espera que estejam “ocultas” em seu prompt. Embora nenhum método seja à prova de falhas, as estratégias abaixo podem reduzir significativamente o risco.
Antes de tentar reduzir o vazamento de prompt
Recomendamos usar estratégias de engenharia de prompt resistentes a vazamentos apenas quando for absolutamente necessário. Tentativas de tornar seu prompt à prova de vazamentos podem adicionar complexidade que pode degradar o desempenho em outras partes da tarefa devido ao aumento da complexidade da tarefa geral do LLM.
Se você decidir implementar técnicas resistentes a vazamentos, certifique-se de testar seus prompts completamente para garantir que a complexidade adicionada não afete negativamente o desempenho do modelo ou a qualidade de suas saídas.
Estratégias para reduzir o vazamento de prompt
- Separe o contexto das consultas:
Você pode tentar usar prompts de sistema para isolar informações e contexto importantes das consultas do usuário. Você pode enfatizar instruções importantes na vez do
User
, e então reenfatizar essas instruções preenchendo previamente a vez doAssistant
.
- Use pós-processamento: Filtre as saídas do Claude para palavras-chave que possam indicar um vazamento. As técnicas incluem o uso de expressões regulares, filtragem de palavras-chave ou outros métodos de processamento de texto.
Você também pode usar um LLM com prompt para filtrar saídas para vazamentos mais sutis.
- Evite detalhes proprietários desnecessários: Se o Claude não precisa disso para executar a tarefa, não inclua. Conteúdo extra distrai o Claude de se concentrar nas instruções de “sem vazamento”.
- Auditorias regulares: Revise periodicamente seus prompts e as saídas do Claude em busca de possíveis vazamentos.
Lembre-se, o objetivo não é apenas evitar vazamentos, mas manter o desempenho do Claude. Prevenção de vazamento excessivamente complexa pode degradar os resultados. O equilíbrio é fundamental.