Ridurre la fuga di prompt
Le fughe di prompt possono esporre informazioni sensibili che ci si aspetta siano “nascoste” nel prompt. Sebbene nessun metodo sia infallibile, le strategie seguenti possono ridurre significativamente il rischio.
Prima di provare a ridurre la fuga di prompt
Raccomandiamo di utilizzare strategie di prompt engineering resistenti alle fughe solo quando assolutamente necessario. I tentativi di rendere il prompt a prova di fuga possono aggiungere complessità che potrebbe degradare le prestazioni in altre parti del compito a causa dell’aumento della complessità del compito complessivo del LLM.
Se decidi di implementare tecniche resistenti alle fughe, assicurati di testare accuratamente i tuoi prompt per garantire che la complessità aggiunta non impatti negativamente sulle prestazioni del modello o sulla qualità dei suoi output.
Strategie per ridurre la fuga di prompt
- Separare il contesto dalle query:
Puoi provare a utilizzare prompt di sistema per isolare le informazioni chiave e il contesto dalle query degli utenti. Puoi enfatizzare le istruzioni chiave nel turno
User
, quindi rienfatizzare queste istruzioni precompilando il turnoAssistant
.
- Utilizzare il post-processing: Filtra gli output di Claude per parole chiave che potrebbero indicare una fuga. Le tecniche includono l’uso di espressioni regolari, filtri per parole chiave o altri metodi di elaborazione del testo.
Puoi anche utilizzare un LLM con prompt per filtrare gli output per fughe più sfumate.
- Evitare dettagli proprietari non necessari: Se Claude non ne ha bisogno per eseguire il compito, non includerli. I contenuti extra distraggono Claude dal concentrarsi sulle istruzioni “no fuga”.
- Audit regolari: Rivedi periodicamente i tuoi prompt e gli output di Claude per potenziali fughe.
Ricorda, l’obiettivo non è solo prevenire le fughe ma mantenere le prestazioni di Claude. Una prevenzione delle fughe eccessivamente complessa può degradare i risultati. L’equilibrio è fondamentale.
Was this page helpful?