Mengurangi kebocoran prompt
Kebocoran prompt dapat mengekspos informasi sensitif yang Anda harapkan untuk tetap “tersembunyi” dalam prompt Anda. Meskipun tidak ada metode yang sempurna, strategi di bawah ini dapat secara signifikan mengurangi risiko.
Sebelum Anda mencoba mengurangi kebocoran prompt
Kami menyarankan untuk menggunakan strategi rekayasa prompt yang tahan kebocoran hanya ketika benar-benar diperlukan. Upaya untuk membuat prompt anti-kebocoran dapat menambah kompleksitas yang mungkin menurunkan kinerja di bagian lain dari tugas karena meningkatnya kompleksitas tugas LLM secara keseluruhan.
Jika Anda memutuskan untuk menerapkan teknik tahan kebocoran, pastikan untuk menguji prompt Anda secara menyeluruh untuk memastikan bahwa kompleksitas tambahan tidak berdampak negatif pada kinerja model atau kualitas outputnya.
Strategi untuk mengurangi kebocoran prompt
- Pisahkan konteks dari kueri:
Anda dapat mencoba menggunakan prompt sistem untuk mengisolasi informasi kunci dan konteks dari kueri pengguna. Anda dapat menekankan instruksi kunci dalam giliran
User
, kemudian menekankan kembali instruksi tersebut dengan mengisi awal giliranAssistant
.
- Gunakan pemrosesan pasca: Filter output Claude untuk kata kunci yang mungkin mengindikasikan kebocoran. Tekniknya termasuk menggunakan ekspresi reguler, penyaringan kata kunci, atau metode pemrosesan teks lainnya.
Anda juga dapat menggunakan LLM yang diprompt untuk menyaring output untuk kebocoran yang lebih halus.
- Hindari detail kepemilikan yang tidak perlu: Jika Claude tidak membutuhkannya untuk melakukan tugas, jangan sertakan. Konten tambahan mengalihkan perhatian Claude dari fokus pada instruksi “tidak bocor”.
- Audit rutin: Secara berkala tinjau prompt Anda dan output Claude untuk potensi kebocoran.
Ingat, tujuannya bukan hanya mencegah kebocoran tetapi juga mempertahankan kinerja Claude. Pencegahan kebocoran yang terlalu kompleks dapat menurunkan hasil. Keseimbangan adalah kunci.
Was this page helpful?