Masalah Umum & Strategi Mitigasi dengan LLMs

  1. Halusinasi: LLMs terkadang dapat menghasilkan teks yang salah secara faktual, tidak konsisten, atau tidak relevan dengan konteks yang diberikan. Ini dikenal sebagai halusinasi dan dapat terjadi ketika model mencoba mengisi kesenjangan dalam pengetahuannya atau ketika input ambigu.
    • Meminimalkan halusinasi: Pelajari teknik untuk mengurangi terjadinya output yang salah secara faktual atau tidak konsisten dari model. Halaman ini mencakup strategi seperti memungkinkan Claude untuk mengatakan ketika ia tidak tahu jawabannya, meminta Claude mengekstrak kutipan sebelum merespons, dan teknik rekayasa prompt lainnya.
  2. Jailbreaking dan injeksi prompt: Pengguna mungkin mencoba untuk melewati perlindungan dan pedoman etika model dengan membuat prompt tertentu yang mengeksploitasi kerentanan dalam pelatihan model. Ini dapat menyebabkan model menghasilkan konten yang tidak pantas atau berbahaya.
    • Mengurangi jailbreak & injeksi prompt: Temukan praktik terbaik untuk mencegah pengguna mengeksploitasi kerentanan model dan menghasilkan konten yang tidak pantas. Halaman ini membahas metode seperti validasi input dan strategi prompting lainnya.
  3. Kebocoran prompt: Pengguna mungkin mencoba membuat model mengungkapkan bagian dari prompt input dalam output yang dihasilkannya. Ini bisa menjadi masalah ketika berurusan dengan informasi sensitif atau ketika prompt berisi detail yang tidak boleh diungkapkan.
    • Mengurangi kebocoran prompt: Cari tahu cara meminimalkan risiko model mengungkapkan informasi sensitif dari prompt input dalam output yang dihasilkannya. Halaman ini mengeksplorasi teknik seperti memisahkan konteks dari kueri, strategi prompting, dan menerapkan pemrosesan akhir pada output.
  4. Respons di luar karakter: Saat menggunakan LLMs untuk skenario bermain peran karakter atau untuk meniru kepribadian tertentu, model terkadang dapat menyimpang dari sifat karakter yang dimaksud, yang mengarah pada respons yang tidak konsisten atau tidak realistis, terutama dalam percakapan yang panjang.
    • Menjaga Claude tetap dalam karakter: Dapatkan tips tentang mempertahankan respons yang konsisten dan sesuai karakter saat menggunakan Claude untuk skenario bermain peran karakter. Halaman ini mencakup strategi seperti memberikan deskripsi karakter yang jelas dan menggunakan prompt pengaturan konteks.
  5. Output non-deterministik: Karena sifat probabilistik LLMs, output yang dihasilkan dapat bervariasi bahkan ketika diberikan input yang sama. Ini bisa menjadi masalah dalam skenario di mana hasil yang konsisten dan dapat direproduksi diinginkan.
    • Meskipun LLMs tidak dapat sepenuhnya deterministik, Anda dapat mengatur temperature ke 0.0 untuk mengurangi keacakan sebanyak mungkin. Untuk informasi lebih lanjut tentang parameter API, lihat dokumentasi Messages API kami.

Selain panduan pemecahan masalah ini, kami merekomendasikan untuk meninjau dokumentasi rekayasa prompt kami untuk gambaran komprehensif tentang cara membuat prompt yang sangat efektif. Panduan ini menawarkan wawasan lebih lanjut tentang mengoptimalkan prompt, meningkatkan kemampuan mengarahkan model, dan meningkatkan responsivitas Claude secara keseluruhan.

Jika Anda terus mengalami masalah, jangan ragu untuk menghubungi tim dukungan pelanggan kami. Kami di sini untuk membantu Anda memanfaatkan Claude sebaik mungkin.