Mengakses Fitur Evaluasi

Untuk memulai dengan alat Evaluasi:

  1. Buka Konsol Anthropic dan navigasikan ke editor prompt.
  2. Setelah menyusun prompt Anda, cari tab ‘Evaluasi’ di bagian atas layar.

Mengakses Fitur Evaluasi

Pastikan prompt Anda menyertakan setidaknya 1-2 variabel dinamis menggunakan sintaks kurung ganda: {{variabel}}. Ini diperlukan untuk membuat set uji evaluasi.

Menghasilkan Prompt

Konsol menawarkan generator prompt bawaan yang ditenagai oleh Claude 3.5 Sonnet:

1

Klik 'Hasilkan Prompt'

Mengklik alat bantu ‘Hasilkan Prompt’ akan membuka modal yang memungkinkan Anda memasukkan informasi tugas Anda.

2

Jelaskan tugas Anda

Jelaskan tugas yang Anda inginkan (misalnya, “Triase permintaan dukungan pelanggan yang masuk”) dengan detail sebanyak atau sesedikit yang Anda inginkan. Semakin banyak konteks yang Anda sertakan, semakin Claude dapat menyesuaikan prompt yang dihasilkan dengan kebutuhan spesifik Anda.

3

Hasilkan prompt Anda

Mengklik tombol oranye ‘Hasilkan Prompt’ di bagian bawah akan membuat Claude menghasilkan prompt berkualitas tinggi untuk Anda. Anda kemudian dapat lebih meningkatkan prompt tersebut menggunakan layar Evaluasi di Konsol.

Fitur ini memudahkan untuk membuat prompt dengan sintaks variabel yang sesuai untuk evaluasi.

Generator Prompt

Membuat Kasus Uji

Ketika Anda mengakses layar Evaluasi, Anda memiliki beberapa opsi untuk membuat kasus uji:

  1. Klik tombol ’+ Tambah Baris’ di kiri bawah untuk menambahkan kasus secara manual.
  2. Gunakan fitur ‘Hasilkan Kasus Uji’ agar Claude secara otomatis menghasilkan kasus uji untuk Anda.
  3. Impor kasus uji dari file CSV.

Untuk menggunakan fitur ‘Hasilkan Kasus Uji’:

1

Klik pada 'Hasilkan Kasus Uji'

Claude akan menghasilkan kasus uji untuk Anda, satu baris setiap kali Anda mengklik tombol.

2

Edit logika pembuatan (opsional)

Anda juga dapat mengedit logika pembuatan kasus uji dengan mengklik panah dropdown di sebelah kanan tombol ‘Hasilkan Kasus Uji’, kemudian pada ‘Tampilkan logika pembuatan’ di bagian atas jendela Variabel yang muncul. Anda mungkin harus mengklik ‘Hasilkan’ di kanan atas jendela ini untuk mengisi logika pembuatan awal.

Mengedit ini memungkinkan Anda untuk menyesuaikan dan menyempurnakan kasus uji yang dihasilkan Claude dengan presisi dan spesifisitas yang lebih besar.

Berikut adalah contoh layar Evaluasi yang terisi dengan beberapa kasus uji:

Layar Evaluasi Terisi

Jika Anda memperbarui teks prompt asli, Anda dapat menjalankan kembali seluruh rangkaian evaluasi terhadap prompt baru untuk melihat bagaimana perubahan mempengaruhi kinerja di semua kasus uji.

Tips untuk Evaluasi Efektif

Gunakan alat bantu ‘Hasilkan prompt’ di Konsol untuk dengan cepat membuat prompt dengan sintaks variabel yang sesuai untuk evaluasi.

Memahami dan membandingkan hasil

Alat Evaluasi menawarkan beberapa fitur untuk membantu Anda menyempurnakan prompt Anda:

  1. Perbandingan berdampingan: Bandingkan output dari dua atau lebih prompt untuk dengan cepat melihat dampak dari perubahan Anda.
  2. Penilaian kualitas: Nilai kualitas respons pada skala 5 poin untuk melacak peningkatan kualitas respons per prompt.
  3. Versi prompt: Buat versi baru dari prompt Anda dan jalankan kembali rangkaian uji untuk dengan cepat melakukan iterasi dan meningkatkan hasil.

Dengan meninjau hasil di seluruh kasus uji dan membandingkan versi prompt yang berbeda, Anda dapat melihat pola dan membuat penyesuaian yang tepat pada prompt Anda dengan lebih efisien.

Mulailah mengevaluasi prompt Anda hari ini untuk membangun aplikasi AI yang lebih kuat dengan Claude!