Glosarium
Konsep-konsep ini tidak unik untuk model bahasa Anthropic, tetapi kami menyajikan ringkasan singkat istilah-istilah kunci di bawah ini.
Jendela konteks
”Jendela konteks” mengacu pada jumlah teks yang dapat dilihat kembali dan dirujuk oleh model bahasa saat menghasilkan teks baru. Ini berbeda dari kumpulan data besar yang digunakan untuk melatih model bahasa, dan sebaliknya merepresentasikan “memori kerja” untuk model. Jendela konteks yang lebih besar memungkinkan model untuk memahami dan merespons prompt yang lebih kompleks dan panjang, sementara jendela konteks yang lebih kecil dapat membatasi kemampuan model untuk menangani prompt yang lebih panjang atau mempertahankan koherensi selama percakapan yang panjang.
Lihat tabel perbandingan model kami untuk daftar ukuran jendela konteks berdasarkan model.
Fine-tuning
Fine-tuning adalah proses pelatihan lebih lanjut model bahasa yang telah dilatih sebelumnya menggunakan data tambahan. Ini menyebabkan model mulai merepresentasikan dan meniru pola dan karakteristik dari dataset fine-tuning. Claude bukanlah model bahasa mentah; ia telah di-fine-tune untuk menjadi asisten yang membantu. API kami saat ini tidak menawarkan fine-tuning, tetapi silakan tanyakan kepada kontak Anthropic Anda jika Anda tertarik untuk mengeksplorasi opsi ini. Fine-tuning dapat berguna untuk mengadaptasi model bahasa ke domain, tugas, atau gaya penulisan tertentu, tetapi memerlukan pertimbangan cermat tentang data fine-tuning dan potensi dampaknya pada kinerja dan bias model.
HHH
Tiga H ini mewakili tujuan Anthropic dalam memastikan bahwa Claude bermanfaat bagi masyarakat:
- AI yang helpful (membantu) akan berusaha melakukan tugas atau menjawab pertanyaan yang diajukan dengan kemampuan terbaiknya, memberikan informasi yang relevan dan berguna.
- AI yang honest (jujur) akan memberikan informasi yang akurat, dan tidak berhalusinasi atau membuat-buat. Ia akan mengakui keterbatasan dan ketidakpastiannya bila diperlukan.
- AI yang harmless (tidak berbahaya) tidak akan bersifat ofensif atau diskriminatif, dan ketika diminta untuk membantu tindakan berbahaya atau tidak etis, AI harus menolak dengan sopan dan menjelaskan mengapa tidak dapat mematuhinya.
Latensi
Latensi, dalam konteks AI generatif dan model bahasa besar, mengacu pada waktu yang dibutuhkan model untuk merespons prompt yang diberikan. Ini adalah jeda antara mengirimkan prompt dan menerima output yang dihasilkan. Latensi yang lebih rendah menunjukkan waktu respons yang lebih cepat, yang sangat penting untuk aplikasi real-time, chatbot, dan pengalaman interaktif. Faktor-faktor yang dapat mempengaruhi latensi termasuk ukuran model, kemampuan perangkat keras, kondisi jaringan, dan kompleksitas prompt serta respons yang dihasilkan.
LLM
Model bahasa besar (LLM) adalah model bahasa AI dengan banyak parameter yang mampu melakukan berbagai tugas yang mengejutkan berguna. Model-model ini dilatih pada sejumlah besar data teks dan dapat menghasilkan teks seperti manusia, menjawab pertanyaan, meringkas informasi, dan lainnya. Claude adalah asisten percakapan berbasis model bahasa besar yang telah di-fine-tune dan dilatih menggunakan RLHF untuk menjadi lebih membantu, jujur, dan tidak berbahaya.
Pretraining
Pretraining adalah proses awal pelatihan model bahasa pada korpus teks besar yang tidak berlabel. Dalam kasus Claude, model bahasa autoregresif (seperti model dasar Claude) dilatih untuk memprediksi kata berikutnya, berdasarkan konteks teks sebelumnya dalam dokumen. Model yang telah dilatih sebelumnya ini tidak secara inheren bagus dalam menjawab pertanyaan atau mengikuti instruksi, dan seringkali membutuhkan keahlian mendalam dalam rekayasa prompt untuk memunculkan perilaku yang diinginkan. Fine-tuning dan RLHF digunakan untuk menyempurnakan model yang telah dilatih sebelumnya ini, membuatnya lebih berguna untuk berbagai tugas.
RAG (Retrieval augmented generation)
Retrieval augmented generation (RAG) adalah teknik yang menggabungkan pengambilan informasi dengan generasi model bahasa untuk meningkatkan akurasi dan relevansi teks yang dihasilkan, dan untuk lebih mendasarkan respons model pada bukti. Dalam RAG, model bahasa ditambah dengan basis pengetahuan eksternal atau sekumpulan dokumen yang dimasukkan ke dalam jendela konteks. Data diambil pada saat runtime ketika query dikirim ke model, meskipun model itu sendiri tidak selalu mengambil data (tetapi bisa dengan penggunaan alat dan fungsi pengambilan). Saat menghasilkan teks, informasi yang relevan pertama-tama harus diambil dari basis pengetahuan berdasarkan prompt input, dan kemudian diteruskan ke model bersama dengan query asli. Model menggunakan informasi ini untuk memandu output yang dihasilkannya. Ini memungkinkan model untuk mengakses dan memanfaatkan informasi di luar data pelatihannya, mengurangi ketergantungan pada hafalan dan meningkatkan akurasi faktual dari teks yang dihasilkan. RAG dapat sangat berguna untuk tugas-tugas yang memerlukan informasi terkini, pengetahuan domain spesifik, atau kutipan sumber secara eksplisit. Namun, efektivitas RAG bergantung pada kualitas dan relevansi basis pengetahuan eksternal dan pengetahuan yang diambil pada saat runtime.
RLHF
Reinforcement Learning from Human Feedback (RLHF) adalah teknik yang digunakan untuk melatih model bahasa yang telah dilatih sebelumnya untuk berperilaku dengan cara yang konsisten dengan preferensi manusia. Ini dapat mencakup membantu model mengikuti instruksi dengan lebih efektif atau bertindak lebih seperti chatbot. Umpan balik manusia terdiri dari peringkat serangkaian dua atau lebih teks contoh, dan proses pembelajaran penguatan mendorong model untuk lebih memilih output yang mirip dengan yang memiliki peringkat lebih tinggi. Claude telah dilatih menggunakan RLHF untuk menjadi asisten yang lebih membantu. Untuk detail lebih lanjut, Anda dapat membaca makalah Anthropic tentang subjek ini.
Temperature
Temperature adalah parameter yang mengontrol keacakan prediksi model selama generasi teks. Temperature yang lebih tinggi menghasilkan output yang lebih kreatif dan beragam, memungkinkan beberapa variasi dalam ungkapan dan, dalam kasus fiksi, variasi dalam jawaban juga. Temperature yang lebih rendah menghasilkan output yang lebih konservatif dan deterministik yang berpegang pada ungkapan dan jawaban yang paling mungkin. Menyesuaikan temperature memungkinkan pengguna untuk mendorong model bahasa mengeksplorasi pilihan dan urutan kata yang langka, tidak umum, atau mengejutkan, daripada hanya memilih prediksi yang paling mungkin.
TTFT (Time to first token)
Time to First Token (TTFT) adalah metrik kinerja yang mengukur waktu yang dibutuhkan model bahasa untuk menghasilkan token pertama dari outputnya setelah menerima prompt. Ini adalah indikator penting dari responsivitas model dan sangat relevan untuk aplikasi interaktif, chatbot, dan sistem real-time di mana pengguna mengharapkan umpan balik awal yang cepat. TTFT yang lebih rendah menunjukkan bahwa model dapat mulai menghasilkan respons lebih cepat, memberikan pengalaman pengguna yang lebih lancar dan menarik. Faktor-faktor yang dapat mempengaruhi TTFT termasuk ukuran model, kemampuan perangkat keras, kondisi jaringan, dan kompleksitas prompt.
Token
Token adalah unit individual terkecil dari model bahasa, dan dapat berupa kata, subkata, karakter, atau bahkan byte (dalam kasus Unicode). Untuk Claude, satu token kira-kira mewakili 3,5 karakter bahasa Inggris, meskipun jumlah pastinya dapat bervariasi tergantung pada bahasa yang digunakan. Token biasanya tersembunyi saat berinteraksi dengan model bahasa pada tingkat “teks” tetapi menjadi relevan saat memeriksa input dan output yang tepat dari model bahasa. Ketika Claude diberikan teks untuk dievaluasi, teks (yang terdiri dari serangkaian karakter) dikodekan menjadi serangkaian token untuk diproses oleh model. Token yang lebih besar memungkinkan efisiensi data selama inferensi dan pretraining (dan digunakan bila memungkinkan), sementara token yang lebih kecil memungkinkan model untuk menangani kata-kata yang tidak umum atau belum pernah dilihat sebelumnya. Pilihan metode tokenisasi dapat mempengaruhi kinerja model, ukuran kosakata, dan kemampuan untuk menangani kata-kata di luar kosakata.
Was this page helpful?