詞彙表
這些概念並非Anthropic語言模型所獨有,但我們在下面簡要總結了一些關鍵術語。
上下文窗口
“上下文窗口”指的是語言模型在生成新文本時可以回顧和參考的文本量。這與語言模型訓練所用的大型語料庫不同,而是代表模型的一種”工作記憶”。較大的上下文窗口允許模型理解和回應更複雜、更長的提示,而較小的上下文窗口可能會限制模型處理較長提示或在延伸對話中保持連貫性的能力。
請參閱我們的模型比較表格,了解各模型的上下文窗口大小。
微調
微調是使用額外數據對預訓練語言模型進行進一步訓練的過程。這會使模型開始表現和模仿微調數據集的模式和特徵。Claude不是一個純粹的語言模型;它已經經過微調成為一個有幫助的助手。我們的API目前不提供微調功能,但如果您有興趣探索這個選項,請詢問您的Anthropic聯絡人。微調可以用於將語言模型適應特定領域、任務或寫作風格,但需要仔細考慮微調數據以及對模型性能和偏見的潛在影響。
HHH
這三個H代表Anthropic確保Claude對社會有益的目標:
- 一個有幫助的(helpful)AI將嘗試盡其所能執行任務或回答問題,提供相關和有用的信息。
- 一個誠實的(honest)AI將提供準確的信息,不會產生幻覺或虛構。它會在適當的時候承認自己的局限性和不確定性。
- 一個無害的(harmless)AI不會具有冒犯性或歧視性,當被要求協助危險或不道德的行為時,AI應禮貌地拒絕並解釋為什麼它不能遵從。
延遲
在生成式AI和大型語言模型的背景下,延遲指的是模型對給定提示做出回應所需的時間。它是提交提示和接收生成輸出之間的延遲。較低的延遲表示更快的響應時間,這對於實時應用、聊天機器人和互動體驗至關重要。影響延遲的因素包括模型大小、硬件能力、網絡條件以及提示和生成回應的複雜性。
LLM
大型語言模型(LLMs)是具有許多參數的AI語言模型,能夠執行各種令人驚訝的有用任務。這些模型在大量文本數據上進行訓練,可以生成類人文本、回答問題、總結信息等。Claude是一個基於大型語言模型的對話助手,經過微調和使用RLHF訓練,使其更有幫助、更誠實、更無害。
預訓練
預訓練是在大量未標記的文本語料庫上對語言模型進行初始訓練的過程。就Claude而言,自迴歸語言模型(如Claude的底層模型)經過預訓練,根據文檔中的前文上下文預測下一個詞。這些預訓練模型本身並不擅長回答問題或遵循指令,通常需要深厚的提示工程技能才能引出所需的行為。微調和RLHF用於改進這些預訓練模型,使其更適用於廣泛的任務。
RAG(檢索增強生成)
檢索增強生成(RAG)是一種將信息檢索與語言模型生成相結合的技術,旨在提高生成文本的準確性和相關性,並更好地將模型的回應建立在證據基礎上。在RAG中,語言模型通過外部知識庫或一組文檔進行增強,這些文檔被傳入上下文窗口。當向模型發送查詢時,數據會在運行時檢索,儘管模型本身不一定檢索數據(但可以通過工具使用和檢索功能實現)。在生成文本時,首先必須根據輸入提示從知識庫中檢索相關信息,然後將其與原始查詢一起傳遞給模型。模型使用這些信息來指導它生成的輸出。這使模型能夠訪問和利用超出其訓練數據的信息,減少對記憶的依賴,提高生成文本的事實準確性。RAG對於需要最新信息、特定領域知識或明確引用來源的任務特別有用。然而,RAG的有效性取決於外部知識庫的質量和相關性,以及在運行時檢索的知識。
RLHF
人類反饋強化學習(RLHF)是一種用於訓練預訓練語言模型的技術,使其行為與人類偏好一致。這可以包括幫助模型更有效地遵循指令或更像聊天機器人。人類反饋包括對兩個或多個示例文本進行排名,強化學習過程鼓勵模型偏好與排名較高的文本相似的輸出。Claude已經使用RLHF進行訓練,成為一個更有幫助的助手。有關更多詳細信息,您可以閱讀Anthropic關於這個主題的論文。
溫度
溫度是一個控制模型在文本生成過程中預測隨機性的參數。較高的溫度會導致更具創意和多樣性的輸出,允許在措辭上有多種變化,在小說的情況下,答案也會有變化。較低的溫度會產生更保守和確定性的輸出,堅持最可能的措辭和答案。調整溫度使用戶能夠鼓勵語言模型探索罕見、不常見或令人驚訝的詞語選擇和序列,而不是只選擇最可能的預測。
TTFT(首個標記時間)
首個標記時間(TTFT)是一個性能指標,用於衡量語言模型在接收提示後生成其輸出的第一個標記所需的時間。它是模型響應能力的重要指標,特別適用於互動應用、聊天機器人和實時系統,用戶期望快速得到初步反饋。較低的TTFT表示模型可以更快地開始生成回應,提供更流暢和吸引人的用戶體驗。影響TTFT的因素包括模型大小、硬件能力、網絡條件和提示的複雜性。
標記
標記是語言模型的最小個別單位,可以對應於單詞、子詞、字符,甚至字節(在Unicode的情況下)。對於Claude來說,一個標記大約代表3.5個英文字符,儘管確切數字可能因使用的語言而異。在”文本”層面與語言模型互動時,標記通常是隱藏的,但在檢查語言模型的確切輸入和輸出時變得相關。當Claude被提供要評估的文本時,文本(由一系列字符組成)被編碼成一系列標記供模型處理。較大的標記在推理和預訓練期間能實現數據效率(並在可能的情況下被利用),而較小的標記允許模型處理不常見或從未見過的單詞。標記化方法的選擇可能影響模型的性能、詞彙量和處理詞彙表外單詞的能力。