上下文窗口

”上下文窗口”指的是语言模型在生成新文本时可以回顾和参考的文本量。这与语言模型训练时使用的大型语料库不同,而是代表模型的”工作记忆”。较大的上下文窗口使模型能够理解和响应更复杂和更长的提示,而较小的上下文窗口可能会限制模型处理较长提示或在延伸对话中保持连贯性的能力。

请参阅我们的模型比较表格,了解各个模型的上下文窗口大小。

微调

微调是使用额外数据对预训练语言模型进行进一步训练的过程。这会使模型开始表现和模仿微调数据集的模式和特征。Claude 不是一个原始的语言模型;它已经经过微调成为一个有帮助的助手。我们的 API 目前不提供微调功能,但如果您有兴趣探索这个选项,请咨询您的 Anthropic 联系人。微调可用于使语言模型适应特定领域、任务或写作风格,但需要仔细考虑微调数据以及对模型性能和偏见的潜在影响。

HHH

这三个 H 代表 Anthropic 确保 Claude 对社会有益的目标:

  • 有帮助的 (Helpful) AI 将尽其所能完成任务或回答问题,提供相关和有用的信息。
  • 诚实的 (Honest) AI 将提供准确的信息,不会产生幻觉或虚构。它会在适当时承认其局限性和不确定性。
  • 无害的 (Harmless) AI 不会具有冒犯性或歧视性,当被要求协助危险或不道德的行为时,AI 应该礼貌地拒绝并解释原因。

延迟

在生成式 AI 和大型语言模型的背景下,延迟指的是模型响应给定提示所需的时间。它是提交提示和接收生成输出之间的延迟。较低的延迟表示响应时间更快,这对实时应用、聊天机器人和交互式体验至关重要。影响延迟的因素包括模型大小、硬件能力、网络条件以及提示和生成响应的复杂性。

LLM

大型语言模型(LLM)是具有许多参数的 AI 语言模型,能够执行各种令人惊讶的有用任务。这些模型在大量文本数据上进行训练,可以生成类人文本、回答问题、总结信息等。Claude 是一个基于大型语言模型的对话助手,经过微调和使用 RLHF 训练,使其更有帮助、更诚实、更无害。

预训练

预训练是在大量未标记文本语料库上训练语言模型的初始过程。就 Claude 而言,自回归语言模型(如 Claude 的底层模型)经过预训练,根据文档中的前文上下文预测下一个词。这些预训练模型本身并不擅长回答问题或遵循指令,通常需要深厚的提示工程技巧才能引出所需的行为。微调和 RLHF 用于改进这些预训练模型,使其更适用于广泛的任务。

RAG(检索增强生成)

检索增强生成(RAG)是一种将信息检索与语言模型生成相结合的技术,用于提高生成文本的准确性和相关性,并更好地将模型的响应建立在证据基础上。在 RAG 中,语言模型通过传入上下文窗口的外部知识库或文档集进行增强。当向模型发送查询时,数据会在运行时检索,尽管模型本身不一定检索数据(但可以通过工具使用和检索功能实现)。在生成文本时,首先必须根据输入提示从知识库中检索相关信息,然后将其与原始查询一起传递给模型。模型使用这些信息来指导它生成的输出。这使模型能够访问和利用其训练数据之外的信息,减少对记忆的依赖,提高生成文本的事实准确性。RAG 对于需要最新信息、特定领域知识或明确引用来源的任务特别有用。然而,RAG 的效果取决于外部知识库的质量和相关性,以及运行时检索的知识。

RLHF

人类反馈强化学习(RLHF)是一种用于训练预训练语言模型的技术,使其行为与人类偏好保持一致。这可以包括帮助模型更有效地遵循指令或更像聊天机器人。人类反馈包括对两个或更多示例文本进行排名,强化学习过程鼓励模型倾向于生成类似于排名较高文本的输出。Claude 已经使用 RLHF 训练成为一个更有帮助的助手。有关更多详细信息,您可以阅读 Anthropic 的相关论文

温度

温度是一个控制模型在文本生成过程中预测随机性的参数。较高的温度会导致更具创造性和多样性的输出,允许在措辞上有多种变化,在小说的情况下,答案也会有变化。较低的温度会产生更保守和确定性的输出,坚持最可能的措辞和答案。调整温度使用户能够鼓励语言模型探索罕见、不常见或令人惊讶的词语选择和序列,而不是仅选择最可能的预测。

TTFT(首个令牌时间)

首个令牌时间(TTFT)是衡量语言模型在接收提示后生成其输出的第一个令牌所需时间的性能指标。它是模型响应能力的重要指标,特别是对于交互式应用、聊天机器人和实时系统,用户期望快速的初始反馈。较低的 TTFT 表示模型可以更快地开始生成响应,提供更流畅和吸引人的用户体验。影响 TTFT 的因素包括模型大小、硬件能力、网络条件和提示的复杂性。

令牌

令牌是语言模型的最小个体单位,可以对应于单词、子词、字符甚至字节(在 Unicode 的情况下)。对于 Claude 来说,一个令牌大约代表 3.5 个英文字符,尽管确切数字可能因使用的语言而异。在”文本”层面与语言模型交互时,令牌通常是隐藏的,但在检查语言模型的确切输入和输出时变得相关。当向 Claude 提供要评估的文本时,文本(由一系列字符组成)被编码成一系列令牌供模型处理。较大的令牌在推理和预训练期间实现数据效率(并在可能时使用),而较小的令牌允许模型处理罕见或从未见过的单词。分词方法的选择可能影响模型的性能、词汇量大小和处理词汇表外单词的能力。

Was this page helpful?