访问评估功能

开始使用评估工具的步骤:

  1. 打开 Anthropic Console 并导航到提示词编辑器。
  2. 编写完提示词后,在屏幕顶部寻找”Evaluate”(评估)标签。

确保您的提示词至少包含1-2个使用双大括号语法的动态变量:{{variable}}。这是创建评估测试集所必需的。

生成提示词

Console提供了一个由Claude 3.7 Sonnet驱动的内置提示词生成器

1

点击'Generate Prompt'

点击”Generate Prompt”(生成提示词)辅助工具将打开一个模态框,让您输入任务信息。

2

描述您的任务

描述您想要完成的任务(例如,“分类入站客户支持请求”),您可以根据需要提供或多或少的细节。您提供的上下文越多,Claude就能越好地根据您的具体需求定制生成的提示词。

3

生成您的提示词

点击底部的橙色”Generate Prompt”按钮,Claude将为您生成一个高质量的提示词。然后您可以使用Console中的评估界面进一步改进这些提示词。

此功能使创建具有适当变量语法的提示词变得更容易,便于评估。

创建测试用例

当您访问评估界面时,您有几种创建测试用例的选项:

  1. 点击左下角的”+ Add Row”按钮手动添加用例。
  2. 使用”Generate Test Case”功能让Claude自动为您生成测试用例。
  3. 从CSV文件导入测试用例。

使用”Generate Test Case”功能:

1

点击'Generate Test Case'

每次点击按钮,Claude都会为您生成一行测试用例。

2

编辑生成逻辑(可选)

您还可以通过点击”Generate Test Case”按钮右侧的箭头下拉菜单,然后点击弹出的Variables窗口顶部的”Show generation logic”来编辑测试用例生成逻辑。您可能需要点击此窗口右上角的”Generate”来填充初始生成逻辑。

编辑这些内容可以让您自定义和微调Claude生成的测试用例,使其更加精确和具体。

以下是一个包含多个测试用例的评估界面示例:

如果您更新了原始提示词文本,您可以针对新提示词重新运行整个评估套件,以查看更改如何影响所有测试用例的性能。

有效评估的技巧

使用Console中的”Generate a prompt”辅助工具快速创建具有适当变量语法的提示词以进行评估。

理解和比较结果

评估工具提供了几个功能来帮助您改进提示词:

  1. 并排比较:比较两个或更多提示词的输出,快速查看更改的影响。
  2. 质量评分:使用5分制对响应质量进行评分,以跟踪每个提示词的响应质量改进情况。
  3. 提示词版本控制:创建提示词的新版本并重新运行测试套件,以快速迭代和改进结果。

通过查看测试用例的结果并比较不同的提示词版本,您可以更有效地发现模式并对提示词进行明智的调整。

立即开始评估您的提示词,以使用Claude构建更强大的AI应用程序!

Was this page helpful?