Dieser Leitfaden soll Verwendungstipps für unsere Legacy-Modelle bereitstellen sowie Tipps zur Migration Ihrer Prompts von anderen Modellen wie OpenAIs GPT auf unsere Legacy-Modelle geben (für die Migration zu unseren Frontier-Modellen siehe unseren Hauptmigrationsleitfaden).


Anthropics Legacy-Modelle

Zu unseren Legacy-Modellen gehören Claude Instant 1.2, Claude 2.0 und Claude 2.1. Von diesen Legacy-Modellen ist Claude 2.1 das einzige Modell mit Unterstützung für Systemprompts (alle Claude 3-Modelle haben vollständige Unterstützung für Systemprompts).

Diese Modelle verfügen nicht über die Visionsfähigkeiten der Claude 3-Familie und sind im Allgemeinen weniger leistungsfähig und intelligent. Sie können jedoch für bestimmte Anwendungen nützlich sein, die nicht die erweiterten Funktionen der Claude 3-Modelle erfordern. Eine vollständige Zusammenfassung finden Sie auf der Seite Modellübersicht.

Bitte beachten Sie, dass Legacy-Modelle mit der Zeit als veraltet eingestuft werden können und weniger Unterstützung als neuere Modelle haben. Daher empfehlen wir, wenn möglich, eine Migration zur Claude 3-Familie zu planen.


Migration von Prompts von OpenAI/ChatGPT zu Legacy Claude-Modellen

Wenn Sie von OpenAIs GPT-Modellen oder ChatGPT zur Claude 2-Modellfamilie oder älteren Modellen wechseln, müssen Sie wahrscheinlich einige Anpassungen an Ihren Prompts vornehmen, um eine optimale Leistung zu gewährleisten. Während die Claude 3-Familie weitaus steuerbarer ist und Prompt-Migrationen im Allgemeinen ohne Änderungen verarbeiten kann, erfordern Legacy-Modelle möglicherweise zusätzliche Prompt-Anpassungen. (Das heißt, obwohl nicht notwendig, können diese Techniken und andere Prompt-Engineering-Strategien dennoch nützlich sein, um die Leistung des Claude 3-Modells über die Basislinie hinaus zu verbessern.)

Hier sind einige Tipps, die Ihnen helfen, Ihre GPT-Prompts für bessere Ergebnisse mit Legacy Claude-Modellen zu konvertieren:

1. Fügen Sie XML-Tags hinzu

XML-Tags (z. B. <tag></tag>) können verwendet werden, um verschiedene Unterabschnitte eines Prompts abzugrenzen, sodass Claude den Prompt in unterschiedliche Teile unterteilen kann. Um beispielsweise Text aus einem Dokument zu Ihrem Prompt hinzuzufügen, umschließen Sie das Dokument mit <doc></doc>-Tags:

XML
<doc>
Ein Stück Text...
</doc>

Claude kann auch andere strukturierte Formate wie JSON und Markdown erkennen, aber XML führt in den meisten Fällen aufgrund der Exposition während des Trainings zur besten Leistung. Sie können beliebige Tag-Namen verwenden, solange sie dem Format <> und </> entsprechen (obwohl wir empfehlen, die Tag-Namen einigermaßen sinnvoll und semantisch mit dem Inhalt zu verbinden, den sie abgrenzen). Weitere Informationen finden Sie in unserem Leitfaden zur Verwendung von XML-Tags.

2. Geben Sie klare und eindeutige Anweisungen

Claude reagiert gut auf klare und direkte Anweisungen. Anstatt Raum für implizite Annahmen zu lassen, weisen Sie Claude innerhalb Ihres Prompts so detailliert wie möglich an, damit Claude die anstehende Aufgabe gemäß Ihren Spezifikationen vollständig ausführen kann. Anstatt zum Beispiel:

RolleInhalt
UserVerwenden Sie den Kontext und die Frage, um eine Antwort zu erstellen.

Versuchen Sie:

RolleInhalt
UserBitte lesen Sie die Frage des Benutzers, die innerhalb der <question>-Tags angegeben ist. Generieren Sie dann, nur mit den oben innerhalb der <context>-Tags bereitgestellten Kontextinformationen, eine Antwort auf die Frage und geben Sie sie innerhalb von <answer>-Tags aus.

Wenn Sie Prompts für Claude erstellen, gehen Sie davon aus, dass Claude neu bei der Aufgabe ist und keinen anderen Kontext als den im Prompt angegebenen hat. Detaillierte und eindeutige Erklärungen helfen Claude, bessere Antworten zu generieren. Weitere Informationen finden Sie unter Seien Sie klar und direkt.

3. Füllen Sie Claudes Antwort vor

Sie können Claudes Prompt erweitern, um den Assistant-Turn vorzufüllen. Claude setzt das Gespräch vom letzten Token in der Assistant-Nachricht fort. Dies kann dazu beitragen, Claudes geschwätzige Tendenzen zu vermeiden und sicherzustellen, dass es das gewünschte Ausgabeformat bereitstellt. Zum Beispiel:

RolleInhalt
UserIch möchte, dass Sie den folgenden Absatz unter Verwendung der folgenden Anweisungen umschreiben: ”
{{ANWEISUNGEN}}“.

Hier ist der Absatz:
<text>“{{ABSATZ}}”</text>

Bitte geben Sie Ihre Umschreibung innerhalb von <rewrite></rewrite>-Tags aus.
Assistant (Prefill)<rewrite>

Wenn Sie diesen Ansatz verwenden, stellen Sie sicher, dass Sie </rewrite> als Stoppsequenz in Ihrem API-Aufruf übergeben. Weitere Informationen finden Sie in unserem Leitfaden zum Vorfüllen von Claudes Antwort.

4. Halten Sie Claude in der Rolle

Siehe Claude in der Rolle halten für Strategien, um sicherzustellen, dass Claude in Rollenspielszenarios in der Rolle bleibt. Beachten Sie, dass Sie für Claude 2.1 (und alle Claude 3-Modelle) auch einen Systemprompt verwenden können, um Claude besser in der Rolle zu halten.

5. Platzieren Sie Dokumente vor Anweisungen

Claudes langes Kontextfenster (100K-200K je nach Modell) macht es hervorragend zum Analysieren langer Dokumente und Textfolgen. Es ist am besten, lange Dokumente und Texte vor Anweisungen oder Benutzereingaben bereitzustellen, da Claude Text am Ende des Prompts besondere Aufmerksamkeit schenkt. Stellen Sie sicher, dass Sie wichtige Anweisungen am Ende Ihrer Prompts hervorheben.

Weitere Informationen finden Sie unter Tipps für lange Kontextfenster.

6. Fügen Sie viele Beispiele hinzu (mindestens 3)

Claude lernt gut durch Beispiele, wie es antworten und in welchem Format es antworten soll. Wir empfehlen, mindestens drei Beispiele zu Ihrem Prompt hinzuzufügen, aber mehr ist besser! Beispiele sind besonders vorteilhaft für Aufgaben, die konsistente und zuverlässige strukturierte Ausgaben erfordern. Einheitliche Beispiele bringen Claude bei, jedes Mal auf die gleiche Weise zu antworten. Erfahren Sie mehr, indem Sie unseren Leitfaden zum Prompting mit Beispielen besuchen.


Funktionen von Legacy-Modellen

Claude gibt Asterisk-Aktionen aus

Wenn ein Legacy Claude-Modell einen Rollenspiel-Prompt oder Systemprompt erhält, illustriert es manchmal gerne seine Antworten kreativ, indem es Regieanweisungen wie *lächelt* oder *winkt* schreibt. Wenn dies unerwünscht ist, können Sie die Ausgabe nachbearbeiten, um Wörter zwischen Asterisken zu entfernen.

Ein Beispiel, wie man dies in Python macht:

Python
import re

text = "Hallo. *Mein Name ist Claude. *Ich bin ein KI-Assistent."
cleaned = re.sub(r'\*.*?\*', '', text)
print(cleaned)
> Hallo. Ich bin ein KI-Assistent.