Questa guida ha lo scopo di fornire suggerimenti sull’utilizzo dei nostri modelli legacy, nonché di fornire consigli sulla migrazione dei tuoi prompt da altri modelli come GPT di OpenAI ai nostri modelli legacy (per la migrazione ai nostri modelli di frontiera, consulta la nostra guida alla migrazione principale).


Modelli legacy di Anthropic

I nostri modelli legacy includono Claude Instant 1.2, Claude 2.0 e Claude 2.1. Di questi modelli legacy, Claude 2.1 è l’unico modello con supporto per i prompt di sistema (tutti i modelli Claude 3 hanno il pieno supporto per i prompt di sistema).

Questi modelli non hanno le capacità visive della famiglia Claude 3 e sono generalmente meno performanti e intelligenti. Tuttavia, possono ancora essere utili per alcune applicazioni che non richiedono le funzionalità avanzate dei modelli Claude 3. Consulta la pagina panoramica dei modelli per un riepilogo completo.

Si prega di notare che i modelli legacy potrebbero essere deprecati nel tempo e avere meno supporto rispetto ai modelli più recenti, quindi consigliamo di pianificare una migrazione alla famiglia Claude 3, se possibile.


Migrazione dei prompt da OpenAI/ChatGPT ai modelli legacy di Claude

Se stai passando dai modelli GPT di OpenAI o da ChatGPT alla famiglia di modelli Claude 2 o più vecchi, probabilmente dovrai apportare alcune modifiche ai tuoi prompt per garantire prestazioni ottimali. Mentre la famiglia Claude 3 è molto più orientabile e può generalmente gestire le migrazioni dei prompt senza la necessità di modifiche, i modelli legacy potrebbero richiedere ulteriori modifiche ai prompt. (Detto questo, sebbene non sia necessario, queste stesse tecniche e altre strategie di ingegneria dei prompt potrebbero comunque essere utili per migliorare le prestazioni del modello Claude 3 oltre la sua baseline.)

Ecco alcuni suggerimenti per aiutarti a convertire i tuoi prompt GPT per ottenere risultati migliori con i modelli legacy di Claude:

1. Aggiungi tag XML

I tag XML (ad esempio, <tag></tag>) possono essere utilizzati per delimitare diverse sottosezioni di un prompt, consentendo a Claude di suddividere il prompt in parti distinte. Ad esempio, per aggiungere il testo di un documento al tuo prompt, racchiudi il documento tra i tag <doc></doc>:

XML
<doc>
Un pezzo di testo...
</doc>

Claude può anche riconoscere altri formati strutturati come JSON e Markdown, ma l’XML tende a portare alle migliori prestazioni nella maggior parte dei casi a causa dell’esposizione durante l’addestramento. Puoi usare qualsiasi nome di tag desideri, purché seguano il formato <> e </> (anche se consigliamo di rendere i nomi dei tag in qualche modo sensati e semanticamente collegati al contenuto che stanno delimitando). Per ulteriori informazioni, consulta la nostra guida sull’utilizzo dei tag XML.

2. Fornisci istruzioni chiare e non ambigue

Claude risponde bene a istruzioni chiare e dirette. Invece di lasciare spazio a ipotesi implicite, istruisci esplicitamente Claude con il maggior dettaglio possibile all’interno del tuo prompt per assicurarti che Claude possa eseguire completamente il compito in base alle tue specifiche. Ad esempio, invece di:

RuoloContenuto
UserUsa il contesto e la domanda per creare una risposta.

Prova:

RuoloContenuto
UserPer favore, leggi la domanda dell’utente fornita all’interno dei tag <question>. Quindi, utilizzando solo le informazioni contestuali fornite sopra all’interno dei tag <context>, genera una risposta alla domanda e restituiscila all’interno dei tag <answer>.

Quando crei prompt per Claude, adotta la mentalità che Claude sia nuovo al compito e non abbia un contesto precedente diverso da quello dichiarato nel prompt. Fornire spiegazioni dettagliate e non ambigue aiuterà Claude a generare risposte migliori. Per ulteriori informazioni, consulta sii chiaro e diretto.

3. Precompila la risposta di Claude

Puoi estendere il prompt di Claude per precompilare il turno dell’Assistant. Claude continuerà la conversazione dall’ultimo token nel messaggio dell’Assistant. Questo può aiutare a evitare le tendenze chiacchierone di Claude e garantire che fornisca il formato di output desiderato. Ad esempio:

RuoloContenuto
UserVorrei che tu riscrivessi il seguente paragrafo usando le seguenti istruzioni: ”
{{ISTRUZIONI}}“.

Ecco il paragrafo:
<text>“{{PARAGRAFO}}”</text>

Per favore, restituisci la tua riscrittura all’interno dei tag <rewrite></rewrite>.
Assistant (Prefill)<rewrite>

Se usi questo approccio, assicurati di passare </rewrite> come sequenza di stop nella tua chiamata API. Per ulteriori informazioni, consulta la nostra guida sulla precompilazione della risposta di Claude.

4. Mantieni Claude nel personaggio

Consulta mantieni Claude nel personaggio per le strategie per assicurarti che Claude mantenga il personaggio negli scenari di gioco di ruolo. Nota che per Claude 2.1 (e tutti i modelli Claude 3), puoi anche utilizzare un prompt di sistema per aiutare Claude a rimanere meglio nel personaggio.

5. Posiziona i documenti prima delle istruzioni

La lunga finestra di contesto di Claude (100K-200K a seconda del modello) lo rende ottimo nell’analizzare lunghi documenti e stringhe di testo. È meglio fornire lunghi documenti e testi prima delle istruzioni o dell’input dell’utente, poiché Claude presta particolare attenzione al testo vicino alla fine del prompt. Assicurati di enfatizzare le istruzioni importanti verso la fine dei tuoi prompt.

Consulta suggerimenti per la finestra di contesto lungo per ulteriori informazioni.

6. Aggiungi molti esempi (almeno 3)

Claude impara bene attraverso esempi su come dovrebbe rispondere e in quale formato. Consigliamo di aggiungere almeno tre esempi al tuo prompt, ma più è meglio! Gli esempi sono particolarmente vantaggiosi per le attività che richiedono output strutturati coerenti e affidabili. Esempi uniformi insegneranno a Claude a rispondere sempre allo stesso modo ogni volta. Per saperne di più, visita la nostra guida al prompting con esempi.


Funzionalità dei modelli legacy

Claude restituisce azioni con asterischi

Quando gli viene fornito un prompt di gioco di ruolo o un prompt di sistema, i modelli legacy di Claude a volte amano illustrare le loro risposte in modo creativo scrivendo indicazioni di scena come *sorride* o *saluta*. Se questo non è desiderato, puoi post-elaborare l’output per rimuovere le parole tra gli asterischi.

Un esempio di come farlo in Python:

Python
import re

text = "Ciao. *Mi chiamo Claude. *Sono un assistente AI."
cleaned = re.sub(r'\*.*?\*', '', text)
print(cleaned)
> Ciao. Sono un assistente AI.