Questo fenomeno è noto come “allucinazione” e può verificarsi quando il modello cerca di colmare le lacune nelle sue conoscenze o quando l’input è ambiguo.

Esploriamo varie strategie per minimizzare le allucinazioni e migliorare l’accuratezza e l’affidabilità degli output di Claude. Implementando queste tecniche, puoi garantire una migliore esperienza utente e risultati più affidabili.

Permettere a Claude di dire “Non lo so”

Un modo efficace per ridurre le allucinazioni è dare esplicitamente a Claude il permesso di dire “Non lo so”, specialmente quando si pongono domande basate su fatti (noto anche come “dare a Claude una via d’uscita”). Questo permette a Claude di riconoscere i suoi limiti ed evitare di generare informazioni errate.

Ecco un esempio di prompt che incoraggia Claude ad ammettere quando non ha la risposta:

Contenuto
SystemPer favore, rispondi alla seguente domanda al meglio delle tue capacità. Se non sei sicuro o non hai abbastanza informazioni per fornire una risposta sicura, dì semplicemente “Non lo so” o “Non sono sicuro”.
UserQual è la capitale del Burkina Faso?

Dando a Claude una esplicita “via d’uscita”, puoi ridurre la probabilità che generi informazioni inesatte.

Promemoria

Sebbene Claude abbia letto molto su Internet e conosca cose sul mondo reale, non ha accesso a Internet. Claude è stato addestrato su dati che possono essere vecchi di oltre un anno. Inoltre, non sa nulla sugli eventi attuali.


Chiedere a Claude citazioni dirette

Quando si lavora con documenti lunghi, chiedere a Claude di estrarre citazioni testuali rilevanti per una domanda specifica può aiutare a minimizzare le allucinazioni. Questo approccio è più efficace per documenti più lunghi (>300 parole) e potrebbe essere meno affidabile per quelli più brevi.

Ecco un esempio di prompt che richiede citazioni dirette:

RuoloContenuto
UserConsidera il seguente documento:
\
{{DOCUMENT}}
\

Per favore, estrai citazioni testuali da questo documento che sono rilevanti per la domanda <question>{{QUESTION}}</question>. Se non ci sono citazioni in questo documento che sembrano rilevanti per questa domanda, scrivi “Non riesco a trovare citazioni rilevanti”.

Richiedendo citazioni dirette, puoi verificare più facilmente l’accuratezza delle informazioni fornite da Claude (e inoltre far sì che Claude usi le citazioni per le citazioni inline). Puoi anche eseguire il matching delle stringhe o calcolare la percentuale di sovrapposizione tra le citazioni e il documento originale per assicurarti che il modello non stia allucinando.

Nota sull’accuratezza dell’estrazione delle citazioni

Potresti non ottenere una riproduzione al 100% del testo del documento originale quando chiedi le citazioni, ma vuoi che la fedeltà sia alta. Ad esempio, il modello potrebbe aggiungere “[sic.]” se c’è un errore nel documento, o aggiungere contesto alle citazioni come lui [Brian] le [Diana] ha chiesto di cenare, il che va bene purché il contenuto aggiunto sia accurato.

Se pensi che Claude stia aggiungendo contenuti inesatti, potresti voler filtrare per un grado molto alto di sovrapposizione e rendere le istruzioni più rigorose, ad esempio aggiungendo qualcosa come Assicurati che le tue citazioni siano prese direttamente alla lettera dal documento. Non aggiungere alcun contenuto aggiuntivo come disambiguazioni o commenti.

Puoi inoltre utilizzare le citazioni dirette che Claude estrae dicendo a Claude di rispondere solo se ci sono informazioni rilevanti trovate in quelle citazioni, o di basare la sua risposta solo sulle informazioni trovate nelle citazioni estratte. Vedi questo esempio di prompt basato sulle citazioni dalla nostra libreria di prompt:

Contenuto
SystemSei un assistente di ricerca esperto. Ecco un documento su cui risponderai alle domande:
\
{{DOCUMENT}}
\