Este fenómeno se conoce como “alucinación” y puede ocurrir cuando el modelo intenta llenar vacíos en su conocimiento o cuando la entrada es ambigua.

Exploremos varias estrategias para minimizar las alucinaciones y mejorar la precisión y confiabilidad de las salidas de Claude. Al implementar estas técnicas, puedes garantizar una mejor experiencia de usuario y resultados más confiables.

Permitir que Claude diga “No lo sé”

Una forma efectiva de reducir las alucinaciones es dar permiso explícito a Claude para decir “No lo sé”, especialmente al hacer preguntas basadas en hechos (también conocido como “darle una salida a Claude”). Esto le permite a Claude reconocer sus limitaciones y evitar generar información incorrecta.

Aquí hay un ejemplo de mensaje que alienta a Claude a admitir cuando no tiene la respuesta:

Contenido
SystemPor favor, responde la siguiente pregunta lo mejor que puedas. Si no estás seguro o no tienes suficiente información para proporcionar una respuesta confiable, simplemente di “No lo sé” o “No estoy seguro”.
User¿Cuál es la capital de Burkina Faso?

Al darle a Claude una “salida” explícita, puedes reducir la probabilidad de que genere información inexacta.

Recordatorio

Aunque Claude ha leído mucho en Internet y sabe cosas sobre el mundo real, no tiene acceso a Internet. Claude fue entrenado con datos que pueden tener más de un año de antigüedad. Tampoco sabe nada sobre eventos actuales.


Pedir a Claude citas directas

Al trabajar con documentos largos, pedirle a Claude que extraiga citas textuales relevantes para una pregunta específica puede ayudar a minimizar las alucinaciones. Este enfoque es más efectivo para documentos más largos (>300 palabras) y puede ser menos confiable para los más cortos.

Aquí hay un ejemplo de mensaje que solicita citas directas:

RolContenido
UserConsidera el siguiente documento:
\
{{DOCUMENT}}
\