Esse fenômeno é conhecido como “alucinação” e pode ocorrer quando o modelo tenta preencher lacunas em seu conhecimento ou quando a entrada é ambígua.

Vamos explorar várias estratégias para minimizar alucinações e melhorar a precisão e confiabilidade das saídas do Claude. Ao implementar essas técnicas, você pode garantir uma melhor experiência do usuário e resultados mais confiáveis.

Permitir que o Claude diga “Eu não sei”

Uma maneira eficaz de reduzir alucinações é dar permissão explícita ao Claude para dizer “Eu não sei”, especialmente ao fazer perguntas baseadas em fatos (também conhecido como “dar uma saída ao Claude”). Isso permite que o Claude reconheça suas limitações e evite gerar informações incorretas.

Aqui está um exemplo de prompt que incentiva o Claude a admitir quando não tem a resposta:

Conteúdo
SystemPor favor, responda à seguinte pergunta da melhor forma possível. Se você não tiver certeza ou não tiver informações suficientes para fornecer uma resposta confiante, simplesmente diga “Eu não sei” ou “Não tenho certeza.”
UserQual é a capital de Burkina Faso?

Ao dar ao Claude uma “saída” explícita, você pode reduzir a probabilidade de ele gerar informações imprecisas.

Lembrete

Embora o Claude tenha lido muito na internet e saiba coisas sobre o mundo real, ele não tem acesso à internet. O Claude foi treinado em dados que podem estar desatualizados há mais de um ano. Ele também não sabe nada sobre eventos atuais.


Peça citações diretas ao Claude

Ao trabalhar com documentos longos, pedir ao Claude para extrair citações palavra por palavra relevantes para uma pergunta específica pode ajudar a minimizar alucinações. Essa abordagem é mais eficaz para documentos mais longos (>300 palavras) e pode ser menos confiável para documentos mais curtos.

Aqui está um exemplo de prompt que solicita citações diretas:

FunçãoConteúdo
UserConsidere o seguinte documento:
\
{{DOCUMENT}}
\