Imagine pedir uma informação para uma ferramenta de inteligência artificial e ela responder com confiança… só que está completamente errada.
Não por má intenção, mas porque “alucinou”. Sim, alucinações não são exclusividade do cérebro humano, o termo também é usado para descrever respostas inventadas por sistemas de IA generativa como ChatGPT, Gemini ou Bard.
Mas o que isso significa?
O que são “alucinações” em IA?
Diferente das alucinações humanas, que envolvem ver, ouvir ou sentir algo que não existe, as alucinações em IA são erros textuais que parecem verdadeiros, são informações fabricadas pelo modelo quando ele tenta “preencher lacunas” com base em padrões de linguagem.
As “alucinações” mais comuns são o uso de citações que nunca existiram; de dados estatísticos sem fonte confiável; de títulos de livros atribuídos a autores errados; de fatos plausíveis, mas sem qualquer base real.
“Esses erros acontecem porque a IA não entende o que está dizendo, ela apenas prevê qual palavra tem mais chance de vir a seguir com base em dados anteriores”, explica a editora-chefe da Atena Editora, Antonella Carvalho de Oliveira.
Por que a IA “alucina”?
Os modelos de linguagem funcionam por probabilidade estatística, não por conhecimento factual, eles não têm consciência, nem verificam fontes em tempo real (a menos que conectados a bancos de dados atualizados).
Por isso eles não sabem identificar alguns erros ou verificar informações mais subjetivas ou complexas, principalmente em áreas mais sensíveis como pesquisa acadêmica, medicina, direito ou jornalismo, e isso é um risco grave.
Dicas para corrigir (ou evitar) alucinações da IA?:
– Sempre revise manualmente o conteúdo gerado, a IA é um assistente, não um autor final;
– Use fontes confiáveis para checagem, como dados oficiais, artigos científicos ou veículos jornalísticos de referência;
– Evite usar IA para citar autores, livros e dados exatos sem conferência;
– Use ferramentas com acesso a dados atualizados, quando disponíveis, ou peça que ela cite as fonte e verifique-as;
– Se possível, combine IA com supervisão especializada, principalmente em áreas técnicas.
A responsabilidade ainda é humana
“O enorme crescimento dessas ferramentas não pode deixar de lado a criticidade, o usuário precisa saber que a IA pode errar, e erra com frequência em contextos mais técnicos”.
“Combinando inteligência artificial com revisão humana, conseguimos um conteúdo mais ágil e, ao mesmo tempo, responsável”, alerta Antonella Carvalho de Oliveira.