Se usas IA para trabalho — e devias — há uma coisa que precisas de compreender: a IA não sabe quando está errada. E o pior é que parece mais confiante exactamente quando está a inventar.
O que são alucinações
Alucinação, no contexto de IA, é quando o modelo gera informação que parece credível mas é completamente inventada. Não é um bug — é uma limitação fundamental da forma como estes modelos funcionam.
Os dados
Segundo o All About AI Hallucination Report de 2026, os melhores modelos (como o Google Gemini-2.0-Flash) têm uma taxa de alucinação de 0,7%. A maioria dos modelos situa-se entre 3% e 18%.
0,7% parece pouco. Até pensares no volume. Se gerares 1.000 respostas por semana, são 7 respostas erradas que parecem certas.
Casos reais
Em Outubro de 2025, a Deloitte publicou um relatório para o governo australiano que continha fontes académicas fabricadas pela IA. O relatório custou 440 mil dólares australianos.
Em Novembro de 2025, um relatório de saúde canadiano no valor de 1,6 milhões de dólares canadianos foi retirado após se descobrirem 4 citações falsas geradas por IA.
Segundo o GetMaxim, 47% dos utilizadores empresariais de IA admitiram ter tomado decisões importantes com base em conteúdo alucinado.
O que isto significa
Não significa que não devemos usar IA. Significa que temos de verificar. Sempre. A IA é uma ferramenta de aceleração, não de substituição do pensamento crítico.
Se não verificas o que a IA te dá antes de usar, não estás a ser eficiente — estás a ser negligente. E a responsabilidade pelo erro é sempre tua, nunca da ferramenta.
Fontes:
- All About AI, Hallucination Report 2026
- The Independent, Deloitte AI Report Controversy, Outubro 2025
- GetMaxim, Enterprise AI Decision Survey
Recursos gratuitos
Se este artigo te foi útil, começa também pelos recursos gratuitos
É a forma mais simples de passar da leitura à experimentação: descarregas um recurso, testas no teu contexto e decides depois se queres aprofundar com o ebook.