Se usas IA para trabalho — e devias — há uma coisa que precisas de compreender: a IA não sabe quando está errada. E o pior é que parece mais confiante exactamente quando está a inventar.
O que são alucinações
Alucinação, no contexto de IA, é quando o modelo gera informação que parece credível mas é completamente inventada. Não é um bug — é uma limitação fundamental da forma como estes modelos funcionam.
Os dados
Segundo o All About AI Hallucination Report de 2026, os melhores modelos (como o Google Gemini-2.0-Flash) têm uma taxa de alucinação de 0,7%. A maioria dos modelos situa-se entre 3% e 18%.
0,7% parece pouco. Até pensares no volume. Se gerares 1.000 respostas por semana, são 7 respostas erradas que parecem certas.
Casos reais
Em Outubro de 2025, a Deloitte publicou um relatório para o governo australiano que continha fontes académicas fabricadas pela IA. O relatório custou 440 mil dólares australianos.
Em Novembro de 2025, um relatório de saúde canadiano no valor de 1,6 milhões de dólares canadianos foi retirado após se descobrirem 4 citações falsas geradas por IA.
Segundo o GetMaxim, 47% dos utilizadores empresariais de IA admitiram ter tomado decisões importantes com base em conteúdo alucinado.
O que isto significa
Não significa que não devemos usar IA. Significa que temos de verificar. Sempre. A IA é uma ferramenta de aceleração, não de substituição do pensamento crítico.
Se não verificas o que a IA te dá antes de usar, não estás a ser eficiente — estás a ser negligente. E a responsabilidade pelo erro é sempre tua, nunca da ferramenta.
Fontes:
- All About AI, Hallucination Report 2026
- The Independent, Deloitte AI Report Controversy, Outubro 2025
- GetMaxim, Enterprise AI Decision Survey
Free resources
If this article was useful, start with the free resources too
It is the simplest way to move from reading to testing: download a resource, try it in your own context, and decide later if you want to go deeper with the ebook.