Back to Blog
Blog
2 min

A IA mente. E mente com confiança.

Os melhores modelos alucinam em 0,7% dos casos. Parece pouco, até saberes que a Deloitte publicou um relatório governamental com fontes académicas inventadas pela IA.

April 5, 2026 By Jorge

Editorial

Useful technology, explained with clarity

Articles for people who want to understand technology with more clarity, less noise, and no performative jargon.

Free resources

Want to start before you buy?

We have short, useful PDFs for people who want to test AI, write better, and gain clarity without jumping straight into a paid product.

View resources View the ebook

Se usas IA para trabalho — e devias — há uma coisa que precisas de compreender: a IA não sabe quando está errada. E o pior é que parece mais confiante exactamente quando está a inventar.

O que são alucinações

Alucinação, no contexto de IA, é quando o modelo gera informação que parece credível mas é completamente inventada. Não é um bug — é uma limitação fundamental da forma como estes modelos funcionam.

Os dados

Segundo o All About AI Hallucination Report de 2026, os melhores modelos (como o Google Gemini-2.0-Flash) têm uma taxa de alucinação de 0,7%. A maioria dos modelos situa-se entre 3% e 18%.

0,7% parece pouco. Até pensares no volume. Se gerares 1.000 respostas por semana, são 7 respostas erradas que parecem certas.

Casos reais

Em Outubro de 2025, a Deloitte publicou um relatório para o governo australiano que continha fontes académicas fabricadas pela IA. O relatório custou 440 mil dólares australianos.

Em Novembro de 2025, um relatório de saúde canadiano no valor de 1,6 milhões de dólares canadianos foi retirado após se descobrirem 4 citações falsas geradas por IA.

Segundo o GetMaxim, 47% dos utilizadores empresariais de IA admitiram ter tomado decisões importantes com base em conteúdo alucinado.

O que isto significa

Não significa que não devemos usar IA. Significa que temos de verificar. Sempre. A IA é uma ferramenta de aceleração, não de substituição do pensamento crítico.

Se não verificas o que a IA te dá antes de usar, não estás a ser eficiente — estás a ser negligente. E a responsabilidade pelo erro é sempre tua, nunca da ferramenta.


Fontes:

  • All About AI, Hallucination Report 2026
  • The Independent, Deloitte AI Report Controversy, Outubro 2025
  • GetMaxim, Enterprise AI Decision Survey

Free resources

If this article was useful, start with the free resources too

It is the simplest way to move from reading to testing: download a resource, try it in your own context, and decide later if you want to go deeper with the ebook.

Blog

More Articles

AI ecosystem

Want to understand AI better and also apply it in real work?

We have free resources, practical ebooks, and direct work with companies on AI, agents, automations, and business-fit platforms.

Olá! Precisas de ajuda?