Back to Blog
Blog
2 min

A IA no recrutamento tem um problema de viés que ninguém quer discutir

61% das ferramentas de recrutamento com IA replicam padrões discriminatórios. Stanford provou que sistemas de triagem favorecem homens mais velhos. Colorado vai legislar em Junho de 2026.

April 13, 2026 By Jorge

Editorial

Useful technology, explained with clarity

Articles for people who want to understand technology with more clarity, less noise, and no performative jargon.

Free resources

Want to start before you buy?

We have short, useful PDFs for people who want to test AI, write better, and gain clarity without jumping straight into a paid product.

View resources View the ebook

A IA promete tornar o recrutamento mais justo. Na prática, está a fazer o oposto.

O que dizem os estudos

Segundo a JobSpikr, 61% das ferramentas de IA para recrutamento foram treinadas com dados que replicam padrões discriminatórios. Em Outubro de 2025, uma investigação de Stanford demonstrou que sistemas de triagem de CVs por IA classificavam homens mais velhos acima de mulheres e candidatos jovens — com currículos idênticos.

Um estudo da VoxDev, publicado em Maio de 2025, encontrou que ferramentas de IA favoreciam sistematicamente candidatas mulheres em detrimento de homens negros com qualificações idênticas.

A HireVue, uma das plataformas de vídeo-entrevista mais usadas, foi criticada por viés contra falantes não-nativos e candidatos neurodivergentes.

A adopção continua

Apesar disto, 43% das organizações usam IA para recursos humanos em 2025 — um aumento face aos 26% de 2024. A pressão para automatizar é enorme, e a tentação de delegar decisões complexas a um algoritmo é compreensível.

A resposta regulatória

O Colorado AI Act, que entra em vigor em Junho de 2026, vai exigir que as empresas tomem medidas razoáveis para prevenir discriminação algorítmica. É o primeiro estado americano a legislar especificamente sobre isto.

A minha opinião

O problema não é usar IA no recrutamento. É usá-la sem supervisão, sem auditoria e sem entender as suas limitações. Um algoritmo treinado com dados historicamente enviesados vai produzir resultados enviesados. Não é magia — é matemática.

Se usas IA para filtrar candidatos, tens a obrigação de testar se o sistema discrimina. Porque "o algoritmo decidiu" não é defesa — é negligência.


Fontes:

  • JobSpikr, AI Recruitment Bias Analysis
  • Stanford University, AI Resume Screening Research, Outubro 2025
  • VoxDev, Algorithmic Discrimination in Hiring, Maio 2025
  • NovoResume, AI Hiring Statistics 2025
  • Colorado AI Act, Junho 2026

Free resources

If this article was useful, start with the free resources too

It is the simplest way to move from reading to testing: download a resource, try it in your own context, and decide later if you want to go deeper with the ebook.

Blog

More Articles

AI ecosystem

Want to understand AI better and also apply it in real work?

We have free resources, practical ebooks, and direct work with companies on AI, agents, automations, and business-fit platforms.

Olá! Precisas de ajuda?