Voltar ao blog
Blog
2 min

A IA no recrutamento tem um problema de viés que ninguém quer discutir

61% das ferramentas de recrutamento com IA replicam padrões discriminatórios. Stanford provou que sistemas de triagem favorecem homens mais velhos. Colorado vai legislar em Junho de 2026.

13 de abril de 2026 Por Jorge

Editorial

Tecnologia útil, explicada sem barulho

Artigos para quem quer perceber tecnologia com mais clareza, sem ruído e sem floreados desnecessários.

Recursos gratuitos

Queres começar antes de comprar?

Temos PDFs curtos e úteis para quem quer experimentar IA, escrever melhor e ganhar clareza sem entrar logo num produto pago.

Ver recursos Ver o ebook

A IA promete tornar o recrutamento mais justo. Na prática, está a fazer o oposto.

O que dizem os estudos

Segundo a JobSpikr, 61% das ferramentas de IA para recrutamento foram treinadas com dados que replicam padrões discriminatórios. Em Outubro de 2025, uma investigação de Stanford demonstrou que sistemas de triagem de CVs por IA classificavam homens mais velhos acima de mulheres e candidatos jovens — com currículos idênticos.

Um estudo da VoxDev, publicado em Maio de 2025, encontrou que ferramentas de IA favoreciam sistematicamente candidatas mulheres em detrimento de homens negros com qualificações idênticas.

A HireVue, uma das plataformas de vídeo-entrevista mais usadas, foi criticada por viés contra falantes não-nativos e candidatos neurodivergentes.

A adopção continua

Apesar disto, 43% das organizações usam IA para recursos humanos em 2025 — um aumento face aos 26% de 2024. A pressão para automatizar é enorme, e a tentação de delegar decisões complexas a um algoritmo é compreensível.

A resposta regulatória

O Colorado AI Act, que entra em vigor em Junho de 2026, vai exigir que as empresas tomem medidas razoáveis para prevenir discriminação algorítmica. É o primeiro estado americano a legislar especificamente sobre isto.

A minha opinião

O problema não é usar IA no recrutamento. É usá-la sem supervisão, sem auditoria e sem entender as suas limitações. Um algoritmo treinado com dados historicamente enviesados vai produzir resultados enviesados. Não é magia — é matemática.

Se usas IA para filtrar candidatos, tens a obrigação de testar se o sistema discrimina. Porque "o algoritmo decidiu" não é defesa — é negligência.


Fontes:

  • JobSpikr, AI Recruitment Bias Analysis
  • Stanford University, AI Resume Screening Research, Outubro 2025
  • VoxDev, Algorithmic Discrimination in Hiring, Maio 2025
  • NovoResume, AI Hiring Statistics 2025
  • Colorado AI Act, Junho 2026

Recursos gratuitos

Se este artigo te foi útil, começa também pelos recursos gratuitos

É a forma mais simples de passar da leitura à experimentação: descarregas um recurso, testas no teu contexto e decides depois se queres aprofundar com o ebook.

Blog

Mais artigos

Ecossistema de IA

Queres perceber melhor a IA e ao mesmo tempo aplicá-la no trabalho real?

Temos recursos gratuitos, ebooks práticos e trabalho direto com empresas em IA, agentes, automações e plataformas ajustadas ao negócio.

Olá! Precisas de ajuda?