Pesquisa da Nature mostra que IA, buscadores e currículos automatizados reproduzem preconceitos históricos contra mulheres maduras no mercado de trabalho
A inteligência artificial, cada vez mais presente em processos seletivos, buscas on-line e produção de conteúdo, não apenas reflete desigualdades históricas como também as aprofunda. É o que revela o estudo “Distorção de idade e gênero em mídias online e grandes modelos linguísticos“, publicado pela revista científica Nature, mostrando que mulheres — especialmente as mais velhas — são sistematicamente retratadas como mais jovens e menos experientes em ambientes digitais.
A pesquisa analisou mais de 1,4 milhão de imagens e vídeos, além de bilhões de palavras usadas no treinamento de modelos de linguagem, e concluiu que plataformas digitais e sistemas de IA distorcem a realidade do mundo do trabalho, favorecendo homens maduros em detrimento das mulheres.
Estereótipos digitais não refletem a realidade
Segundo os pesquisadores Douglas Guilbeault (Stanford), Solène Delecourt (Haas School of Business) e Bhargav Desikan (Oxford), mulheres aparecem como mais jovens que homens em praticamente todas as plataformas analisadas — Google, Wikipédia, Flickr, IMDb e YouTube — inclusive em ocupações de maior prestígio e remuneração.
Esse padrão, porém, não condiz com o que mostram os dados reais. Informações do Censo dos Estados Unidos demonstram que não há diferenças significativas de idade entre homens e mulheres na força de trabalho — e em algumas áreas elas são até mais velhas. Ainda assim, o ambiente digital insiste em associar experiência, autoridade e senioridade ao masculino.
Essa é uma forma de ageísmo de gênero — discriminação combinada por idade e gênero — que afeta principalmente mulheres maduras.
ChatGPT e currículos: o viés automatizado
O estudo também investigou como a IA generativa replica esses estereótipos. Os pesquisadores pediram ao ChatGPT que criasse mais de 34 mil currículos fictícios. O padrão foi claro: currículos com nomes femininos descreviam mulheres como mais jovens e com menos experiência; currículos masculinos apresentavam homens mais velhos e com carreiras mais longas; na avaliação dos próprios currículos, o ChatGPT atribuiu notas mais altas a homens mais velhos, mesmo quando os dados eram equivalentes.
Douglas Guilbeault resume o problema: “Dentro desse processo, há inúmeras oportunidades para que estereótipos se infiltrem.”