Pesquisa publicada na Nature mostra que mulheres aparecem como mais jovens e menos experientes, enquanto homens aparecem mais velhos e qualificados em resultados de IA
Um estudo publicado pela revista Nature apresentou evidências robustas de que os principais algoritmos de inteligência artificial, incluindo o ChatGPT e o mecanismo de busca do Google, reforçam estereótipos de gênero e idade. A pesquisa, conduzida por cientistas das universidades de Stanford, Berkeley e Oxford, mostra que mulheres são consistentemente representadas como mais jovens e menos experientes do que homens, mesmo em contextos profissionais de alto prestígio.
Os pesquisadores analisaram mais de 1,4 milhão de imagens e vídeos em plataformas como Google, YouTube, Wikipedia, IMDb e Flickr, além de textos de nove modelos de linguagem amplamente utilizados — entre eles, o GPT-2 e o ChatGPT. Em todos os casos, mulheres aparecem associadas à juventude, enquanto homens são retratados como mais velhos, experientes e ocupando posições de maior status e remuneração.
Mulheres retratadas como mais jovens — e menos experientes
O levantamento identificou um padrão claro: mulheres são consistentemente retratadas como mais jovens do que homens, independentemente da profissão ou contexto social. Em plataformas como Google, Wikipedia, IMDb, Flickr e YouTube, a diferença média de idade variou de 3 a 6,5 anos. Nos dados do IMDb, por exemplo, as mulheres aparecem 6,5 anos mais jovens que os homens; no Google, 5,3 anos; e na Wikipedia, 3,2 anos. Mesmo quando a idade real dos indivíduos era conhecida, as representações digitais distorciam a realidade.
Segundo os autores, “a internet constrói um mundo em que as mulheres são sempre jovens e os homens sempre maduros — uma distorção cultural que reforça desigualdades históricas entre gênero e idade”. O estudo também demonstrou que quanto mais prestigiada e bem remunerada é uma ocupação, maior é a diferença etária digital entre homens e mulheres.
A comparação com dados oficiais do Censo dos Estados Unidos confirmou a distorção: enquanto as estatísticas mostram idades equivalentes entre trabalhadores e trabalhadoras, o conteúdo online retrata mulheres mais novas e homens mais velhos, sobretudo em cargos de chefia, gestão e tecnologia.
Google e ChatGPT ampliam o viés
Para medir o impacto dos algoritmos na percepção social, os pesquisadores realizaram um experimento com 459 participantes recrutados nos Estados Unidos. Ao buscar imagens de profissões no Google, os voluntários tenderam a atribuir idades menores quando viam mulheres e maiores quando viam homens.
A diferença foi de 5,46 anos em média nas estimativas dos usuários, o que, segundo os cientistas, prova que o sistema de busca altera a percepção social da idade e da competência profissional.
Já no caso do ChatGPT, os pesquisadores geraram e avaliaram 40 mil currículos fictícios com nomes femininos e masculinos equivalentes em popularidade e origem étnica. O resultado foi que:
- Currículos de mulheres apresentaram idade média 1,6 ano menor e 0,9 ano a menos de experiência profissional.
- Homens mais velhos receberam notas mais altas de qualidade e competência, enquanto mulheres mais jovens foram consideradas menos qualificadas para cargos de liderança.
- O modelo demonstrou viés sistemático ao associar maturidade e mérito à masculinidade, mesmo sem instruções explícitas de gênero
Desigualdade algorítmica e risco de retrocesso
Os autores destacam que esses padrões reforçam o chamado “etário de gênero”, um duplo preconceito que penaliza mulheres à medida que envelhecem e, ao mesmo tempo, valoriza homens mais velhos. “O resultado é um ciclo de desvantagem: mulheres são contratadas jovens, mas excluídas de posições de poder à medida que envelhecem, enquanto os homens continuam ascendendo”, conclui o artigo.
Além de distorcer a realidade social, o viés algorítmico tem potencial de influenciar decisões de contratação, anúncios de emprego e políticas corporativas, sobretudo porque ferramentas como o ChatGPT e o Google são usadas por centenas de milhões de pessoas e empresas em todo o mundo.
“Esses sistemas não apenas refletem, mas amplificam desigualdades ao transformar vieses sociais em estatísticas automatizadas”, alertam os pesquisadores, que pedem transparência sobre os dados de treinamento e mecanismos de correção para mitigar o impacto dessas distorções.