Sistema baseado em inteligência artificial examina mais de três milhões de livros para analisar a linguagem usada para descrever homens e mulheres
(El País, 30/08/2019 – acesse no site de origem)
Foram 11 bilhões de palavras examinadas em mais de três milhões de livros que mostraram que a linguagem usada em romances, durante mais de cem anos, é sexista. Um grupo de cientistas da Universidade de Copenhague realizou um descomunal trabalho de campo no qual analisou de forma maciça textos escritos em inglês em livros publicados entre 1900 e 2008. O que foi analisado exatamente? A correlação entre gêneros e qualificativos em busca de um padrão: o tratamento diferente entre mulheres e homens em textos escritos.
O estudo utilizou um sistema baseado em inteligência artificial e aprendizagem de máquina para analisar palavra por palavra as obras publicadas nesse período e concluir que o tratamento dado a mulheres e homens é abertamente sexista. A análise conclui que as mulheres recebem apenas qualificativos relacionados ao seu físico, enquanto para os homens as referências se concentram principalmente em sua força e personalidade. Os atributos negativos relacionados ao físico e à aparência nestas obras são observados até cinco vezes mais nas mulheres do que nos homens. Entre as palavras mais usadas para descrever as mulheres estão “bonita”, “encantadora”, “linda”, “sexy”, “solteira”, “fértil” ou “sofisticada”. Para eles, os adjetivos mais frequentes são “justo”, “pacífico”, “racional”, “honrado”, “brutal” e “corajoso”.
“Esse sistema pode reduzir o sexismo em mais áreas”
“Não somos os primeiros a confirmar o sexismo da linguagem”, explica Alexander Hoyle, um dos coautores do estudo, ao EL PAÍS, “mas os sistemas computacionais nos permitem corroborar essas suspeitas em grande escala”. O cientista descreve o modelo computacional criado como “leve”, embora reconheça que um esforço considerável foi feito para “estabelecer as diferentes hipóteses e criar os modelos”.
O estudo, no entanto, não serve apenas como confirmação do sexismo aplicado maciçamente à linguagem, mas para “identificar e revelar novas áreas em que está sendo usado”, explica Hoyle. O autor se refere ao uso desses mecanismos em outras áreas de forma automática e assim alertar para essa manipulação da linguagem: “Por exemplo, o aplicativo Textio pode alertar se uma vaga de emprego prioriza candidatos masculinos”, destaca o norte-americano.
O estudo em grande escala se refere a livros publicados há mais de cem anos e até 2008. Por que é relevante, então, agora? Se poderia pensar que as obras contemporâneas são mais respeitosas no tratamento dos gêneros, mas, na verdade, essa realidade não resolveria um grave problema: os algoritmos aprendem com os textos já escritos e publicados, assim um sistema pode considerar bom um padrão que se repete várias vezes (por exemplo, aqueles relacionados à beleza e à mulher) e assimilá-los em sua execução atual.
Essa realidade estaria refletida nos atuais sistemas baseados em inteligência artificial, que assentam sua estrutura em padrões contaminados por esse sexismo. “Os algoritmos se baseiam em padrões”, explica Isabelle Augenstein, professora de ciência da computação e coautora do estudo. “Se esses padrões se baseiam no uso sexista da linguagem, o resultado estará contaminado”, acrescenta. No entanto, o modelo apresentado tem suas limitações (não é capaz de discriminar entre tipos de livros) e a equipe continua trabalhando para aperfeiçoá-lo.
Por José Mendiola Zuriarrain