No Brasil, desenvolvedores e ativistas criam IAs inclusivas para enfrentar preconceitos, monitorar políticas públicas e defender direitos
- No Brasil, IAs feministas e de direitos humanos surgem como resposta ao aumento da violência digital e política contra mulheres e pessoas LGBTQIAPN+;
- Ferramentas como Quitér.IA, Sentinela e Radar Social usam IA para monitorar discursos de ódio, proteger vítimas e fortalecer a participação democrática;
- Mais que moderação, essas tecnologias produzem evidências, ampliam acesso à informação e enfrentam preconceitos estruturais nos espaços digitais e institucionais.
Enquanto no Vale do Silício as big techs lançam modelos de inteligência artificial (IA) cada vez mais potentes — mas frequentemente enviesados —, no Brasil, desenvolvedores, jornalistas e ativistas apostam numa IA politizada. Em vez de consumir algoritmos que replicam preconceitos raciais e de gênero, estas iniciativas estão treinando suas próprias máquinas com datasets inclusivos, alinhados à defesa dos direitos humanos e à justiça social.
O movimento surge em resposta a um cenário alarmante de violência contra as mulheres no ambiente digital. Segundo a pesquisa de 2025 do DataSenado em parceria com o Instituto Nexus, cerca de 8,8 milhões de brasileiras afirmaram ter sofrido algum tipo de violência digital nos últimos 12 meses, incluindo ameaças, perseguição, difamação e discursos de ódio nas redes sociais.
Essa violência também é política e de gênero no ambiente digital. A pesquisa do Instituto Marielle Franco, de 2025, mostra que mulheres que atuam na política e na defesa de direitos — especialmente mulheres negras e LGBTQIAPN+ — são alvo recorrente de ataques digitais, que incluem campanhas de difamação, intimidação e tentativas de silenciamento. O levantamento evidencia que essa violência não ocorre de forma isolada, mas como parte de ações coordenadas nas redes, afetando diretamente a participação das mulheres na vida pública.
No contra-ataque, as organizações feministas e de direitos humanos passam a utilizar a capacidade de processamento da inteligência artificial para detectar violência política e de gênero, acolher vítimas e produzir evidências sobre padrões de ataques e de desinformação. Mais do que moderar conteúdos, essas tecnologias buscam fortalecer redes de proteção, ampliar o acesso à informação e enfrentar o apagamento histórico de mulheres e pessoas LGBTQIAPN+ nos espaços digitais e institucionais.