Discriminação contra LGBT+ persiste em algoritmos 35 anos após despatologização
Discriminação contra LGBT+ persiste em algoritmos

Em 17 de maio de 1990, a Organização Mundial da Saúde retirou a homossexualidade do Código Internacional de Doenças, marcando uma vitória histórica do movimento LGBTQIAPN+. Trinta e cinco anos depois, a luta contra o preconceito enfrenta um novo desafio: a discriminação algorítmica. Pesquisadoras apontam que a patologia, antes inscrita em manuais médicos, agora se inscreve nos códigos de plataformas digitais, gerando o que chamam de 'violência algorítmica'.

O que é violência algorítmica?

Segundo as autoras Bruna Irineu e Larissa Pelúcio, a violência algorítmica é um conjunto de processos pelos quais sistemas automatizados de moderação, recomendação e classificação de conteúdo produzem efeitos discriminatórios contra populações LGBTQIAPN+. Essa violência é estrutural, inscrita nas arquiteturas das plataformas, nos dados que alimentam os modelos e nas políticas corporativas que definem hierarquias de visibilidade.

Em 2024, o modelo de inteligência artificial LLaMA 4, da Meta, recomendou conteúdos associados à 'terapia de conversão' para pessoas que buscavam informações sobre homossexualidade, prática condenada pela GLAAD. O resultado não foi programado explicitamente, mas reproduziu padrões latentes nos dados de treinamento, que condensam séculos de patologização das dissidências sexuais.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Exemplos de discriminação digital

O padrão discriminatório é consistente e documentado. O TikTok, por exemplo, proibiu em diretrizes internas expressões de afeto entre pessoas LGBTQIAPN+ e registros de ativismo político. O YouTube desmonetiza vídeos educativos sobre identidade de gênero enquanto canais com discurso de ódio operam sem restrições. A pesquisadora Amanda Chami nomeia essa seletividade como discriminação estrutural programada.

A dimensão geopolítica agrava o quadro. Em países onde a homossexualidade é criminalizada, tecnologias que inferem orientação sexual integram infraestruturas de vigilância. Entre 2013 e 2017, 129 das 232 pessoas presas no Egito por homossexualidade foram capturadas pela polícia por meio de perfis falsos no Grindr, explorando geolocalização e anonimato.

Fascismo digital

O cenário se agrava com o controle das infraestruturas digitais por líderes de Big Techs, que financiam guerras culturais contra feminismos e populações LGBTQIAPN+. As autoras definem isso como 'fascismo digital': um regime sociotécnico que articula autoritarismo político, conservadorismo moral e infraestruturas digitais para excluir pessoas.

Resistência e disputa

No Brasil, iniciativas da sociedade civil, como o Código Não Binário, Coding Rights, MariaLab e Tecnologia MTST, e de universidades como o Jararaca Lab e o Observatório LGBTI+, demonstram que a disputa das infraestruturas digitais é necessária. Em 1990, o movimento disputou os regimes de saber da medicina. Hoje, precisa disputar também os regimes de saber dos algoritmos.

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar