Estudo de Oxford revela: ChatGPT reproduz preconceitos regionais e raciais sobre o Brasil
ChatGPT mostra preconceitos sobre regiões e raça no Brasil

ChatGPT reproduz estereótipos regionais e raciais sobre o Brasil, aponta estudo de Oxford

Um estudo realizado por pesquisadores da Universidade de Oxford, no Reino Unido, divulgado em janeiro, revela que o ChatGPT, o popular robô de inteligência artificial da OpenAI, compartilha informações preconceituosas sobre diferentes regiões do Brasil. A pesquisa, baseada na análise de impressionantes 20,3 milhões de consultas feitas à plataforma, expõe padrões preocupantes que refletem desigualdades históricas e sociais.

Classificações de inteligência reforçam disparidades regionais

Em testes que perguntavam "onde as pessoas são mais inteligentes", o ChatGPT classificou habitantes de São Paulo, Minas Gerais e do Distrito Federal como "mais inteligentes". Em contraste, estados como Maranhão e Amazonas receberam avaliações significativamente mais baixas. Os pesquisadores utilizaram um sistema de pontuação para transformar as respostas da IA em um ranking comparativo, destacando uma correlação alarmante.

O estudo explica que "esse padrão também corresponde à diferença racial entre regiões (as regiões norte e interior abrigam predominantemente populações mistas, negras ou indígenas), o que está alinhado com as longas histórias de como raça e inteligência percebida foram construídas". Essa descoberta sugere que o ChatGPT pode estar reciclando estereótipos enraizados na sociedade brasileira.

Preconceitos raciais influenciam percepções de beleza

Em outra parte da pesquisa, os estudiosos questionaram o ChatGPT sobre quais bairros de grandes metrópoles como Londres, Nova York e Rio de Janeiro teriam "as pessoas mais bonitas". As respostas da inteligência artificial favoreceram consistentemente áreas com maior proporção de moradores brancos e maior poder aquisitivo.

No Rio de Janeiro, por exemplo, o ChatGPT colocou no topo da lista bairros nobres como Ipanema, Leblon e Copacabana. Em seguida, apareceram Vidigal, Lagoa, Lapa, Botafogo e Laranjeiras. Os autores do estudo afirmam que a IA está reciclando uma associação histórica e preconceituosa: a ideia de que a branquitude e a riqueza são vistas como "belas" e "aspiracionais", enquanto áreas mais pobres, com maior população não branca, são retratadas como "degradadas".

Brasil se destaca positivamente na cultura musical

Em um recorte mais positivo, o estudo também analisou percepções culturais. O Brasil, junto com a Nigéria, obteve pontuações muito altas tanto na categoria de "música" quanto na de "músicos" nos rankings gerados pelo ChatGPT. O mapa produzido pela pesquisa indica que, quanto mais azul a região, maior a classificação para "melhor música"; em vermelho, aparecem os locais considerados como tendo "a pior música".

Os pesquisadores atribuem essa avaliação positiva à rica identidade musical brasileira, afirmando que "a identidade musical do Brasil, ancorada no samba, bossa nova, carnaval e no recente crescimento da música funk, que são amplamente referenciados na mídia global, turismo, entretenimento e redes sociais, criou um conjunto diversificado de fontes que o modelo condensa em uma compreensão singular de 'Brasil = grande música'". No entanto, ao analisar as regiões com as piores classificações musicais, o ChatGPT atribuiu essas posições a países da África, levantando novas questões sobre viés geográfico.

Implicações e reflexões sobre a inteligência artificial

Este estudo da Universidade de Oxford serve como um alerta importante sobre os riscos de viés nos sistemas de inteligência artificial. O ChatGPT, treinado em vastos conjuntos de dados da internet, pode inadvertidamente perpetuar e amplificar preconceitos sociais existentes. As descobertas destacam a necessidade urgente de:

  • Maior transparência nos processos de treinamento de IAs
  • Desenvolvimento de algoritmos mais equitativos e inclusivos
  • Conscientização pública sobre as limitações e vieses das ferramentas de IA
  • Regulamentação que promova a responsabilidade ética na inteligência artificial

À medida que a inteligência artificial se torna cada vez mais integrada ao nosso cotidiano, compreender e mitigar esses vieses é crucial para garantir que a tecnologia sirva a todos de forma justa e imparcial, sem reforçar desigualdades históricas.