ChatGPT reproduz estereótipos regionais e raciais sobre o Brasil, aponta estudo de Oxford
Um estudo realizado por pesquisadores da Universidade de Oxford, no Reino Unido, divulgado em janeiro, revela que o ChatGPT, o popular robô de inteligência artificial da OpenAI, compartilha informações preconceituosas sobre diferentes regiões do Brasil. A pesquisa, baseada na análise de impressionantes 20,3 milhões de consultas feitas à plataforma, expõe padrões preocupantes que refletem desigualdades históricas e sociais.
Classificações de inteligência reforçam disparidades regionais
Em testes que perguntavam "onde as pessoas são mais inteligentes", o ChatGPT classificou habitantes de São Paulo, Minas Gerais e do Distrito Federal como "mais inteligentes". Em contraste, estados como Maranhão e Amazonas receberam avaliações significativamente mais baixas. Os pesquisadores utilizaram um sistema de pontuação para transformar as respostas da IA em um ranking comparativo, destacando uma correlação alarmante.
O estudo explica que "esse padrão também corresponde à diferença racial entre regiões (as regiões norte e interior abrigam predominantemente populações mistas, negras ou indígenas), o que está alinhado com as longas histórias de como raça e inteligência percebida foram construídas". Essa descoberta sugere que o ChatGPT pode estar reciclando estereótipos enraizados na sociedade brasileira.
Preconceitos raciais influenciam percepções de beleza
Em outra parte da pesquisa, os estudiosos questionaram o ChatGPT sobre quais bairros de grandes metrópoles como Londres, Nova York e Rio de Janeiro teriam "as pessoas mais bonitas". As respostas da inteligência artificial favoreceram consistentemente áreas com maior proporção de moradores brancos e maior poder aquisitivo.
No Rio de Janeiro, por exemplo, o ChatGPT colocou no topo da lista bairros nobres como Ipanema, Leblon e Copacabana. Em seguida, apareceram Vidigal, Lagoa, Lapa, Botafogo e Laranjeiras. Os autores do estudo afirmam que a IA está reciclando uma associação histórica e preconceituosa: a ideia de que a branquitude e a riqueza são vistas como "belas" e "aspiracionais", enquanto áreas mais pobres, com maior população não branca, são retratadas como "degradadas".
Brasil se destaca positivamente na cultura musical
Em um recorte mais positivo, o estudo também analisou percepções culturais. O Brasil, junto com a Nigéria, obteve pontuações muito altas tanto na categoria de "música" quanto na de "músicos" nos rankings gerados pelo ChatGPT. O mapa produzido pela pesquisa indica que, quanto mais azul a região, maior a classificação para "melhor música"; em vermelho, aparecem os locais considerados como tendo "a pior música".
Os pesquisadores atribuem essa avaliação positiva à rica identidade musical brasileira, afirmando que "a identidade musical do Brasil, ancorada no samba, bossa nova, carnaval e no recente crescimento da música funk, que são amplamente referenciados na mídia global, turismo, entretenimento e redes sociais, criou um conjunto diversificado de fontes que o modelo condensa em uma compreensão singular de 'Brasil = grande música'". No entanto, ao analisar as regiões com as piores classificações musicais, o ChatGPT atribuiu essas posições a países da África, levantando novas questões sobre viés geográfico.
Implicações e reflexões sobre a inteligência artificial
Este estudo da Universidade de Oxford serve como um alerta importante sobre os riscos de viés nos sistemas de inteligência artificial. O ChatGPT, treinado em vastos conjuntos de dados da internet, pode inadvertidamente perpetuar e amplificar preconceitos sociais existentes. As descobertas destacam a necessidade urgente de:
- Maior transparência nos processos de treinamento de IAs
- Desenvolvimento de algoritmos mais equitativos e inclusivos
- Conscientização pública sobre as limitações e vieses das ferramentas de IA
- Regulamentação que promova a responsabilidade ética na inteligência artificial
À medida que a inteligência artificial se torna cada vez mais integrada ao nosso cotidiano, compreender e mitigar esses vieses é crucial para garantir que a tecnologia sirva a todos de forma justa e imparcial, sem reforçar desigualdades históricas.