OpenAI planeja sistema de verificação de idade no ChatGPT após pressões
A OpenAI está avaliando a implementação de um sistema de estimativa de idade no ChatGPT, seguindo os passos de plataformas como Roblox e TikTok. Em um comunicado oficial publicado em seu blog, a empresa detalhou que a ferramenta utilizará uma combinação de sinais para restringir o acesso de usuários menores de idade, visando aumentar a segurança digital.
Como funcionará o sistema de verificação
Segundo a OpenAI, o modelo analisará múltiplos fatores para estimar a faixa etária dos usuários. Entre os critérios considerados estão:
- A data de criação da conta no serviço.
- O comportamento geral dos usuários durante o uso.
- Padrões associados a diferentes faixas etárias identificados pela plataforma.
- Períodos típicos de atividade e uso ao longo do tempo.
- A idade declarada pelo próprio usuário durante o cadastro.
A companhia também informou que, caso o sistema faça uma estimativa incorreta, os usuários poderão contestar a decisão. O processo de contestação envolverá o envio de uma selfie para verificação por meio de uma plataforma específica, garantindo um mecanismo de correção para eventuais erros.
Pressões e processos judiciais motivam a medida
A OpenAI tem enfrentado pressão crescente para adotar medidas mais rígidas em relação ao uso do ChatGPT por menores de idade. A empresa é alvo de diversos processos judiciais nos quais a ferramenta é acusada de omissão ou até de ter contribuído para situações extremas envolvendo usuários vulneráveis. Esses casos reacenderam debates sobre a responsabilidade das empresas de inteligência artificial na proteção de dados e bem-estar dos usuários.
Críticas de Elon Musk e resposta de Sam Altman
Casos recentes associados ao uso do ChatGPT geraram críticas públicas de Elon Musk, dono da Tesla, SpaceX, X e xAI. Em uma publicação na rede social X, Musk afirmou que seus seguidores não deveriam permitir que pessoas próximas utilizassem o ChatGPT, levantando preocupações sobre segurança e conteúdo.
A declaração provocou uma resposta do cofundador e CEO da OpenAI, Sam Altman. Ele reconheceu a necessidade de fazer mais para proteger usuários em situação de vulnerabilidade, mas também criticou Musk por inconsistências em suas acusações. Altman destacou que o empresário costuma acusar o ChatGPT tanto de ser excessivamente restritivo quanto permissivo, dependendo do contexto.
Em suas palavras, Altman afirmou: "Às vezes você reclama que o ChatGPT é muito restritivo, e então em casos como este você afirma que é muito relaxado. Quase um bilhão de pessoas o usam e algumas delas podem estar em estados mentais muito frágeis. Continuaremos fazendo o nosso melhor para acertar isso e sentimos uma enorme responsabilidade."
Ele também mencionou que a OpenAI continuará tentando aprimorar seus sistemas, enfatizando que se trata de situações complexas e delicadas que exigem equilíbrio entre acessibilidade e segurança.
Controvérsias envolvendo outras empresas de tecnologia
Durante a discussão, Altman direcionou críticas aos produtos da Tesla, mencionando acidentes associados ao sistema Autopilot. Ele afirmou que, em sua experiência, o recurso parecia inseguro para ser lançado, embora tenha evitado comentar decisões relacionadas ao Grok, ferramenta de IA ligada à xAI de Musk.
Paralelamente, o Instituto de Defesa do Consumidor (Idec) apresentou uma denúncia à Agência Nacional de Proteção de Dados (ANPD) contra a ferramenta Grok. A pesquisadora Julia Abad, do Idec, argumentou que é necessária a adoção de providências urgentes para evitar mais danos, especialmente relacionados a imagens geradas pela IA que podem violar a proteção de dados dos usuários.
Essas movimentações destacam um cenário de crescente escrutínio regulatório e público sobre as empresas de tecnologia, com foco especial na implementação de salvaguardas para proteger grupos vulneráveis, incluindo crianças e adolescentes.