O Instagram revelou nesta quinta-feira, dia 26, uma importante inovação em segurança digital destinada a fortalecer a proteção de adolescentes na plataforma. A nova funcionalidade tem como objetivo principal auxiliar os pais a monitorarem atividades de pesquisa que possam indicar riscos à saúde mental de seus filhos, especificamente focando em termos associados a suicídio e automutilação.
Como funciona o sistema de alerta
Quando um adolescente realiza múltiplas buscas por conteúdos sensíveis dentro de um intervalo de tempo reduzido, o sistema automaticamente dispara um alerta para os responsáveis. Este aviso pode ser recebido através de diversas vias de comunicação, incluindo e-mail, mensagens de texto ou aplicativos como o WhatsApp, conforme o contato previamente cadastrado, além de notificações diretas dentro do próprio aplicativo do Instagram.
Implementação e expansão global
Inicialmente, a funcionalidade será ativada para usuários nos Estados Unidos, Canadá, Reino Unido e Austrália a partir da próxima semana. A meta da empresa é estender gradualmente este recurso para outras regiões ao redor do mundo até o final do ano corrente, ampliando assim seu alcance e impacto positivo.
Base técnica e consulta a especialistas
Em publicação oficial em seu blog corporativo, o Instagram detalhou que o desenvolvimento desta ferramenta envolveu uma análise minuciosa dos padrões de busca na plataforma e consultas aprofundadas com especialistas integrantes do Suicide and Self-Harm Advisory Group. A empresa estabeleceu um limite criterioso que requer a ocorrência de várias pesquisas em um curto espaço de tempo para acionar os alertas, priorizando a cautela e a prevenção de falsos positivos.
"Embora reconheçamos que ocasionalmente possam ser geradas notificações em situações onde não há motivo real para alarme, acreditamos firmemente, com o respaldo de especialistas, que este é o ponto de partida mais adequado", afirmou a rede social. O compromisso declarado é de continuar avaliando o desempenho do sistema e ouvindo feedbacks dos usuários para realizar ajustes necessários e garantir sua eficácia.
Contexto de pressões legais
Esta iniciativa surge em um momento em que o Instagram enfrenta uma série de processos judiciais em diversos países, acusado de potencialmente contribuir para efeitos negativos na saúde mental de usuários menores de idade. A nova medida pode ser vista como uma resposta proativa a essas críticas, buscando reforçar a responsabilidade social da plataforma.
Recursos de apoio e prevenção
Para aqueles que possam estar enfrentando pensamentos suicidas ou crises emocionais, é fundamental buscar ajuda especializada. No Brasil, o Centro de Valorização da Vida (CVV) oferece suporte gratuito e confidencial 24 horas por dia, inclusive durante feriados, através do telefone 188. Além disso, o serviço está disponível por e-mail, chat online e atendimento presencial em mais de 120 postos distribuídos nacionalmente. Os Centros de Atenção Psicossocial (CAPS) também representam uma rede pública essencial de acolhimento e tratamento em saúde mental em todas as cidades brasileiras.



