
Um erro no sistema de reconhecimento facial do Smart Sampa, programa de segurança da capital paulista, levou a Guarda Civil Metropolitana (GCM) a abordar 23 pessoas por engano na última semana. O caso ocorreu após uma falha técnica que identificou erroneamente cidadãos como suspeitos de crimes.
Como aconteceu o erro?
O sistema, que utiliza inteligência artificial para identificar criminosos procurados, apresentou um "falso positivo" ao cruzar dados com imagens de câmeras de segurança. As vítimas do equívoco foram paradas nas ruas e tiveram que comprovar sua identidade antes de serem liberadas.
Reação da prefeitura
A Secretaria Municipal de Segurança Urbana emitiu nota reconhecendo o problema e afirmou que está "aprimorando os algoritmos" para evitar novos incidentes. O órgão destacou que todas as abordagens foram realizadas dentro da legalidade, mas pediu desculpas pelos transtornos causados.
Impacto na população
Moradores relataram desconforto com a situação: "Fui tratado como criminoso sem ter feito nada. É assustador", desabafou um dos abordados que preferiu não se identificar. Especialistas em tecnologia alertam para os riscos de sistemas automatizados sem supervisão humana adequada.
O que diz a lei?
O uso de reconhecimento facial em espaços públicos é permitido em São Paulo desde 2019, mas está sob revisão após críticas de organizações de direitos humanos. A Prefeitura afirma que o Smart Sampa já ajudou a prender mais de 1.200 criminosos desde sua implementação.