
Reconhecimento facial vigia 83 milhões no Brasil sem regras claras, alerta relatório da DPU

-
Mesmo com a aprovação do PL 2338/2023 no Senado, especialistas alertam que o texto ainda deixa brechas que podem legalizar a vigilância em massa (Fotos: Marcelo Camargo/Agência Brasil)
Uso massivo da tecnologia por órgãos de segurança pública expõe riscos de violações de direitos, discriminação e falta de transparência, segundo pesquisa da Defensoria e CESeC
Após a Copa do Mundo de 2014, o Brasil tornou-se um vasto campo de vigilância digital. A constatação é do relatório Mapeando a Vigilância Biométrica, divulgado nesta quarta-feira (7) pela Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), da Universidade Candido Mendes. Segundo a pesquisa, o país conta atualmente com ao menos 376 projetos de reconhecimento facial em operação, capazes de monitorar quase 83 milhões de pessoas — o equivalente a 40% da população brasileira.
O levantamento aponta que o uso de tecnologias de reconhecimento facial (TRFs) por órgãos públicos tem avançado sem qualquer legislação específica, mecanismos de controle efetivos ou transparência. Desde os megaeventos esportivos realizados na última década, como a Copa e os Jogos Olímpicos, sistemas sofisticados de vigilância foram incorporados à rotina de segurança pública, apoiados na promessa de localizar criminosos e pessoas desaparecidas.
Contudo, os pesquisadores alertam para os riscos desse avanço desregulado: violações de privacidade, erros de identificação, mau uso de recursos públicos e impactos discriminatórios, especialmente sobre a população negra. Um dos casos mais emblemáticos ocorreu em 2024, quando o personal trainer João Antônio Trindade Bastos foi confundido com um foragido e abordado de forma ríspida durante uma partida de futebol em Aracaju. A repercussão levou o governo de Sergipe a suspender o uso da tecnologia, até então usada para prender mais de dez pessoas.
O relatório ainda aponta que mais da metade das abordagens policiais com base em reconhecimento facial resultaram em identificações equivocadas no Brasil, o que escancara o risco de prisões indevidas. Pesquisas internacionais já haviam evidenciado que os sistemas são mais imprecisos quando aplicados a pessoas negras, indígenas e asiáticas — podendo errar até 100 vezes mais em relação a indivíduos brancos.
Apesar desses riscos, o Brasil ainda não conta com uma legislação específica. Em dezembro de 2024, o Senado aprovou o PL 2338/2023, que propõe regulamentar o uso de inteligência artificial na segurança pública. No entanto, segundo os pesquisadores, o texto aprovado abre brechas que, na prática, permitem o uso generalizado da tecnologia.
Diante do cenário, o relatório defende medidas urgentes, como a criação de uma lei nacional clara, padronização de protocolos, auditorias independentes, maior transparência nos contratos públicos e autorização judicial prévia para o uso de dados biométricos. O coordenador do CESeC, Pablo Nunes, reforça que o objetivo é contribuir para a tramitação do PL e alertar as instituições de controle sobre os riscos de uma vigilância biométrica mal regulada, que pode reproduzir preconceitos e comprometer direitos fundamentais.
Deixe seu comentário