Cível Estratégico

Reconhecimento facial e a segurança pública para poucos

Brasil segue avançando acriticamente nesse campo

Crédito da imagem: Unplash.

Em 2019, o Brasil começou a integrar tecnologias de reconhecimento facial no dia a dia da segurança pública de vários estados em um processo sem muita transparência nem debate público. Hoje em dia, cinco anos depois, essas câmeras viraram um fato consumado, e é raro ver agências policiais brasileiras que não tenham acesso a esse instrumento de vigilância. E, nesse contexto, tão certo quanto o uso dessas tecnologias é a opacidade sobre a sua utilização.

O país convive com altas taxas de criminalidade há décadas. Só em relação às mortes violentas, o país registra mais de 45 mil por ano[1], montante que nos credencia como o país em que mais pessoas perdem suas vidas por homicídios no mundo todo. E onde há muitos homicídios, há também muitas agressões, muitos roubos e outros crimes. Nesse sentido, é compreensível a demanda da população por soluções que combatam o crime e aumentem a sensação de segurança.

Aliado a esse anseio, há também uma forte desconfiança das polícias. Pesquisas de opinião[2] frequentemente demonstram que o brasileiro confia pouco nas corporações policiais, ao mesmo tempo em que as teme. O processo de degradação institucional, de que a falta de confiança da população é apenas um dos resultados mais visíveis, é acompanhado por um aumento do uso da violência e de casos de abusos e violações por parte de agentes. Neste contexto, casos de abordagens violentas e sucessivas de jovens negros em favelas e periferias é a face mais presente.

Décadas de estudos sobre polícia e sua relação com a população negra já demonstraram fartamente que para essa parcela da população os direitos mais básicos são negados e violados. Em estudo[3] realizado em 2021 no Rio de Janeiro, o Centro de Estudos de Segurança e Cidadania demonstrou que 63% das pessoas abordadas por policiais são negros, em uma cidade em que negros são apenas 48% da população. Alguns dos jovens ouvidos na pesquisa relataram que abordagens policiais já fazem parte do cotidiano e que estranham os dias em que não são parados pela polícia.

O perfilamento racial é uma constante no trabalho policial no Rio de Janeiro e em outras cidades brasileiras. Frequentemente, abordagens acabam resultando em mortes,  como o caso do Genivaldo[4], abordado e morto por policiais da Polícia Rodoviária Federal que o asfixiaram com gás lacrimogêneo dentro de um camburão. Só em 2022, as polícias mataram 6.429 pessoas, em sua maioria negra, o que dá uma média de 17 mortes a cada dia[5].

Neste cenário, como não apoiar qualquer medida que retire dos policiais parte da sua discricionariedade para abordar e apontar cidadãos como “elementos suspeitos”? Essa foi parte da justificativa que orientou parcela significativa da opinião pública, pesquisadores e ativistas de direitos humanos a aceitar a inclusão de câmeras de reconhecimento facial no policiamento cotidiano. A crença era de que, ao retirar do policial a prerrogativa de escolher quem será abordado ou não, as câmeras poderiam ser uma resposta ao racismo das corporações policiais.

Apesar desse apoio, décadas de uso de tecnologias de reconhecimento facial em outros países demonstravam, já em 2019, que esses algoritmos produzem vieses que afetam de maneira significativa a população negra. Estudo publicado pelo National Institute of Standards and Technology (NIST) dos EUA avaliou 189 softwares de reconhecimento facial e demonstrou que eles erram mais com afro-americanos e com asiáticos[6]. Em um já clássico estudo conduzido por Joy Buolamwini and Timnit Gebru, ficou evidenciada uma diferença de 34.4% entre as taxas de erro de mulheres negras em comparação com homens brancos[7].

Taxas de erro não são apenas números e porcentagem em artigos acadêmicos. Elas se materializam em abordagens e detenções equivocadas, vidas de pessoas que são marcadas, muitas vezes com violência e trauma. Foi o caso de Robert Williams[8], homem negro morador de Detroit, EUA, apontado erroneamente por câmeras de reconhecimento facial em 2020. Ele ficou detido por 30 horas e sua abordagem se deu na frente de sua esposa e filha. Outras duas pessoas, assim como Robert, foram erroneamente apontadas como criminosas na cidade de Detroit, o que é um recorde nacional. Robert processou o Estado e agora a cidade de Detroit está tomando providências para restringir o uso de reconhecimento facial e aumentar as proteções para os cidadãos. Outras cidades dos EUA decidiram por banir o uso dessas tecnologias[9], mostrando que o seu uso tem no mínimo levantado questionamentos sobre sua eficiência e sobre a proteção de direitos dos cidadãos.

Aqui como lá, não faltaram casos de erros cometidos por algoritmos de identificação biométrica. Já em 2019, ano em que as câmeras de reconhecimento facial se espalharam rapidamente pelo território nacional, uma mulher foi erroneamente apontada e levada à delegacia no Rio de Janeiro. No final das contas ela não era a pessoa procurada e a criminosa em questão já estava cumprindo pena em regime fechado há quatro anos[10]. Em 2023 foi a vez da Thaislane, foliã sergipana confundida duas vezes pelo reconhecimento facial. Meses depois foi a vez de seu conterrâneo, João Antônio, ser alvo do erro do sistema. Durante uma partida de futebol, João foi retirado da arquibancada com as mãos nas costas, uma situação vexatória. Em entrevista para um programa de televisão que ouviu os dois sergipanos, João disse que os policiais afirmavam que só podia ser ele a pessoa procurada porque as câmeras não mentiam[11].

Ao todo, o Panóptico, projeto que coordeno no Centro de Estudos de Segurança e Cidadania (CESeC), já compilou 18 casos de erros provocados por tecnologias de reconhecimento facial no Brasil. O Rio de Janeiro é o campeão nacional em casos de erro com reconhecimento facial, somando até o momento 13 casos, número muito acima dos três casos que levaram Detroit a repensar o uso de reconhecimento facial.

E a tendência é que esses casos cresçam ainda mais, tendo em vista o grande aumento do número dessas câmeras no Brasil. O Panóptico mantém em seu site dados atualizados mensalmente sobre o estado da vigilância biométrica no Brasil. A última atualização de junho deu conta de 251 projetos ativos usando reconhecimento facial na segurança pública, número que só aumenta mês a mês. Isso significa que as câmeras espalhadas pelas cidades cobertas por esses projetos vigiam potencialmente quase 74 milhões de brasileiros cotidianamente[12].

Somado aos riscos de violação de direitos humanos e do risco à privacidade, os estudos de casos que realizamos no Panóptico indicam outros pontos de atenção no uso de reconhecimento facial pelas polícias. O primeiro deles é a falta de transparência, uma constante nas políticas públicas de segurança. É uma tarefa hercúlea conseguir informações das mais básicas sobre o uso das câmeras de reconhecimento facial. Isto é, quando conseguimos acesso à informação. Dados sobre a eficácia dos algoritmos, número de pessoas abordadas e custos de implementação e uso das câmeras nos são frequentemente negados.

Em segundo lugar, o investimento nessas câmeras é um mau uso do dinheiro público. Mostramos que pequenas cidades de Goiás, sem registros significativos de criminalidade e com uma baixa de urbanização, receberam esses equipamentos[13]. Também estudamos casos na Bahia de cidades em que menos de 5% da população tem acesso ao saneamento básico adequado e, mesmo assim, os governantes locais acharam por bem investir milhões de reais em vigilância[14].

O uso do reconhecimento facial não resolve nossos problemas na segurança pública. Em um país com uma população carcerária de mais de 800 mil presos[15] e que cresce ano após ano, é uma mistificação imaginar que aumentar o número de presos é a solução. Décadas de encarceramento em massa só nos levaram ao fortalecimento das organizações criminosas, que hoje estão presentes em todo território nacional e se expandindo para outros países. Quando analisamos o perfil dos presos por reconhecimento facial, com os poucos dados que temos atualmente, vemos que a grande maioria são presos por questões relacionadas à pensão alimentícia ou tráfico de pequenas quantidades de drogas[16]. Ou seja, crimes sem violência que poderiam ser tratados de maneiras distintas à pena de privação de liberdade. Os estados que usam reconhecimento facial atualmente não registraram reduções significativas em seus indicadores criminais após a adoção da tecnologia. Copacabana, que usou pela primeira vez a tecnologia em 2019, registrou aumento de roubos e furtos durante o uso da tecnologia[17], mostrando que as câmeras não são eficazes para reduzir crimes que atingem a população.

Tratei desses e de outros pontos em plenária no Senado Federal que discutiu o Projeto de Lei 2338, que busca regular o uso de inteligência artificial no Brasil. Afora os avanços importantes presentes no texto, as exceções incluídas para o uso de reconhecimento facial pelas polícias brasileiras só servem para dar legalidade a todos os projetos que existem atualmente, além de incluir novas possibilidades de uso que ainda não foram tão disseminadas. Ou seja, no que se refere ao reconhecimento facial, o PL 2338 como está servirá apenas para cristalizar todo esse contexto de violação de direitos, de pessoas sendo abordadas de maneira violenta e equivocada e com altos custos para o tão apertado orçamento público.

Enquanto a União Europeia e outros países têm discutido seriamente os riscos do uso dessas tecnologias sob a ótica da garantia de direitos e enquanto se avolumam os dados que demonstram o racismo algorítmico embutido no reconhecimento facial, o Brasil segue avançando acriticamente nesse campo. Perde a população negra, alvo preferencial das políticas de segurança pública. Perdem as populações pobres que possuem demandas que não serão atendidas pelos governantes que buscam investir em tecnologias com vistas às eleições. Perde o país que segue negando a maior parcela da população à fruição dos seus direitos constitucionalmente garantidos.

[1] Anuário do Fórum Brasileiro de Segurança Pública 2023. Disponível em: <https://forumseguranca.org.br/publicacoes/anuario-brasileiro-de-seguranca-publica/>.

[2] Congresso em Foco. “BRASILEIROS TEMEM MUITO E CONFIAM POUCO NAS POLÍCIAS, MOSTRA PESQUISA”. Disponível em: <https://congressoemfoco.uol.com.br/area/pais/brasileiros-temem-e-confiam-pouco-nas-policias-estaduais-mostra-pesquisa/>

[3] CESeC. “NEGRO TRAUMA: RACISMO E ABORDAGEM POLICIAL NO RIO DE JANEIRO”. Disponível em: <https://cesecseguranca.com.br/livro/negro-trauma-racismo-e-abordagem-policial-no-rio-de-janeiro/>

[4] G1. “Caso Genivaldo: dois anos após homem ser asfixiado em viatura da PRF, família diz esperar por Justiça”. Disponível em: <https://g1.globo.com/se/sergipe/noticia/2024/05/25/caso-genivaldo-dois-anos-apos-homem-ser-asfixiado-em-viatura-da-prf-familia-diz-esperar-por-justica.ghtml>

[5] Anuário do Fórum Brasileiro de Segurança Pública 2023. Disponível em: <https://forumseguranca.org.br/publicacoes/anuario-brasileiro-de-seguranca-publica/>.

[6] NIST. “NIST Study Evaluates Effects of Race, Age, Sex on Face Recognition Software”. Disponível em: <https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software>

[7] Joy Buolamwini eTimnit Gebru. “Gender Shades”. Disponível em: <https://gendershades.org/overview.html>

[8] New York Times. “Facial Recognition Led to Wrongful Arrests. So Detroit Is Making Changes”. Disponível em: <https://www.nytimes.com/2024/06/29/technology/detroit-facial-recognition-false-arrests.html>

[9] Innovation and Tech Today. “13 Cities Where Police Are Banned From Using Facial Recognition Tech”. Disponível em: <https://innotechtoday.com/13-cities-where-police-are-banned-from-using-facial-recognition-tech/>

[10] G1. “Sistema de reconhecimento facial da PM do RJ falha, e mulher é detida por engano”. Disponível em: <https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml>

[11] Fantástico. “‘Medo, frustrado e constrangido’, diz homem detido por engano em estádio após erro do sistema de reconhecimento facial”. Disponível em: <https://g1.globo.com/fantastico/noticia/2024/04/21/medo-frustrado-e-constrangido-diz-homem-detido-por-engano-em-estadio-apos-erro-do-sistema-de-reconhecimento-facial.ghtml>

[12] O Panóptico. Disponível em: <https://www.opanoptico.com.br/>

[13] O Panóptico. “Das planícies ao Planalto”. Disponível em: <https://drive.google.com/file/d/1DHEBUVEwout6g6J_LXt1N7wW-pBq_rQw/view?usp=drive_link>

[14] O Panóptico. “O sertão vai virar mar”. Disponível em: <https://drive.google.com/file/d/1TtWwghDtLS6j-ALF3qqkvcwyCfRSIHTz/view?usp=drive_link>

[15] Folha de S. Paulo. “Cadeia: presos no Brasil chegam a 832 mil”. Disponível em: <https://www1.folha.uol.com.br/cotidiano/2023/07/brasil-tem-832-mil-presos-populacao-carceraria-e-maior-que-a-de-99-dos-municipios-brasileiros.shtml>

[16] The Intercept Brasil. “EXCLUSIVO: LEVANTAMENTO REVELA QUE 90,5% DOS PRESOS POR MONITORAMENTO FACIAL NO BRASIL SÃO NEGROS”. Disponível em:<https://www.intercept.com.br/2019/11/21/presos-monitoramento-facial-brasil-negros/>

[17] O Panóptico. “Um rio de câmeras com olhos seletivos”. Disponível em: <https://drive.google.com/file/d/1Yn0mSEs6AeqaDZDuSjBdJO_WbuLuIEzn/view?usp=sharing>

PABLO NUNES – Doutor em ciência política, coordenador do CESeC, líder do projeto O Panóptico e da Rede de Observatórios da Segurança, focando em segurança pública, novas tecnologias, combate ao racismo e redução da letalidade policial

outras notícias

Brasília
SHS Qd 06, Conj. A,
Bloco A, Sala 810, Ed. Brasil 21
Brasília-DF
São Paulo
Av. Pres. Juscelino Kubitschek, 1455
4º andar, Vila Nova Conceição
São Paulo-SP
Rio de Janeiro
Praia de Botafogo, 228
16º andar, Botafogo
Rio de Janeiro-RJ
Contatos
DF  /  61 3226-9989
Política de Privacidade
Contatos
Obrigado! Seu cadastro foi realizado com sucesso.
Oops! Algo deu errado. Por favor, tente novamente.