As abordagens conduzidas pela Polícia Militar do Estado do Rio de Janeiro (PMERJ) com o uso do sistema de reconhecimento por biometria facial tiveram uma taxa de falsos positivos de 10% desde a implementação, no Réveillon de 2024. Os dados foram apresentados durante audiência pública, nesta segunda-feira (2) na sede do Parlamento fluminense, realizada pelas Comissões de Direitos Humanos e do Cumprimento das Leis (Cumpra-se) da Assembleia Legislativa do Estado do Rio de Janeiro (Alerj).
O objetivo do encontro foi discutir o Projeto de Lei 2.476/24, que obriga a criação de um relatório de impacto à proteção de dados pessoais dos sistemas de reconhecimento por biometria facial. De acordo com o diretor de Infraestrutura de Tecnologia do Centro Integrado de Comando e Controle (CICC), major Agdan Fernandes, a regulamentação pode auxiliar na redução do índice de erros. Ao todo, a Polícia Militar já realizou 330 prisões com base no sistema, que foi elogiado pela corporação e conta com 137 câmeras espalhadas pela cidade.
“O falso positivo ocorre, mas ele é mitigado pelos nossos procedimentos. O nosso índice é de 9% a 10%, mas ações como essa, na Alerj, ajuda que a gente consiga trabalhar para diminuir esse índice ainda mais”, comentou o major. “Toda política pública necessita de melhoras e o reconhecimento facial não é exceção. Acho que o grande debate foi em torno de continuar usando a ferramenta, melhorando com base na experiência de outros países e aprimorar a legislação para que ela se torne mais eficaz”, completou Fernandes.
Os participantes da audiência fizeram sugestões para aperfeiçoar o projeto, dentre elas uma que foi encaminhada pela própria PMERJ para proibir a prisão baseada apenas no reconhecimento biométrico facial, assim como a Lei 10.141/23 já proíbe a prisão por reconhecimento fotográfico. Ao todo, a corporação fez 12 sugestões de alteração no texto.
“Todas as sugestões vão ser incorporadas ao projeto, o que vai facilitar a aprovação da medida e a análise do cumprimento da lei. Esse sistema já levou à prisão de várias pessoas mas também a várias injustiças”, ponderou o deputado Carlos Minc (PSB), presidente da Comissão do Cumpra-se. “O objetivo central do projeto é impedir que haja injustiça e que os dados sejam apropriados por empresas como acontecem nas redes de farmácias. A gente quer melhorar o combate à bandidagem, impedir que isso leve ao racismo, à vulnerabilização de crianças e à captura de dados privados”, disse.
A deputada Dani Monteiro (PSol), presidente da Comissão de Direitos Humanos, destacou que, mesmo sendo contrária ao sistema de reconhecimento biométrico facial, é necessário discutir o uso desses dados. “Haja vista a produção contínua e diária de dados biométricos pelo poder público, nos interessa muito saber qual é a forma de governança desses dados. Isso não é apenas um debate de segurança pública, é um debate cidadão”, complementou a parlamentar.
Racismo institucional influencia algoritmo
Na audiência, os participantes destacaram casos, no Brasil e no mundo, das falhas do reconhecimento facial para abordagem incorreta de pessoas negras, refletindo a perspectiva do racismo institucional. Pablo Nunes, do Centro de Estudos de Segurança e Cidadania (CESeC), citou que, apesar dos avanços na tecnologia, o mecanismo já foi desencorajado por organismos internacionais como a Organização das Nações Unidas (ONU) e sequer teve utilização nos Jogos Olímpicos de Paris. “As análises mostram que os algoritmos continuam produzindo resultados muito díspares quando a agente analisa os perfis sociodemográficos que são alvos dessa tecnologia”, comentou.
Uma das impactadas pelo viés racista do sistema de reconhecimento foi a coordenadora de Promoção de Igualdade Racial de Nova Iguaçu, Daiane de Souza Melo. Ela foi identificada, erroneamente, como uma procurada pela Justiça, em abril deste ano, enquanto Daiane participava da Conferência Estadual de Igualdade Racial, no Liceu de Artes, no Centro do Rio.
“Eu já tinha lido sobre as câmeras não reconhecerem adequadamente rostos negros. É muito complicado a gente pensar que a segurança não está para todos. Eu acredito que a grande maioria das pessoas pretas, negras e pardas nascem, vivem e morrem com medo da polícia”, disse Daiane.
Questionado sobre o quantitativo de pessoas negras que foram classificadas erroneamente como procuradas pela Justiça, o major Fernandes explicou que a corporação não dispõe desses dados por se tratar de um dado “autodeclarado”.
Uso dos dados de crianças em estádios
De uso obrigatório nos estádios com mais de 20 mil pessoas, a tecnologia de reconhecimento facial tem gerado debates sobre o uso dos dados gerados, incluindo menores de idades. De acordo com o Centro de Estudos de Segurança e Cidadania (CESeC), mais de 20 estádios no Brasil utilizam a tecnologia. Em Goiás, por exemplo, 30 mil crianças e adolescentes de 2 a 14 anos tiveram seus dados biométricos cadastrados em um banco do Goiás Esporte Clube.
“Essa transformação, do rosto em um dado que pode ser vendido, vulnerabiliza os cidadãos. Hoje, no Maracanã, três empresas compartilham os nossos dados biométricos. Isso gera um maior risco de vazamento de dados, além da vulnerabilização de crianças e adolescentes”, comentou Raquel Sousa, pesquisadora do Panóptico, projeto vinculado ao CESeC.