Rio de Janeiro, 21 de Novembro de 2024

Rio: abordagens por reconhecimento facial têm 10% de falsos positivos

Arquivado em:
Quinta, 05 de Setembro de 2024 às 13:52, por: CdB

De acordo com o diretor de Infraestrutura de Tecnologia do Centro Integrado de Comando e Controle (Cicc), major Agdan Fernandes, a regulamentação pode auxiliar na redução do índice de erros.

Por Redação, com Brasil de Fato – do Rio de Janeiro

As abordagens conduzidas pela Polícia Militar do Estado do Rio de Janeiro (PMERJ) com o uso do sistema de reconhecimento por biometria facial tiveram uma taxa de falsos positivos de 10% desde a implementação, no dia 31 de dezembro de 2023, na comemoração do Réveillon.

reconhecimentofacial.jpg
Mecanismo já foi desencorajado por organismos internacionais como a Organização das Nações Unidas (ONU) e sequer teve utilização nos Jogos Olímpicos de Paris

Os dados foram apresentados durante audiência pública, na última segunda-feira na sede do Parlamento fluminense, realizada pelas Comissões de Direitos Humanos e do Cumprimento das Leis (Cumpra-se) da Assembleia Legislativa do Estado do Rio de Janeiro (Alerj).

O objetivo do encontro foi discutir o projeto de lei 2.476/24, que obriga a criação de um relatório de impacto à proteção de dados pessoais dos sistemas de reconhecimento por biometria facial. De acordo com o diretor de Infraestrutura de Tecnologia do Centro Integrado de Comando e Controle (Cicc), major Agdan Fernandes, a regulamentação pode auxiliar na redução do índice de erros. Ao todo, a Polícia Militar já realizou 330 prisões com base no sistema, que foi elogiado pela corporação e conta com 137 câmeras espalhadas pela cidade.

– O falso positivo ocorre, mas ele é mitigado pelos nossos procedimentos. O nosso índice é de 9% a 10%, mas ações como essa, na Alerj, ajuda que a gente consiga trabalhar para diminuir esse índice ainda mais – comentou o major. “Toda política pública necessita de melhoras e o reconhecimento facial não é exceção. Acho que o grande debate foi em torno de continuar usando a ferramenta, melhorando com base na experiência de outros países e aprimorar a legislação para que ela se torne mais eficaz”, completou Fernandes.

Os participantes da audiência fizeram sugestões para aperfeiçoar o projeto, dentre elas uma que foi encaminhada pela própria PMERJ para proibir a prisão baseada apenas no reconhecimento biométrico facial, assim como a lei 10.141/23 já proíbe a prisão por reconhecimento fotográfico. Ao todo, a corporação fez 12 sugestões de alteração no texto.

– Todas as sugestões vão ser incorporadas ao projeto, o que vai facilitar a aprovação da medida e a análise do cumprimento da lei. Esse sistema já levou à prisão de várias pessoas mas também a várias injustiças – ponderou o deputado Carlos Minc (PSB), presidente da Comissão do Cumpra-se. “O objetivo central do projeto é impedir que haja injustiça e que os dados sejam apropriados por empresas como acontecem nas redes de farmácias. A gente quer melhorar o combate à bandidagem, impedir que isso leve ao racismo, à vulnerabilização de crianças e à captura de dados privados”, disse.

A deputada Dani Monteiro (Psol), presidente da Comissão de Direitos Humanos, destacou que, mesmo sendo contrária ao sistema de reconhecimento biométrico facial, é necessário discutir o uso desses dados. “Haja vista a produção contínua e diária de dados biométricos pelo poder público, nos interessa muito saber qual é a forma de governança desses dados. Isso não é apenas um debate de segurança pública, é um debate cidadão”, complementou a parlamentar.

Racismo institucional

Na audiência, entretanto, os participantes destacaram casos, no Brasil e no mundo, das falhas do reconhecimento facial para abordagem incorreta de pessoas negras, refletindo a perspectiva do racismo institucional. Pablo Nunes, do Centro de Estudos de Segurança e Cidadania (CESeC), citou que, apesar dos avanços na tecnologia, o mecanismo já foi desencorajado por organismos internacionais como a Organização das Nações Unidas (ONU) e sequer teve utilização nos Jogos Olímpicos de Paris. “As análises mostram que os algoritmos continuam produzindo resultados muito díspares quando a agente analisa os perfis sociodemográficos que são alvos dessa tecnologia”, comentou.

Uma das impactadas pelo viés racista do sistema de reconhecimento foi a coordenadora de Promoção de Igualdade Racial de Nova Iguaçu, Daiane de Souza Melo. Ela foi identificada erroneamente como uma procurada pela Justiça, em abril deste ano, enquanto participava da Conferência Estadual de Igualdade Racial, no Liceu de Artes, no Centro do Rio.

– Eu já tinha lido sobre as câmeras não reconhecerem adequadamente rostos negros. É muito complicado a gente pensar que a segurança não está para todos. Eu acredito que a grande maioria das pessoas pretas, negras e pardas nascem, vivem e morrem com medo da polícia – disse Daiane.

Questionado sobre o quantitativo de pessoas negras que foram classificadas erroneamente como procuradas pela Justiça, o major Fernandes explicou que a corporação não dispõe desses dados por se tratar de um dado “autodeclarado”.

Edições digital e impressa
 
 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo