Antigo método usado nas delegacias para identificar suspeitos, o reconhecimento por fotos está segundo o Estadão, na mira do Judiciário. Antes, questionamentos ao modelo eram liderados por movimentos sociais ou acadêmicos, sob argumento de falhas de critério e de viés racista. Agora, tribunais apontam erros e revisam condenações. Ainda sem resolver o problema da tecnologia antiga, câmeras capazes de reconhecer rostos ganham espaço na segurança pública. O próximo desafio é definir o peso que algoritmos de análise facial terão para prender ou condenar alguém.
Neste mês, o Tribunal de Justiça do Rio (TJ-RJ) recomendou que seus magistrados revisem condenações baseadas em reconhecimentos frágeis, por foto, como única prova. O Conselho Nacional de Justiça (CNJ) já montou grupo de trabalho para fixar diretrizes gerais que evitem erros. A previsão é de concluir esta discussão em fevereiro.
Um dos marcos neste debate é a decisão do ministro Rogerio Schietti Cruz, do Superior Tribunal de Justiça (STJ), que deu habeas corpus a um condenado por roubo em Santa Catarina em outubro de 2020. Cruz viu falha no reconhecimento por foto para embasar as sentenças anteriores – um exemplo de fragilidade era o fato de as vítimas relatarem um suspeito de 1,70 metro, 25 centímetros menor que o preso. O ministro, líder do grupo de trabalho no CNJ, mandou notificar todos os tribunais do País.
“Sabemos que, na prática, várias prisões preventivas estão decretadas com base exclusivamente no reconhecimento fotográfico”, diz o desembargador Marcus Henrique Pinto Basílio, 2.º vice-presidente do TJ-RJ e autor da recomendação aos juízes. “Se há erro de reconhecimento, até esclarecer, o suspeito passa 10 dias, 15 dias preso. Isso macula a imagem do Judiciário”, completa.
Em alguns casos, corrigir o equívoco leva bem mais tempo. Em 2016, José (nome fictício), de 19 anos, deu entrada em um hospital após ser alvo de um disparo ao voltar de moto para casa. Quase ao mesmo tempo, um policial trocou tiros na cidade vizinha com criminosos que, pouco antes, haviam roubado um carro. Membros da quadrilha fugiram.
A polícia buscou nos hospitais da região pacientes com ferimento por revólver e chegou a José. O agente envolvido no tiroteio não o reconheceu, mas o motorista do carro roubado o apontou como um dos bandidos. O reconhecimento, por meio da foto de José no leito de hospital, foi suficiente para que ele fosse condenado em duas instâncias na Justiça e ficasse três anos preso por um crime que não cometeu.
Ao saber do caso, o Innocence Project, voltado para garantir a defesa de pessoas que foram presas injustamente, atuou no caso. Entre as provas que somaram para a soltura dele estava o fato de que, quando o policial trocou tiros com a quadrilha, José já tinha dado entrada no hospital. Havia ainda outros elementos.
“Tinham sido efetuados cinco disparos pelo policial. Todos os disparos que efetuou atingiram o réu confesso, que acabou preso. Ou seja, tinha impossibilidade material, matematicamente falando. Tinha ainda o não reconhecimento do policial e a própria questão do horário”, diz a advogada Dora Cavalcanti, membro do Innocence Project e responsável pela defesa final de José.
Dados de dois relatórios formulados pela Defensoria Pública do Rio, juntamente com o Colégio Nacional de Defensores Públicos Gerais, apontam que, de 2012 a 2020, houve ao menos 90 prisões injustas baseadas no método, 73 delas no Rio. Dos processos em que havia informação sobre a raça dos acusados, 81% deles eram pessoas negras.
“É muito comum ter nas delegacias de polícia catálogos de fotos de pessoas com antecedência. É cômodo para a polícia apontar para alguém que tem antecedentes: respondem por aquilo que fizeram no passado”, afirma Maurício Dieter, professor da USP.
Neste mês, uma foto do ator americano Michael B. Jordan, negro, apareceu em um catálogo para identificação de suspeitos da Polícia Civil do Ceará, o que repercutiu nas redes sociais. A Secretaria de Segurança cearense, após o caso, disse que a partir de agora serão utilizadas só imagens de pessoas com histórico de envolvimento no tipo de crime investigado nestes catálogos.
“O modelo de hoje está fadado ao fracasso. Há uma informalidade nas delegacias para qual o Judiciário nunca se atentou’, acrescenta Dieter. Por outro lado, o professor relata otimismo. “Nunca vi tanta preocupação sobre o tema no País quanto agora”, avalia ele, que estuda o assunto há 15 anos.
Defasagem
Segundo o artigo 226 do Código de Processo Penal (CPP), de 1941, para o reconhecimento pessoal a vítima deveria fazer, no primeiro momento, um retrato falado do criminoso. Só depois, com base nas descrições, os policiais buscariam um suspeito que tivesse semelhança com o relatado. Se o encontram, o procedimento é perfilar o suspeito a outras pessoas de tipo similar e, aí, a vítima aponta um possível culpado.
A professora Janaina Matida, associada do Instituto de Defesa do Direito de Defesa (IDDD), afirma que o procedimento descrito no CPP foi pensado para o reconhecimento presencial. Ocorre que, com novas tecnologias, surgiu um segundo modelo: o fotográfico. Por não estar previsto no CPP, ele foi sendo trabalhado de forma mais simplificada e se popularizou nas delegacias. Não foram, porém, criados contrapesos para assegurar os direitos dos acusados.
“A legislação de 1941 é sensata, mas a prática a partir daí se tornou o problema. O racismo está na estrutura desse processo”, diz Dora Lúcia Bertulio, procuradora da Universidade Federal do Paraná, que participou de reunião da CNJ para falar de vieses racistas na Justiça.
Segundo o delegado de Polícia da 1.ª Seccional de São Paulo, Roberto Monteiro, as ferramentas de reconhecimento facial estão substituindo procedimentos como o retrato falado. Softwares usados nas delegacias, diz ele, comparam rostos e juntam mais de 300 pontos em cada um deles que são próprios de cada indivíduo. “Hoje as ferramentas suplantam essa fase mais artística, do retrato falado”, diz.
Mas Monteiro reforça que, mesmo com ajuda tecnológica, o ideal é que o inquérito policial nunca seja baseado só em um reconhecimento. “Sempre amealhamos outras provas. Existe um conjunto probatório. E o reconhecimento facial se insere nesse conjunto.”
Novos tempos
Se o Judiciário demora para resolver o impasse do reconhecimento por foto, a tecnologia avança rápido. Na segurança pública, câmeras e softwares de reconhecimento facial prometem revolucionar a busca e identificação de suspeitos ou foragidos. Com um banco de dados atualizado, é possível reconhecer na multidão alguém que tem escapado das autoridades e a polícia nem estava procurando naquele momento. A questão é entender o quanto dá para confiar nos sistemas, que se baseiam em algoritmos cuja eficácia é alvo de críticas no Brasil e no exterior.
Uma das pioneiras no uso de câmeras de reconhecimento facial no País é a Bahia, desde 2018. Pelo sistema, já prendeu mais de 220 pessoas – até no meio do carnaval já teve suspeito detectado. Mapeamento mais recente do Instituto Igarapé, de 2019, apontava ao menos 37 projetos de reconhecimento facial implementados pelo poder público no Brasil.
Titular da Segurança Pública do Distrito Federal e presidente interino do Colégio Nacional de secretários da área, Júlio Danilo Ferreira diz que o uso das tecnologias de reconhecimento facial no setor está em fase inicial de tratativas e que ainda não há, no órgão, grupo de trabalho sobre o tema. Ele reforçou a importância de debate amplo para que se estabeleça formato, tecnologia e leis adequadas. O Distrito Federal é outro dos que usam o modelo de reconhecimento facial – a secretaria destaca ainda que suas perícias seguem protocolos internacionais.
Pesquisador sênior do Instituto Igarapé, Pedro Augusto P. Francisco explica que o reconhecimento facial é uma tecnologia biométrica – que mede informações sobre o corpo humano. Primeiro, é capaz de reconhecer a presença de um rosto humano em uma fotografia ou vídeo. Segundo, verifica se esse rosto consta em uma base de dados específica. O reconhecimento facial conecta o sensor (câmera), a base de dados de rostos e um software de inteligência artificial.
E, assim como outras tecnologias que dependem da análise e do processamento de dados, o reconhecimento facial se baseia em probabilidades. “Vários aspectos contextuais podem diminuir a acurácia do reconhecimento, como a falta de diversidade na base de dados que foi usada para treinar o algoritmo, a qualidade da imagem etc”, afirma o pesquisador sênior de Direito e Tecnologia do Instituto de Tecnologia e Sociedade (ITS-Rio) João Archegas.
Estudo desenvolvido por pesquisadores americanos e publicado pelo projeto Gender Shades em 2018 aponta que os algoritmos de reconhecimento facial podem reproduzir padrões discriminatórios. Os 1.270 rostos analisados pelas ferramentas foram classificados em quatro subgrupos por gênero e raça. Os algoritmos identificaram com mais precisão homens e, em geral, pessoas de pele mais clara. Tiveram desempenho pior em mulheres de pele mais escura. Entre as hipóteses está o fato de que mulheres e pessoas de pele mais escura podem ter sido menos usadas no treinamento das máquinas.
Defensoria do Rio mapeia 90 processos com erros
– Problema
Condenações com embasamento frágil, amparadas só no reconhecimento fotográfico do suspeito, são questionadas por movimentos sociais e acadêmicos e ganham mais atenção do Judiciário.
– Mapeamento
Dados de dois relatórios da Defensoria Pública do Rio, juntamente com o Colégio Nacional de Defensores Públicos Gerais, apontam que, de 2012 a 2020, houve ao menos 90 prisões injustas baseadas no método. Dos processos em que havia informação sobre a raça dos acusados, 81% deles eram pessoas negras.
– O que diz a lei
O Código de Processo Penal prevê que a vítima descreva o bandido para um retrato falado. Se a polícia acha alguém com essas características, põe ao lado de outros com mesmo perfil para identificação. Mas, na prática, é comum o reconhecimento por foto.
– Reações do Judiciário
O Tribunal de Justiça do Rio orientou que magistrados revisem decisões com embasamento frágil. Ministro do Superior Tribunal de Justiça mandou notificar tribunais sobre uma decisão revista.
Países se dividem em leis sobre tecnologia de reconhecimento facial
Os países têm criado regras distintas sobre o reconhecimento facial, diz estudo do Instituto Igarapé, de 2020. Na França, um órgão federal é quem autoriza cada iniciativa de uso pelos órgãos públicos. No Reino Unido, existem recomendações e documentos para fixar limites ao uso com base em leis já em vigor sobre vigilância e privacidade.
Na China, há aplicações de tecnologia de reconhecimento facial para vários fins, além da segurança, como em casos controvertidos de controle social. Já nos Estados Unidos a tendência é de proibição desses sistemas, regulados nos âmbitos locais, sob justificativa de proteção de direitos e garantias individuais.
A privacidade é outro nó neste debate. No Brasil, a Lei Geral de Proteção aos Dados (LGPD) não se aplica ao tratamento de dados pessoais feito exclusivamente para fins de segurança pública, diz João Archegas, do Instituto de Tecnologia e Sociedade (ITS-Rio). “Há uma espécie de vácuo legislativo no qual se inserem processos de reconhecimento facial pelas secretarias de Segurança e, por isso, não se pode falar em violação da LGPD.”