O Convergência Digital estará em recesso entre os dias 20/12 e 07/01. A cobertura jornalística diária nesse período funcionará em regime de plantão. A equipe do portal deseja a todos os seus leitores e parceiros um ótimo Natal e um feliz 2026!

Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
GovernoSegurança

Reconhecimento facial, IA e câmeras corporais avançam sem critério ou transparência na polícia, MP e Justiça

Relatório Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal aponta para mau uso e fragilidade probatória.

Ferramentas de inteligência artificial, reconhecimento facial e câmeras corporais avançam na rotina de investigações e processos criminais no Brasil sem critérios ou transparência e com riscos a direitos fundamentais. A conclusão é do relatório Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal, produzido pelo Centro de Estudos de Segurança e Cidadania, Cesec, parte do projeto O Panóptico.

O levantamento analisa como essas tecnologias estão sendo incorporadas por polícias, Ministérios Públicos e tribunais, muitas vezes sem registro formal ou critérios de governança. E aponta para as fragilidades técnicas e processuais que agravam a recorrência de erros e vieses algorítmicos. O relatório cita estudos de 2018, 2021, 2024 e 2025 que indicam maiores taxas de erro em rostos negros, indígenas, femininos e de grupos sub-representados nos conjuntos de treinamento.

Apenas 28,5% das Secretarias de Segurança Pública responderam aos pedidos feitos via Lei de Acesso à Informação sobre o uso dessas tecnologias. Entre as Polícias Civis, dois terços não forneceram qualquer dado. Nos Ministérios Públicos, só três unidades admitiram utilizar sistemas de reconhecimento facial, mas sem detalhar como os resultados são empregados nos procedimentos investigativos. Mesmo onde há indícios de uso frequente, como na comparação de imagens de câmeras de segurança com bases policiais, quase nada é documentado nos autos.

“Entre as Secretarias de Segurança Pública ou correlatas analisadas, 13 afirmam usar reconhecimento facial, 4 negam o uso e 12 não forneceram informação. Já entre as Polícias Civis, 14 declararam empregar a tecnologia, apenas 3 detalham custos ou contratos e quase nenhuma descreve o vínculo entre o sistema e os procedimentos operacionais. No caso dos Ministérios Públicos, o cenário é ainda mais opaco: somente 3 reconhecem o uso de sistemas de reconhecimento facial, enquanto 15 negam e 10 não informam, o que sugere uma presença difusa e pouco institucionalizada da tecnologia na atuação investigativa e processual”, diz o documento.

O relatório interpreta os dados no sentido de que resultados algorítmicos podem influenciar a formação de suspeitos, hipóteses de autoria e pedidos de prisão sem deixar rastro processual e sem possibilidade de contraditório.


O levantamento reforça que os erros e vieses associados ao reconhecimento facial continuam presentes: pessoas negras e mulheres são desproporcionalmente afetadas pelas falhas de correspondência, provocando prisões indevidas. Ao integrar métodos tradicionais com algoritmos sem supervisão, cria-se, segundo o estudo, “uma continuidade ampliada da fragilidade probatória”.

No Judiciário, a expansão é igualmente acelerada. O relatório destaca que tribunais brasileiros usam ao menos 63 sistemas de inteligência artificial, desde modelos para triagem de processos até ferramentas que auxiliam na redação de decisões. No entanto, 76% dos magistrados e servidores utilizam plataformas privadas, como ChatGPT e Copilot, para elaborar documentos judiciais, frequentemente sem informar ao juiz responsável, o que transfere dados sensíveis para empresas estrangeiras.

Embora o Conselho Nacional de Justiça tenha publicado, em 2025, uma resolução para regular o uso de IA, o CESeC aponta que ainda faltam mecanismos de auditoria independente, critérios claros de responsabilização e padronização mínima entre tribunais.

Câmeras corporais

No caso das câmeras corporais, o relatório avalia que a eficácia como instrumento de transparência, controle e responsabilização da ação policial depende menos da tecnologia e mais do ecossistema político, jurídico e institucional.

“Quando acompanhadas de protocolos de acionamento automático, preservação da cadeia de custódia e acesso isonômico às imagens, essas tecnologias podem fortalecer o controle externo da atividade policial. Contudo, em contextos de baixa governança e da manutenção do controle interno das gravações apenas pelas próprias corporações, tornam-se frágeis como mecanismos de accountability e questionáveis quanto têm a seu potencial probatório reduzido. A ausência, a má custódia ou a interpretação enviesada das imagens não devem podem ser tratadas como contingências técnicas, mas como falhas processuais que carecem de devem ser entendidas em favor da defesa, conforme os princípios do devido processo legal.”

Botão Voltar ao topo