IA no tribunal: os juízes recorrem cada vez mais a algoritmos para orientação de sentenças

Tendências·5 min de leitura
Interior of an American courtroom with judge bench and scales of justice

Quando a juíza Patricia Morales sentenciou um réu em um caso de tráfico de drogas em um tribunal de Phoenix no mês passado, ela fez algo que seria impensável há uma década: ela consultou um sistema de inteligência artificial que analisou milhares de casos semelhantes para recomendar um intervalo de sentenças.

O sistema, desenvolvido por uma empresa chamada JusticeMetrics, é agora usado em tribunais de 14 estados e está no centro de um dos debates mais controversos na justiça criminal americana.

Como funcionam as ferramentas de sentenças de IA

Plataformas de sentenças baseadas em IA, como JusticeMetrics e seu concorrente, Equitas AI, usam modelos de aprendizado de máquina treinados em milhões de registros judiciais para avaliar o risco de reincidência de um réu e sugerir intervalos de sentenças com base em casos comparáveis. Os sistemas analisam variáveis, incluindo a natureza do crime, antecedentes criminais, idade, situação profissional e outros fatores.

Os proponentes argumentam que essas ferramentas trazem consistência e rigor baseado em dados a um processo que historicamente tem sido sujeito a ampla discricionariedade judicial e, em muitos casos, a preconceitos demonstráveis. Estudos têm mostrado repetidamente que juízes humanos impõem sentenças mais duras antes do almoço, às segundas-feiras e depois da derrota do time esportivo local – padrões que sugerem que a sentença pode ser influenciada por fatores totalmente alheios ao caso em questão.

"Nenhum algoritmo é perfeito, mas a linha de base que ele está substituindo - a intuição humana - é profundamente falha", disse o Dr. Alan Xu, cientista da computação da Universidade de Stanford, que presta consultoria para a JusticeMetrics. "Essas ferramentas não substituem os juízes. Elas fornecem aos juízes um ponto de referência baseado em dados, e não em intuição."

O problema do preconceito

Os críticos afirmam que as ferramentas de condenação por IA correm o risco de codificar e amplificar os próprios preconceitos que pretendem eliminar. Como os modelos são treinados em dados históricos dos tribunais, eles inevitavelmente absorvem padrões de disparidade racial e socioeconômica que estão embutidos no sistema de justiça criminal.

Uma auditoria de 2025 realizada pelo Brennan Center for Justice descobriu que réus de códigos postais predominantemente negros e latinos receberam pontuações de risco mais altas da JusticeMetrics, mesmo depois de controlar o tipo de crime e o histórico criminal. A disparidade foi modesta – cerca de 8% – mas as organizações de direitos civis dizem que qualquer variação racialmente correlacionada nas recomendações de sentenças é inaceitável.

"Você não pode treinar um algoritmo em um sistema tendencioso e esperar que ele produza resultados justos", disse Keisha Roberts, diretora do Projeto de Reforma da Justiça Criminal da ACLU. “Essas ferramentas eliminam preconceitos através de um verniz de objetividade tecnológica, e isso as torna mais perigosas, e não menos.”

A JusticeMetrics contestou a metodologia da auditoria, argumentando que o Centro Brennan não levou em conta diversas variáveis que o algoritmo considera. A empresa também apontou para seus próprios testes internos, que mostram que o sistema reduz a disparidade racial nas sentenças em comparação com jurisdições que não usam ferramentas de IA.

Aumentam os desafios jurídicos

O uso da IA nas sentenças enfrenta desafios legais em vários estados. Em Ohio, uma defensora pública apresentou uma moção argumentando que o direito da Sexta Emenda do seu cliente de confrontar as provas contra ele foi violado porque a lógica interna do sistema de IA é proprietária e não pode ser examinada pela defesa.

"Meu cliente foi condenado com base em parte em uma recomendação gerada por uma caixa preta", disse a advogada Diane Kowalski aos repórteres. "Ele não tem como entender por que o algoritmo o pontuou daquela maneira, e o juiz também não."

O caso, agora perante o Tribunal de Apelações de Ohio, pode estabelecer um precedente para determinar se as ferramentas de sentença de IA devem ser totalmente transparentes para satisfazer os requisitos constitucionais do devido processo. Os juristas esperam que a questão chegue eventualmente ao Supremo Tribunal.

Os juízes permanecem divididos

Entre os próprios juízes, as opiniões estão divididas. Alguns acolhem as ferramentas como um complemento valioso ao seu próprio julgamento. A juíza Morales, de Phoenix, disse que as recomendações da IA a ajudam a "verificar minhas próprias suposições" e a garantir a consistência em todo o tribunal.

Outros estão céticos. O juiz Franklin Hayes, do condado de Cook, Illinois, que se recusou a usar ferramentas de sentença de IA, alertou que a dependência excessiva de algoritmos poderia corroer a natureza fundamentalmente humana da justiça.

"A sentença não é um problema de matemática", disse o juiz Hayes em uma entrevista recente. "Isso requer empatia, contexto e julgamento moral - coisas que nenhum algoritmo pode replicar. Preocupo-me que os juízes comecem a obedecer à máquina em vez de fazer o trabalho árduo de avaliar cada caso de acordo com seus próprios méritos."

O caminho a seguir

Apesar da controvérsia, a tendência parece estar se acelerando. Vários estados estão considerando legislação que exigiria o uso de avaliações de risco de IA em determinadas categorias de casos, enquanto outros estão proibindo ou restringindo a tecnologia.

O Centro Nacional de Tribunais Estaduais pediu o desenvolvimento de padrões uniformes que regem o uso de IA nos tribunais, incluindo requisitos de transparência algorítmica, auditorias regulares de parcialidade e diretrizes claras especificando que as recomendações de IA são consultivas e não determinantes.

À medida que o debate continua, uma coisa é certa: a intersecção da inteligência artificial e da justiça criminal será uma das questões jurídicas definidoras desta década. A forma como os tribunais resolverão isso moldará o significado de justiça na América para as gerações futuras.

Partilhar

Artigos Relacionados