Há alguns meses escrevi um texto sobre um sistema de inteligência artificial capaz de avaliar a probabilidade de condenados voltarem a praticar novos crimes (reincidência). Chamada COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), a ferramenta teria sido usada pela primeira vez em 2013, no estado de Wisconsin (EUA).
Na ocasião, ao sentenciar um homem chamado Eric Loomis, o magistrado responsável pelo caso fundamentou a condenação com base no “alto risco de reincidência” sugerido pelo sistema COMPAS. Inconformado, Loomis decorreu da decisão, alegando que não teve acesso às fórmulas matemáticas do software e que, por tal razão, não teve como se defender.
Tanto a Suprema Corte de Wisconsin (em Madison) quanto a Suprema Corte dos Estados Unidos (em Washington, DC) rejeitaram os recursos, demonstrando, em maior ou menor grau, concordar com o uso de algoritmos para fundamentar sentenças condenatórias. Loomis permaneceu preso, sem jamais saber como o COMPAS realmente funcionava.
Sistemas de avaliação de risco
Embora o relato pareça algo próprio de ficção científica, a ProPublica recentemente revelou que sistemas como esse não apenas existem, como são comuns em diversos tribunais estadunidenses. Em síntese, os algoritmos de análise de reincidência são utilizados para orientar juízes sobre como devem julgar os casos criminais que lhe são apresentados.
De acordo com a ProPublica, as pontuações de risco são entregues diretamente aos magistrados antes das decisões, para ajudá-los a julgar quem deve ser preso e quem deve ser libertado. Tal prática acontece em, pelo menos, dez estados norte-americanos: Arizona, Colorado, Delaware, Kentucky, Louisiana, Oklahoma, Virgínia, Washington, Flórida e Wisconsin.
Compreendendo o COMPAS
Para entender como funciona o COMPAS, a ProPublica analisou mais de 10 mil pontuações de riscos por ele atribuídas a pessoas presas no condado de Broward, na Flórida. Em resumo, a empresa de jornalismo independente comparou as taxas de reincidência sugeridas pelo software com os crimes praticados (ou não), dentro de um período de dois anos.
A análise concluiu que os algoritmos são enviesados e há “disparidades raciais significativas”. No item “risco de reincidência” [não violenta], os réus negros foram classificados como sendo 45% mais propensos a reincidir do que réus brancos. Já no “risco de reincidência violenta”, o número foi maior: 77% mais propensos a praticar novos crimes violentos.
Risco de reincidência [não violenta]
Em resumo, o gráfico a seguir demonstra que, no item “risco de reincidência” [não violenta], as pontuações foram mais altas quando os réus eram negros (no sistema COMPAS, quanto maior o score, maior o risco de reincidência). No geral, os réus brancos receberam pontuações menores do que réus negros:
Risco de reincidência violenta
Já no item “risco de reincidência violenta”, aliás, a análise também concluiu ter havido disparidades raciais. Conforme a análise da ProPublica, os réus negros também receberam aqui pontuações maiores do que réus brancos:
A idade também em pauta
Além disso, a pesquisa identificou que a idade é um dos fatores que mais elevam o score dos réus. Réus com menos de 25 anos tiveram 2,5 vezes mais chances de obter maior pontuação do que réus entre 40 e 55 anos. Embora negros tenham recebido pontuações mais altas no geral, a probabilidade de incrementar o score aumenta 45% se tiverem menos de 25 anos.
Discriminação algorítmica
A ProPublica disponibilizou todos os resultados da pesquisa na matéria intitulada How we analyzed the COMPAS recidivism algorithm. A equipe de pesquisadores, formada por Jeff Larson, Surya Mattu, Lauren Kirchner e Julia Angwin, também escreveu um segundo artigo (Machine Bias), comparando os vieses dos algoritmos em casos de réus negros e réus brancos.
Quer estar por dentro de tudo que envolve Direito, inovação e novas tecnologias?
Siga-me no Facebook, Instagram e LinkedIn e acompanhe conteúdos diários para se manter atualizado.