Inteligência Artificial e Direito - Ed. 2020

Novas Tecnologias, Velhas Discriminações: Ou da Falta de Reflexão Sobre o Sistema de Algoritmos na Justiça Criminal

Entre no Jusbrasil para imprimir o conteúdo do Jusbrasil

Acesse: https://www.jusbrasil.com.br/cadastro

Autor:

Victoria de Sulocki

No primeiro semestre do ano de 2018, o Supremo Tribunal Federal anunciou o desenvolvimento de projeto de Inteligência Artificial, em parceria com a Universidade de Brasília – UnB, batizado de VICTOR, em homenagem ao Ministro Victor Nunes Leal (Ministro de 1960/1969). 1 Após esse primeiro anúncio, ao longo do ano de 2018, foram veiculadas várias outras matérias acerca do progresso na construção das redes neurais da ferramenta para rastrear, nos processos, os temas de repercussão geral, agrupar os processos relacionados entre si pelo tema, além de indicar ao Ministro Presidente da Corte os processos para fins de devolução do recurso à origem, ou sua rejeição 2 .

Tratou-se de um primeiro passo para a implementação de ferramentas de Inteligência Artificial no Poder Judiciário brasileiro e que, pelas palavras do atual Presidente da mais alta Corte do País, Ministro Dias Toffoli 3 , deve ser replicada em todos os âmbitos da Magistratura, ou seja, nos Tribunais Regionais Federais, nos Tribunais de Justiça Estaduais, nos Tribunais Regionais do Trabalho e demais Justiças.

Em setembro de 2019, o Supremo Tribunal Federal lançou um edital com vistas à contratação de soluções tecnológicas de busca e indexação inteligente, no qual alguns itens eram especialmente exigidos, tais como solução de busca inteligente de jurisprudência, solução inteligente de indexação de acórdãos e decisões, ou ainda, solução para identificação automática de agrupamento de textos segundo seus temas. Em notícia disponível no portal do Supremo Tribunal Federal, informa-se que o objetivo da contratação seria a “dar integração plena entre os diversos sistemas processuais eletrônicos existentes e os sistemas do STF e do STJ, uniformizando os juízos de admissibilidade, reduzindo o tempo de tramitação processual, permitindo o maior aproveitamento dos recursos humanos e materiais de todos os tribunais brasileiros e aprimorando o monitoramento nacional de causas de grande impacto que dependam da atuação do STF ou do STJ”. 4 E ainda, integrar, através de ferramentas de inteligência artificial, em um ambiente único, o protocolo de recursos e petições aos Tribunais Superiores, Supremo Tribunal Federal e ao Superior Tribunal de Justiça, sendo um dos objetivos a automação de etapas meramente burocráticas da tramitação de recursos que demandam, segundo a notícia veiculada, a atuação direta de juízes e servidores, e permitiria que estes dedicassem “o seu tempo à efetiva análise jurídica das razões das partes”. Conforme a própria notícia acima veiculada no portal do Supremo Tribunal Federal, a Fundação CERTI teria sido a selecionada dentre as mais de vinte instituições consultadas. 5

É de se referir ainda as ferramentas RADAR e ELIS, a primeira do Tribunal de Justiça de Minas Gerais, capaz de viabilizar o julgamento de 280 processos em menos de um segundo e a segunda do Tribunal de Justiça do Estado de Pernambuco, usada para dar agilidade à tramitação de milhares de execuções no âmbito estadual 6 .

Embora em todas as manifestações dos atores públicos implicados no projeto VICTOR, do Supremo Tribunal Federal, e atualmente no projeto de desenvolvimento de ferramentas de inteligência artificial da Fundação Centros de Referência em Tecnologia Inovadoras – CERTI, sejam no sentido de ressalvar que as ferramentas de IA não serão usadas para tomada das decisões, nem nos julgamentos de mérito dos processos, diante do crescimento exponencial das Ciências Cognitivas e da Ciência de Dados – Data Science –, e do enorme impacto da IA 7 no trabalho, sobretudo em ganho de tempo 8 , não há garantias de que, no futuro próximo, as ferramentas de IA não venham a ser usadas nas tomadas de decisões judiciais, como já ocorre em alguns países, notadamente E.U.A. e Canadá, sobretudo no campo mais sensível do Direito, que diz respeito à liberdade da pessoa, o da Justiça Criminal.

Para efeito destas breves linhas, iremos inicialmente relatar a experiência dos Estados Unidos com o uso de Inteligência Artificial na Justiça Criminal, a forma de implementação e uso das ferramentas de IA, sua ainda precária validação com pouca clareza em relação aos algoritmos implementados, e os efeitos dramáticos na realidade do uso dessas ferramentas, para então relacioná-la aos discursos de Defesa Social, centrados nas ideias de periculosidade e risco à sociedade, típicos, de um lado, do cientificismo criminológico do século XIX, e de outro, da lógica econômica – custo/benefício – do que se denomina de criminologia atuarial.

As ferramentas de Inteligência Artificial são usadas, no Sistema Criminal Norte Americano, no que se convencionou chamar de evidence-based practices, ou ainda de risk assessment practices, informando aos julgadores acerca dos potenciais riscos futuros de pessoas submetidas ao Sistema, seja para efeito de dosimetria da pena, fixação de regimes de cumprimento, execução de penas, além de liberdade condicional, prisões provisórias, ou até mesmo para tomada de decisão acerca de pena diversa da prisional.

Assim, submetidos os dados da pessoa a ser avaliada ao (s) programa (s) 9 de IA, que calculará, segundo os algoritmos nele implementados, o risco que tal indivíduo traz à sociedade, os profissionais envolvidos (Juízes, Agentes penitenciários, Agentes de probation, Psicólogos, etc) acessam, em geral por um link ao qual tenham autorização de acesso, o score obtido na avaliação. “Essas ferramentas são baseadas em métodos atuariais de avaliação de riscos e orientam o processo de decisão dos julgadores a partir de análises probabilísticas do potencial de reincidência do acusado, e mesmo de sua periculosidade social (presumidamente aferido por dados da experiência, portanto evidence-based).” 10

Ou seja, o evidence-based system é um modelo científico, de cálculo matemático, pelos algoritmos implantados, realizado com os dados pessoais do indivíduo examinado, com vistas à liberdade condicional, suspensão do processo, possibilidade de pena restritiva de direito, mas também sobre prisão provisória, duração da pena prisional, regime de cumprimento de pena prisional, submissão a “tratamentos” psiquiátricos, dentro outras medidas de controle penal.

O uso das ferramentas de IA teve como justificativa a situação caótica, além de muito custosa para o Estado, do processo de encarceramento em massa nos E.U.A., incrementado com a política de “guerra às drogas”, a partir dos anos 70, voltada, sobretudo, para o controle penal da juventude negra e pobre dos E.U.A. 11 , também tendo como incremento o grande número de reincidências, aumentando as estatísticas acerca da criminalidade. Desta forma, como parte de um esforço para reduzir o alto nível de reincidência e melhorar os índices de segurança pública, com o viés na Defesa Social, mas, sobretudo, com o intuito de diminuir os gastos públicos com o sistema criminal, as políticas criminais voltaram-se para o uso dos programas de Inteligência Artificial 12 .

A ideia do sistema de justiça criminal se valer das ferramentas de IA tinha por escopo desafogar o sistema prisional, reservando a segregação, até mesmo por um tempo maior do que o proporcional ao delito cometido, aos acusados e condenados considerados mais “perigosos”, enquanto outros poderiam ter penas menores, ou mesmo penas alternativas à prisão, uma vez que seus scores apontassem para um baixo risco.

Se o objetivo da aplicação das ferramentas era, a princípio, de uma maior eficácia na política de descarcerização, consequentemente, na diminuição dos custos do sistema prisional e de toda Justiça Criminal, na prática, seu uso só aprofundou a discriminação e a seletividade do sistema, transformando-se em instrumento que afasta o devido processo legal e a possibilidade de um julgamento justo; o que ensejou legítimas preocupações sobre a confiabilidade e (im) parcialidade dessas ferramentas.

“This century’s automated decision making systems combine individual adjudications with rulemaking while adhering to the procedural safeguards of neither. Automated systems jeopardize due process norms. Hearings are devalued by the lack of meaningful notice and by the hearing officer’s tendency to presume a computer system’s infallibility. The Mathews v. Eldridge cost-benefit analysis is ill-equipped to compare the high fixed cost of deciphering a computer system’s logic with the accumulating variable benefit of correcting myriad inaccurate decisions made based on this logic.” 13

No campo da Justiça Criminal, a ideia de infalibilidade dos softwares de risk assessments tem recebido diversas e duras críticas, uma vez que, em relação às pessoas, com toda sua subjetividade, capacidade de transformação ao longo da vida, experiências concretas, é impossível a obtenção de avaliação de risco pessoal com...

Uma experiência inovadora de pesquisa jurídica em doutrina, a um clique e em um só lugar.

No Jusbrasil Doutrina você acessa o acervo da Revista dos Tribunais e busca rapidamente o conteúdo que precisa, dentro de cada obra.

  • 3 acessos grátis às seções de obras.
  • Busca por conteúdo dentro das obras.
Ilustração de computador e livro
jusbrasil.com.br
19 de Janeiro de 2022
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1196969675/novas-tecnologias-velhas-discriminacoes-ou-da-falta-de-reflexao-sobre-o-sistema-de-algoritmos-na-justica-criminal-inteligencia-artificial-e-direito-ed-2020