Distribuição dos processos: o algoritmo sob suspeita
Quarta-feira, 10 de abril de 2019

Distribuição dos processos: o algoritmo sob suspeita

A expressão “era da inteligência artificial” é uma figura de linguagem que corresponde mais à ideia de enunciação da tensão entre o presente e o futuro, do que a um período temporal propriamente dito. Isto porque, a problematização vislumbrada se desenvolve no tempo presente.

Embora máquinas pensantes (thinking machines) não sejam uma novidade recente, sua massiva utilização no campo jurídico se apresenta como uma situação real e irrefreável. E, portanto, necessita ser refletida e examinada. Este artigo não objetiva abarcar toda a extensão que envolve as questões ligadas à inteligência artificial, ao contrário, trata-se das primeiras linhas de um esforço maior de pesquisa ainda em fase de elaboração.

De longa data se fala acerca de robôs automatizados, dos “motores de busca” na rede mundial de computadores, do reconhecimento facial, dos recursos de tradução simultâneas para distintos idiomas, entre outras possibilidades. Atualmente, fala-se com relativa frequência na internet das coisas, big data, redes neurais, além das mais variadas formas de utilização para a análise e o processamento dos dados.

Contíguo a isso, cresce no inconsciente coletivo a sensação de que os mecanismos aportados pela inteligência artificial são dotados de uma objetividade nunca antes alcançada. Este artigo caminha na direção contrária.

Primeiro, porque estes recursos são criações humanas, como o próprio nome adianta, são artificialidades que precisam ser alimentadas com dados e programações específicas para que desempenhem determinada função. Segundo, porque suas faculdades sobre-humanas dependem do crucial juízo humano [1].

Implica, portanto, comprometer-se com dimensões éticas não delegáveis aos planos virtual ou objetivo puro, logo, questões axiológicas envolvem e dependem da interpretação humana. Inclusive existem autores que “contemplam a possibilidade de que no futuro algum sistema de inteligência artificial possa ser candidato ao status moral.”[2]

Em consideração aos progressos tecnológicos, parece acertado supor tal possibilidade num futuro próximo. Ainda mais, quando se observa a possibilidade de que esse tipo de sistema “também tenha a sapiência de um tipo similar que um ser humano adulto ‘normal’, ele deve possuir um estado moral completo equivalente ao do ser humano.”[3]

Nesse cenário, sistemas se automatizam e tomam decisões morais, sem, contudo, que estas relações estejam suficientemente explicadas ou refletidas. Isto sem mencionar os dilemas éticos que se entrecruzam a todo momento, quer dizer, então, que manifestações de injustiças podem ser perpetuadas de modo acrítico e autômato.

Métodos e processos de inteligência artificial certamente não serão responsáveis por criar manifestações de racismo, xenofobia, misoginia e preconceitos de toda ordem, mas, de outra sorte, serão corresponsáveis pela continuidade ou pelo agravamento de tais situações.

Numa perspectiva crítica, tem-se que a “ameaça de uma mente artificial é justamente do mesmo modo que uma ameaça qualitativamente identificada por uma mente humana em situação similar.”[4] Dito de outro modo, o lendário objetivismo não será alcançado nem mesmo com os recursos da inteligência artificial, cujos dados e procedimentos podem estar enviesados de antemão.

O ponto a ser explorado na próxima seção consiste no argumento de que os algoritmos por si só não são éticos, ou ao contrário, cabe voltar as atenções para os dados que alimentam o sistema de informações sobre o qual se aplicam os mecanismos de inteligência artificial.

Assim, parece eticamente acertada a exigência de acompanhamento, externo e interno, e de acountability. E, em certas hipóteses (que precisam ser previstas e disciplinadas), existir a possibilidade de modificação da decisão automatizada pela humana, para satisfazer princípios basilares de justiça, como é o caso da não discriminação, por exemplo.

Distribuição dos processos: o algoritmo do Supremo Tribunal Federal sob suspeita

Transparência e celeridade, dos atos jurisdicionais, são exigências inafastáveis do Estado democrático de direito. Enquanto direitos fundamentais, ambos decorrem da Constituição da República de 1988.

Não por acaso, pairam desconfianças sobre a administração da justiça, dentre muitas coisas relevantes destaca-se a questão da distribuição dos processos judiciais. Vale dizer, a Lei n. 13.105/2015, dispõe no art. 284, que os processos serão distribuídos onde houver mais de um magistrado, além disso, o art. 285, possibilita a distribuição eletrônica que além de ser aleatória, deverá obedecer a rigorosa igualdade.[5]

Tais disposições tratam de garantias fundamentais que compõem as exigências do devido processo legal e da imparcialidade judicial, como componentes da legitimidade do Judiciário. Especificamente no que toca ao Supremo Tribunal Federal (STF), a distribuição “por sorteio ou prevenção, mediante sistema informatizado, acionado automaticamente, em cada classe de processo” está prevista no Regimento Interno do Supremo Tribunal Federal (RISTF) em seu art. 66.[6]

No entanto, o fato mais relevante consiste na possibilidade atribuída pelo parágrafo primeiro do citado artigo regimental, a saber: “O sistema informatizado de distribuição automática e aleatória de processos é público, e seus dados são acessíveis aos interessados.”[7]

Diante das polêmicas envolvendo a distribuição dos processos no âmbito do STF e da possibilidade prevista pelo RISTF, recentemente foi realizada auditoria externa no sistema de distribuição dos processos, que por sua vez, determinam a controversa figura do(a) relator(a) do processo.

Conforme a íntegra do parecer, publicado no Diário de Justiça Eletrônico n. 193/2018, dos pesquisadores da Universidade de Brasília (UnB), o relatório identificou fragilidades ou lacunas no sistema. Todavia, a impossibilidade de se “esgotar o trabalho a ponto de atestar ‘a confiabilidade da solução de distribuição automática de processos do STF’. Isso não significa que o sistema não seja confiável.”[8]

Além disso, o parecer informa que modelo de distribuição individual dos processos fragiliza o sistema, à medida que o torna mais suscetível a manipulação no resultado do sorteio. Existem mecanismos de compensação para tornar a distribuição dos processos igualitária, contudo, envolve um conjunto de variáveis que complexificam ainda mais a questão.

Diante disso, surgiram algumas recomendações (i) jurídicas, (ii) de governança e (iii) tecnológicas. Dentre as quais se destaca, respectivamente, (i) a alteração da regra que prevê a competência da Presidência do STF, para medidas urgentes; (ii) documentação dos procedimentos; (iii) registros e certidões referentes à distribuição, ambos disponíveis para download.

Com este exemplo, demonstra-se que apesar dos avanços tecnológicos e jurídicos a transparência, assim como os temas de direcionamento ético são construídos em pequenas doses. Ademais, corrobora que por mais intrincados que possam ser os algoritmos, os códigos-fonte etc. ainda haverá margem para uma certa dose de discricionariedade.

Atos processuais e decisão judicial na era da inteligência artificial

Antevendo críticas que certamente virão, cabe ponderar que assim como os algoritmos não contemplam a totalidade da inteligência artificial, os mecanismos eletrônicos para a distribuição dos processos não abrangem, por completo, as suas formas de utilização nos processos judiciais.

Deste modo, num plano ainda de prognóstico e de cunho informativo, admite-se que os dados que entram (input) no estabelecimento dos algoritmos podem ser discutíveis, mas, também, admitem associações indiretas que não necessariamente foram levadas em consideração quando da elaboração da auditoria. Pelo menos, conforme os documentos que se tomou conhecimento.

Em larga medida, afirma-se que apesar de algumas questões permanecerem irrespondíveis os recursos disponíveis pela inteligência artificial empregados nos processos judiciais seguem a todo vapor. Isto porque já existem robôs atuando nos Estados do Rio Grande do Norte (Poti, Jerimum e Clara), Minas Gerais (Radar) e Rondônia (Sinapse), atuando em demandas judiciais de cobrança de tributos e execuções fiscais.[9]

Além disso, cerca de treze tribunais brasileiros, dentre os quais se incluem o STF, utilizam algum tipo de robô nas tarefas jurisdicionais. Muitos em fase de teste é verdade, mas, o que causa perplexidade é o fato de que são utilizados desde trabalhos repetitivos até a leitura de peças processuais e inclusive a formulação de minutas de decisões judiciais.

Há alguns benefícios que já podem ser identificados como a agilidade e a precisão dos procedimentos judiciais para a penhora de dinheiro em depósito ou em aplicação financeira, por meio de sistema eletrônico, nos termos do art. 854, Lei n. 13.105/2015. Inclusive o Conselho Nacional de Justiça (CNJ) criou o centro de inteligência artificial aplicada ao processo judicial eletrônico.[10]

É preciso reforçar que não se trata de um saudosismo, traduzido pelo apego aos métodos tradicionais de cognição e julgamento. Sabidamente problemáticos seja pela morosidade (em parte pela carga expressiva de ações judiciais), seja pelos vieses cognitivos que permeiam a atividade decisória.

Não obstante, o ponto central consiste na necessidade de reflexão e de harmonização da celeridade com a observância de direitos e de garantias fundamentais. Igualmente considerar os avanços da inteligência artificial, sobretudo nos processos repetitivos, com as obrigações legais e morais do exercício da jurisdição.

Dito de outra maneira, implica lançar mão dos recursos tecnológicos, submetidos ao atendimento das necessidades humanas, sob pena de tornar as pessoas jurisdicionadas subordinadas à inteligência artificial e o processo judicial. Sem dúvida, um grave equívoco.

Do exposto, tem-se a impossibilidade de considerar a inteligência artificial, em geral, e nos algoritmos, em particular, como o “santo graal” da objetividade e da completa isenção. Pois, estão sujeitos a serem utilizados como veículos de preconceitos existentes nas sociedades complexas e desiguais.

Ao lado dos riscos, deve-se reconhecer os avanços proporcionados pela inteligência artificial ao processo judicial e, assim mesmo, reconhecer que ainda há muito por fazer. Tudo leva a crer que a insegurança no resultado, provocada também pela subjetividade daquele(a) que insere os dados ou paradigmas de confirmação nos sistemas, continua a ser uma variável independente dos avanços na inteligência artificial.

 

Wagner Vinicius de Oliveira é doutorando em direito pela Faculdade Nacional de Direito – Universidade Federal do Rio de Janeiro – FND/UFRJ, mestre em direito pela Universidade Federal de Uberlândia – UFU (2018), bacharel em direito pela Pontifícia Universidade Católica de Minas Gerais – PUC Minas (2016), advogado.

 

Leia mais:


O Justificando não cobra, cobrou, ou pretende cobrar dos seus leitores pelo acesso aos seus conteúdos, mas temos uma equipe e estrutura que precisa de recursos para se manter. Como uma forma de incentivar a produção de conteúdo crítico progressista e agradar o nosso público, nós criamos a Pandora, com cursos mensais por um preço super acessível (R$ 19,90/mês).

Assinando o plano +MaisJustificando, você tem acesso integral aos cursos Pandora e ainda incentiva a nossa redação a continuar fazendo a diferença na cobertura jornalística nacional.

[EU QUERO APOIAR +MaisJustificando]

________________
[1] BODEN, Margaret A. Inteligencia artificial. Traducción de Inmaculada Pérez Parra. Madrid: Turner, 2016, p. 75.
[2] No original: “[c]ontemplate the possibility that some future AI systems might be candidates for having moral status.” BOSTROM, Nick; YUDKOWSKY, Eliezer. The ethics of artificial intelligence. In: FRANKISH, Keith; RAMSEY, William (Eds.). Cambridge handbook of artificial intelligence. Cambridge: Cambridge University Press, 2011, p. 06.
[3] No original: “[also] has sapience of a kind similar to that of a normal human adult, then it would have full moral status, equivalent to that of human beings.” BOSTROM, Nick; YUDKOWSKY, Eliezer. The ethics of artificial intelligence. In: FRANKISH, Keith; RAMSEY, William (Eds.). Cambridge handbook of artificial intelligence. Cambridge: Cambridge University Press, 2011, p. 07-08.
[4] No original: “[we] ought to treat an artificial mind in just the same way as we ought to treat a qualitatively identical natural human mind in a similar situation.” BOSTROM, Nick; YUDKOWSKY, Eliezer. The ethics of artificial intelligence. In: FRANKISH, Keith; RAMSEY, William (Eds.). Cambridge handbook of artificial intelligence. Cambridge: Cambridge University Press, 2011, p. 09.
[5] BRASIL. Código de processo civil. In: CÉSPEDES, Lívia; ROCHA, Fabiana Dias da. (Colab.). Vade mecum. 22. ed. atual. E ampl. São Paulo: Saraiva, 2016. p. 353-499.
[6] BRASIL. Supremo Tribunal Federal. Regimento Interno [atualizado até outubro de 2018]. Brasília: STF, 2018.
[7] BRASIL. Supremo Tribunal Federal. Regimento Interno [atualizado até outubro de 2018]. Brasília: STF, 2018.
[8] BRASIL. Supremo Tribunal Federal. Parecer sobre o sistema de distribuição do STF. Diário de Justiça Eletrônico n. 193/2018. Brasília: 13 de setembro de 2018.
[9] BAETA, Zínia. Tribunais investem em robôs para reduzir volume de ações. Jornal Valor Econômico, São Paulo: 18, março de 2019, n.p. (Legislação e tributos).
[10] BAETA, Zínia. Tribunais investem em robôs para reduzir volume de ações. Jornal Valor Econômico, São Paulo: 18, março de 2019, n.p. (Legislação e tributos).

Quarta-feira, 10 de abril de 2019
Anuncie

Apoiadores
Seja um apoiador

Aproximadamente 1.5 milhões de visualizações mensais e mais de 175 mil curtidas no Facebook.

CONTATO

Justificando Conteúdo Cultural LTDA-EPP

[email protected]

Send this to a friend