João Batista Dallapiccola Sampaio – “O uso inadequado da inteligência artificial”

As decisões judiciais e seus impactos na qualidade da prestação jurisdicional

A chegada da inteligência artificial ao Poder Judiciário foi recebida como solução para nossos gargalos históricos. Produtividade em alta. Eficiência sem precedentes. Padronização. Numericamente, parece sucesso. Mas a prática jurídica revela uma verdade incômoda: quando usada inadequadamente, a IA não moderniza o Judiciário, o maltrata e o torna superficial.

A pressão por números é implacável. O aumento quantitativo é real, mas quem atua nos tribunais sabe que qualidade não acompanha quantidade.

Decisões que não enfrentam os fatos. Despachos que ignoram as teses centrais. Fundamentações genéricas que copiam e colam argumentos sem perceber que negligenciam a documentação específica do caso. Esse padrão é observável e prejudica a prestação jurisdicional. O custo real dessa aceleração não é imediato. É o embargo de declaração que poderia ter sido evitado. É o agravo que retorna com razão. É o recurso que reforma tudo. Em vez de economia, há multiplicação de trabalho. Os autos retornam para novas análises. O processo que deveria ser rápido se transforma em ciclo de retrabalho.

A Constituição Federal e o Código de Processo Civil exigem que cada decisão seja fundamentada, individualizada e conectada aos fatos e às provas apresentadas. Não é capricho. É segurança jurídica. O que se observa na prática é diferente. Decisões que parecem montadas por algoritmo revelam parágrafos genéricos, citações padronizadas e conclusões pré-fabricadas.

Quando a decisão é tratada como número na conta de produtividade do mês, a confiança no Judiciário dissolve lentamente, caso a caso. A instituição perde o crédito que levou séculos para construir.

A IA é excelente para tarefas específicas. Pesquisar jurisprudências, organizar linhas do tempo processuais, identificar precedentes relevantes, indexar peças, preparar minutas de apoio como ponto de partida para análise humana entre outros.

Mas decidir casos complexos com provas conflitantes e argumentos nuançados exigem sensibilidade humana, experiência contextual e prudência que máquinas não possuem. A IA não consegue avaliar credibilidade de testemunhas. Não compreende sutilezas de laudos periciais contraditórios. Não sente o peso que diferentes provas têm em contextos diferentes.

Ela organiza, resume e padroniza. Mas não julga.

Quando magistrados e seus servidores usam IA para substituir a reflexão, em vez de apoiá-la, cometem falha grave: imaginar que há algo automático na justiça.

O impacto de fundamentação inadequada é humano, não abstrato. É o cliente que não entende por que perdeu. É o advogado que quer recorrer mas sente que a decisão nem foi lida. É a parte que perde confiança não apenas no seu caso, mas no sistema como um todo.

Multiplicado por centenas de milhares de decisões ao ano, é abalo estrutural na segurança jurídica. A consequência não aparece em gráficos de produtividade. Aparece nas ruas: em pessoas que desistem de buscar justiça, em instituições que perdem credibilidade, em um tecido social onde a confiança nas instituições se torna escassa.

A IA não é inimiga da justiça. É ferramenta extraordinária quando usada com propósito. Magistrados bem capacitados devem usar IA para potencializar seu trabalho: pesquisar precedentes em segundos, consolidar jurisprudência de tribunais superiores, preparar minutas de apoio como ponto de partida para análise pessoal e contextualizada.

É fundamental que magistrados e seus servidores recebam treinamento sério e contínuo sobre o que essas ferramentas podem fazer e, especialmente, o que elas não podem fazer. A diferença entre ferramenta bem usada e ferramenta que prejudica a justiça está nesse espaço de conhecimento.

A tecnologia deve servir à justiça. Nunca o contrário.

A IA pode tornar o Judiciário mais rápido, mais acessível, reduzir filas e agilizar rotinas. Mas se isso significar sacrificar a qualidade das decisões, a atenção ao caso concreto e a responsabilidade pessoal do julgador, então perde-se tudo. Não adianta ser rápido se for injusto.

O Judiciário brasileiro merece pacto claro: a IA é aliada, não substituta. Ela organiza, pesquisa, consolida, prepara. Mas a decisão, aquele momento crítico onde a lei encontra a vida real, permanece como responsabilidade exclusiva do ser humano. Precisamos que magistrados recebam treinamento sério. Precisamos de supervisão e critério. Precisamos de culturas institucionais que valorizem qualidade sobre quantidade, mesmo que signifique julgar menos casos, mas julgá-los bem.

A modernização que o Judiciário precisa não é aquela que o torna mais parecido com máquina, mas aquela que o torna mais eficiente sem deixar de ser humano.

*Escrito em conjunto pelos advogados João Batista Dallapiccola Sampaio e Rogério Nunes Romano.

sobre nós

Diretor de conteúdo – Eduardo Caliman

Jornalista formado pela Ufes (1995), com Master em Jornalismo para Editores pelo CEU/Universidade de Navarra – Espanha. Iniciou a carreira em A Tribuna e depois atuou por 21 anos em A Gazeta, como repórter, editor de Política, coordenador de Reportagens Especiais e editor-executivo. Foi também presidente do Diário Oficial, subsecretário de Comunicação do ES e, de 2018 a 2024, coordenador de comunicação institucional no sistema OAB-ES/CAAES.

compromisso e propósito

O NewsEspíritoSanto nasceu com compromisso de levar informação precisa, relevante e independente para os capixabas. Nosso propósito é ser uma fonte confiável para quem busca entender os acontecimentos do Estado, valorizando a transparência, a ética e a pluralidade.

contato

E-mail:

contato@newsespiritosanto.com.br

WhatsApp:

27 999204119

Participe do conteúdo do News ES: encaminhe a sua sugestão de pauta para o nosso e-mail.