*Por Ulisses Rabaneda
Vivemos uma era em que a velocidade das inovações tecnológicas desafia a capacidade de adaptação das instituições. No Poder Judiciário, essa realidade se impõe com intensidade crescente. Ferramentas baseadas em inteligência artificial (IA) já estão disponíveis, oferecendo ganhos relevantes em agilidade, padronização e eficiência. No entanto, como toda tecnologia disruptiva, seu uso traz riscos que não podem ser ignorados — especialmente quando se trata da preservação de direitos fundamentais e da integridade do processo decisório.
Com sensibilidade e visão prospectiva, o Conselho Nacional de Justiça editou recentemente a Resolução nº 615/2025, norma que estabelece diretrizes para o desenvolvimento, uso e governança de soluções baseadas em IA no âmbito do Judiciário. A Resolução não apenas autoriza, mas estimula o uso responsável e ético da inteligência artificial, deixando expresso que a decisão judicial permanece sendo um ato exclusivamente humano. A IA poderá auxiliar, organizar, sugerir caminhos — mas não substituirá o discernimento e a responsabilidade do magistrado, valores que são inegociáveis em um Estado Democrático de Direito.
Essa premissa é fundamental. O texto normativo reconhece a importância da supervisão humana em todas as etapas do ciclo de vida de um sistema de IA (art. 2º, V), reafirma a centralidade da pessoa humana (art. 2º, IV) e veda expressamente o uso de soluções que substituam a autonomia judicial ou promovam classificações discriminatórias (art. 10, I a IV). Com isso, a Resolução oferece um marco de segurança jurídica e proteção de garantias.
É nesse contexto que a IA deve ser compreendida como mais uma ferramenta de assessoramento técnico, tal como ocorreu com a entrada de assessores nos gabinetes para lidar com o volume de processos. Agora, com mais velocidade e capacidade de processamento, a IA poderá auxiliar no exame de padrões decisórios, extração de precedentes, organização de informações complexas — desde que sob controle humano e com total transparência, auditabilidade e contestabilidade, como determina o art. 3º, II da Resolução.
O uso inadequado, porém, pode trazer consequências graves. Já se documentaram situações em que modelos de linguagem generativa “alucinaram” trechos de jurisprudência inexistente, gerando decisões com referências fictícias. Esses riscos tornam evidente a necessidade de capacitação contínua de magistrados e servidores, prevista nos arts. 2º, X e 19, § 1º da Resolução. Saber usar é tão importante quanto ter acesso à tecnologia.
Outro ponto essencial é o respeito à proteção de dados pessoais, aos limites do segredo de justiça e à não discriminação algorítmica — elementos que a Resolução trata de forma detalhada (arts. 5º a 8º). Tais cuidados são indispensáveis para que as ferramentas digitais fortaleçam, e não fragilizem, a confiança social na Justiça.
Em síntese, é preciso caminhar com responsabilidade. O Judiciário brasileiro está diante de um desafio complexo, que exige equilíbrio entre inovação e prudência. A IA não é uma ameaça, mas tampouco é uma panaceia. Seu uso deve ser racional, transparente e sempre subordinado ao controle humano. O avanço tecnológico só será benéfico se estiver a serviço da dignidade, da legalidade e da justiça.
Essa é, a meu ver, a rota mais segura — e também a mais justa — para que a tecnologia fortaleça, e não comprometa, os pilares que sustentam o exercício da jurisdição. O desafio está posto. E sua superação dependerá da capacidade institucional de usar a inteligência artificial sem jamais abdicar da inteligência humana.
*Ulisses Rabaneda é Conselheiro no Conselho Nacional de Justiça (CNJ)