IA no Judiciário: guia prático conforme resolução do CNJ

Melissa Cipriano Vanini Tupinambá, advogada especialista em proteção de dados, detalha o que pode e o que não pode no uso da IA.

Tempo de leitura: 5 min

Compartilhar:

Por: Melissa Tupinambá
Imagem: arquivo pessoal e m gerada por IA

Imagem: arquivo pessoal e m gerada por IA

O Conselho Nacional de Justiça aprovou uma resolução que estabelece diretrizes para o uso da Inteligência Artificial no Poder Judiciário. Esta resolução reconhece o potencial transformador da IA enquanto estabelece limites claros para seu uso. Abrange principalmente juízes e servidores, mas seus efeitos influenciarão toda a prática jurídica.

Proteção de dados

Juízes e servidores só poderão utilizar ferramentas de IA que garantam privacidade e segurança das informações. Modelos que utilizam dados dos usuários para treinamento estão proibidos. Processos sigilosos só podem ser submetidos após anonimização.

Categorias de risco

Baixo (permitido)

Aplicações seguras para uso com modelos generativos comerciais como ChatGPT, Claude ou Gemini:

- transformação textual e correções gramaticais

- sumarização e análise descritiva de documentos

- detecção de padrões decisórios (sem caráter conclusivo)

- produção de textos de apoio (com revisão humana)

- auxílios administrativos e classificação

- anonimização de documentos

Alto (restrito)

Aplicações que podem ser desenvolvidas apenas pelo próprio Judiciário com sistemas de controle rigorosos, proibidas para modelos generativos comerciais:

- valoração de provas

- tipificação penal

- juízos conclusivos sobre normas

- quantificação de danos

- perfilamento de pessoas

- identificação biométrica

Excessivo (proibido)

Aplicações absolutamente vedadas para qualquer tipo de IA, seja desenvolvida internamente ou adquirida de fornecedores:

- decisões autônomas sem supervisão humana

- previsão de reincidência baseada em traços de personalidade

- classificação discriminatória

- análise emocional para avaliar veracidade

- substituição do raciocínio judicial

Sobre o uso de IAs generativas 

É fundamental esclarecer que as IAs generativas comerciais (como ChatGPT, Claude, Gemini, etc) NÃO podem ser utilizadas para aplicações de Alto Risco ou Risco Excessivo. A resolução do CNJ permite o uso destas ferramentas apenas para as atividades classificadas como de Baixo Risco. 

Para atividades de Alto Risco, somente sistemas desenvolvidos pelo próprio Judiciário, com controles rigorosos e supervisão constante, podem ser empregados. As aplicações de Risco Excessivo são completamente proibidas para qualquer tipo de IA.

Ferramentas de IA para o Judiciário: um guia prático

Com base na nova resolução do CNJ, nem todas as ferramentas de Inteligência Artificial generativa estão em conformidade para uso no Poder Judiciário. Detalharei as principais opções disponíveis e suas características.

Claude (Anthropic)

Nível de conformidade: excelente

Proteção de dados: a mais robusta entre as opções disponíveis

Política de uso: não utiliza os dados do usuário para treinamento

Recomendação: altamente recomendada, principalmente em sua versão paga

Destaques: filosofia ética forte, com privacidade por design e por padrão

ChatGPT (OpenAI)

Nível de conformidade: condicional

Proteção de dados: requer configuração específica.

Requisito importante: desativar a opção "Melhorar o modelo para todo mundo" nas configurações.

Observação crucial: na versão gratuita, essa opção vem ativada por padrão, o que viola a resolução.

Recomendação: usar apenas a versão paga com as configurações adequadas de privacidade.

Notebook LM / Gemini (Google)

Nível de conformidade: moderado

Proteção de dados: depende das configurações da conta Google.

Política de uso: por padrão, utiliza dados do usuário para melhorar seus serviços.

Observação importante: é necessário desativar explicitamente a coleta de dados nas configurações de privacidade.

Recomendação: verificar termos atuais e desativar o "Web & App Activity" nas configurações da conta.

DeepSeek

Nível de conformidade: inadequado para uso judicial

Problema principal: utiliza explicitamente os dados do usuário para treinamento.

Versão local: modelo pode ser utilizado se baixado e executado localmente (sem envio de dados).

Recomendação: evitar o uso na plataforma online

Perplexity AI

Nível de conformidade: Adequado em sua versão paga

Observação: Utiliza APIs de outros modelos, mas não treina com os dados do usuário.

Risco: a versão gratuita pode estar sujeita a mudanças na política de privacidade.

Microsoft Copilot

Vantagens: 

- forte governança no Brasil (empresa pode ser responsabilizada).

- boas políticas de proteção de dados na versão corporativa

Desvantagem:

- performance limitada para análises jurídicas complexas

Considerações importantes

Versões gratuitas vs. pagas: as versões gratuitas de quase todas as ferramentas apresentam maior risco por:

- políticas de privacidade sujeitas a alterações sem aviso

- menor proteção de dados em geral

- funcionalidades limitadas

Execução local: modelos que podem ser baixados e executados localmente oferecem maior segurança para dados sigilosos, pois não enviam informações para servidores externos.

Processos sigilosos requerem cuidados especiais:

- devem ser anonimizados antes de qualquer submissão a IAs.

- preferencialmente utilizar ferramentas internas do Judiciário para anonimização.

- nunca usar IAs externas para anonimizar (pois isso já exporia os dados).

Treinamento necessário: independentemente da ferramenta escolhida, a capacitação prévia é requisito obrigatório para uso legal e ético no ambiente judicial.

A IA como ferramenta: limites e capacitação

O princípio da "reserva de humanidade" estabelece que a decisão final sempre será humana - a IA pode auxiliar, mas nunca substituir o raciocínio judicial, já que os modelos atuais não possuem senso intrínseco de justiça. Para uso seguro e eficaz, é essencial que juízes e servidores sejam devidamente capacitados, não apenas para operar as ferramentas, mas principalmente para compreender seus riscos, limitações e vieses potenciais.

O futuro é colaborativo

Para nós, operadores do Direito, o momento exige adaptação e aprendizado contínuo. A IA não veio para nos substituir, mas para potencializar nosso trabalho, permitindo análises mais profundas e decisões mais bem fundamentadas.

O futuro do Judiciário será construído na simbiose entre inteligência humana e artificial, sempre com o ser humano no centro das decisões que afetam vidas e direitos.

 


 

Melissa Cipriano Vanini Tupinambá é advogada e Especialista em Proteção de Dados e Inteligência Artificial

* Os textos dos artigos são de responsabilidade dos autores e não refletem necessariamente a opinião do Hjur. 

 

 

Fique por dentro do mundo jurídico com o HJUR!

Receba um resumo semanal exclusivo com as principais decisões dos tribunais superiores, jurisprudências comentadas e a nossa editoria Direito à Arte, com dicas de livros, filmes e cultura para enriquecer seu repertório e networking. Informação confiável, rápida e essencial para seu dia a dia no Direito!

Cadastre-se agora e garanta seu acesso!