Melissa Tupinambá – IA no Judiciário: guia prático conforme resolução do CNJ

sexta-feira, 7 de março de 2025

O Conselho Nacional de Justiça aprovou uma resolução que estabelece diretrizes para o uso da Inteligência Artificial no Poder Judiciário. Esta resolução reconhece o potencial transformador da IA enquanto estabelece limites claros para seu uso. Abrange principalmente juízes e servidores, mas seus efeitos influenciarão toda a prática jurídica.

Proteção de dados

Juízes e servidores só poderão utilizar ferramentas de IA que garantam privacidade e segurança das informações. Modelos que utilizam dados dos usuários para treinamento estão proibidos. Processos sigilosos só podem ser submetidos após anonimização.

Categorias de risco

Baixo (permitido)

Aplicações seguras para uso com modelos generativos comerciais como ChatGPT, Claude ou Gemini:

– transformação textual e correções gramaticais

– sumarização e análise descritiva de documentos

– detecção de padrões decisórios (sem caráter conclusivo)

– produção de textos de apoio (com revisão humana)

– auxílios administrativos e classificação

– anonimização de documentos

Alto (restrito)

Aplicações que podem ser desenvolvidas apenas pelo próprio Judiciário com sistemas de controle rigorosos, proibidas para modelos generativos comerciais:

– valoração de provas

– tipificação penal

– juízos conclusivos sobre normas

– quantificação de danos

– perfilamento de pessoas

– identificação biométrica

Excessivo (proibido)

Aplicações absolutamente vedadas para qualquer tipo de IA, seja desenvolvida internamente ou adquirida de fornecedores:

– decisões autônomas sem supervisão humana

– previsão de reincidência baseada em traços de personalidade

– classificação discriminatória

– análise emocional para avaliar veracidade

– substituição do raciocínio judicial

Sobre o uso de IAs generativas 

É fundamental esclarecer que as IAs generativas comerciais (como ChatGPT, Claude, Gemini, etc) NÃO podem ser utilizadas para aplicações de Alto Risco ou Risco Excessivo. A resolução do CNJ permite o uso destas ferramentas apenas para as atividades classificadas como de Baixo Risco. 

Para atividades de Alto Risco, somente sistemas desenvolvidos pelo próprio Judiciário, com controles rigorosos e supervisão constante, podem ser empregados. As aplicações de Risco Excessivo são completamente proibidas para qualquer tipo de IA.

Ferramentas de IA para o Judiciário: um guia prático

Com base na nova resolução do CNJ, nem todas as ferramentas de Inteligência Artificial generativa estão em conformidade para uso no Poder Judiciário. Detalharei as principais opções disponíveis e suas características.

Claude (Anthropic)

Nível de conformidade: excelente

Proteção de dados: a mais robusta entre as opções disponíveis

Política de uso: não utiliza os dados do usuário para treinamento

Recomendação: altamente recomendada, principalmente em sua versão paga

Destaques: filosofia ética forte, com privacidade por design e por padrão

ChatGPT (OpenAI)

Nível de conformidade: condicional

Proteção de dados: requer configuração específica.

Requisito importante: desativar a opção “Melhorar o modelo para todo mundo” nas configurações.

Observação crucial: na versão gratuita, essa opção vem ativada por padrão, o que viola a resolução.

Recomendação: usar apenas a versão paga com as configurações adequadas de privacidade.

Notebook LM / Gemini (Google)

Nível de conformidade: moderado

Proteção de dados: depende das configurações da conta Google.

Política de uso: por padrão, utiliza dados do usuário para melhorar seus serviços.

Observação importante: é necessário desativar explicitamente a coleta de dados nas configurações de privacidade.

Recomendação: verificar termos atuais e desativar o “Web & App Activity” nas configurações da conta.

DeepSeek

Nível de conformidade: inadequado para uso judicial

Problema principal: utiliza explicitamente os dados do usuário para treinamento.

Versão local: modelo pode ser utilizado se baixado e executado localmente (sem envio de dados).

Recomendação: evitar o uso na plataforma online

Perplexity AI

Nível de conformidade: Adequado em sua versão paga

Observação: Utiliza APIs de outros modelos, mas não treina com os dados do usuário.

Risco: a versão gratuita pode estar sujeita a mudanças na política de privacidade.

Microsoft Copilot

Vantagens: 

– forte governança no Brasil (empresa pode ser responsabilizada).

– boas políticas de proteção de dados na versão corporativa

Desvantagem:

– performance limitada para análises jurídicas complexas

Considerações importantes

Versões gratuitas vs. pagas: as versões gratuitas de quase todas as ferramentas apresentam maior risco por:

– políticas de privacidade sujeitas a alterações sem aviso

– menor proteção de dados em geral

– funcionalidades limitadas

Execução local: modelos que podem ser baixados e executados localmente oferecem maior segurança para dados sigilosos, pois não enviam informações para servidores externos.

Processos sigilosos requerem cuidados especiais:

– devem ser anonimizados antes de qualquer submissão a IAs.

– preferencialmente utilizar ferramentas internas do Judiciário para anonimização.

– nunca usar IAs externas para anonimizar (pois isso já exporia os dados).

Treinamento necessário: independentemente da ferramenta escolhida, a capacitação prévia é requisito obrigatório para uso legal e ético no ambiente judicial.

A IA como ferramenta: limites e capacitação

O princípio da “reserva de humanidade” estabelece que a decisão final sempre será humana – a IA pode auxiliar, mas nunca substituir o raciocínio judicial, já que os modelos atuais não possuem senso intrínseco de justiça. Para uso seguro e eficaz, é essencial que juízes e servidores sejam devidamente capacitados, não apenas para operar as ferramentas, mas principalmente para compreender seus riscos, limitações e vieses potenciais.

O futuro é colaborativo

Para nós, operadores do Direito, o momento exige adaptação e aprendizado contínuo. A IA não veio para nos substituir, mas para potencializar nosso trabalho, permitindo análises mais profundas e decisões mais bem fundamentadas.

O futuro do Judiciário será construído na simbiose entre inteligência humana e artificial, sempre com o ser humano no centro das decisões que afetam vidas e direitos.

 


 

Melissa Cipriano Vanini Tupinambá é advogada e Especialista em Proteção de Dados e Inteligência Artificial

* Os textos dos artigos são de responsabilidade dos autores e não refletem necessariamente a opinião do Hjur. 

 

 

Autor

Leia mais

Melina Fachin, filha do ministro do STF Edson Fachin

Filha do ministro Edson Fachin é chamada de “lixo comunista” em Curitiba e UFPR convoca reunião de emergência

CNJ julga retificação de atestados de óbito de vítimas da chacina de Acari (RJ)

CNJ julgará determinação para lavratura e retificação de atestados de óbito de vítimas da chacina de Acari (RJ)

Moraes autoriza visita de Valdemar Costa Neto, mas defesa de Bolsonaro deve se manifestar sobre Tarcísio de Freitas

Moraes solicita relatório sobre escolta de Bolsonaro ao hospital

Paulo Figueiredo e o microfone da Rádio Jovem Pan

MPF pede cassação das concessões da Jovem Pan por apoio sistemático ao golpe de Bolsonaro

Protocolo estabelece regras para juízes em pós- retorno de criança ao país de origem

Novo protocolo estabelece regras para juízes em caso de pós-retorno de criança ao país de origem

Maximum file size: 500 MB