IA no Judiciário: guia prático conforme resolução do CNJ
Melissa Cipriano Vanini Tupinambá, advogada especialista em proteção de dados, detalha o que pode e o que não pode no uso da IA.

Imagem: arquivo pessoal e m gerada por IA
O Conselho Nacional de Justiça aprovou uma resolução que estabelece diretrizes para o uso da Inteligência Artificial no Poder Judiciário. Esta resolução reconhece o potencial transformador da IA enquanto estabelece limites claros para seu uso. Abrange principalmente juízes e servidores, mas seus efeitos influenciarão toda a prática jurídica.
Proteção de dados
Juízes e servidores só poderão utilizar ferramentas de IA que garantam privacidade e segurança das informações. Modelos que utilizam dados dos usuários para treinamento estão proibidos. Processos sigilosos só podem ser submetidos após anonimização.
Categorias de risco
Baixo (permitido)
Aplicações seguras para uso com modelos generativos comerciais como ChatGPT, Claude ou Gemini:
- transformação textual e correções gramaticais
- sumarização e análise descritiva de documentos
- detecção de padrões decisórios (sem caráter conclusivo)
- produção de textos de apoio (com revisão humana)
- auxílios administrativos e classificação
- anonimização de documentos
Alto (restrito)
Aplicações que podem ser desenvolvidas apenas pelo próprio Judiciário com sistemas de controle rigorosos, proibidas para modelos generativos comerciais:
- valoração de provas
- tipificação penal
- juízos conclusivos sobre normas
- quantificação de danos
- perfilamento de pessoas
- identificação biométrica
Excessivo (proibido)
Aplicações absolutamente vedadas para qualquer tipo de IA, seja desenvolvida internamente ou adquirida de fornecedores:
- decisões autônomas sem supervisão humana
- previsão de reincidência baseada em traços de personalidade
- classificação discriminatória
- análise emocional para avaliar veracidade
- substituição do raciocínio judicial
Sobre o uso de IAs generativas
É fundamental esclarecer que as IAs generativas comerciais (como ChatGPT, Claude, Gemini, etc) NÃO podem ser utilizadas para aplicações de Alto Risco ou Risco Excessivo. A resolução do CNJ permite o uso destas ferramentas apenas para as atividades classificadas como de Baixo Risco.
Para atividades de Alto Risco, somente sistemas desenvolvidos pelo próprio Judiciário, com controles rigorosos e supervisão constante, podem ser empregados. As aplicações de Risco Excessivo são completamente proibidas para qualquer tipo de IA.
Ferramentas de IA para o Judiciário: um guia prático
Com base na nova resolução do CNJ, nem todas as ferramentas de Inteligência Artificial generativa estão em conformidade para uso no Poder Judiciário. Detalharei as principais opções disponíveis e suas características.
Claude (Anthropic)
Nível de conformidade: excelente
Proteção de dados: a mais robusta entre as opções disponíveis
Política de uso: não utiliza os dados do usuário para treinamento
Recomendação: altamente recomendada, principalmente em sua versão paga
Destaques: filosofia ética forte, com privacidade por design e por padrão
ChatGPT (OpenAI)
Nível de conformidade: condicional
Proteção de dados: requer configuração específica.
Requisito importante: desativar a opção "Melhorar o modelo para todo mundo" nas configurações.
Observação crucial: na versão gratuita, essa opção vem ativada por padrão, o que viola a resolução.
Recomendação: usar apenas a versão paga com as configurações adequadas de privacidade.
Notebook LM / Gemini (Google)
Nível de conformidade: moderado
Proteção de dados: depende das configurações da conta Google.
Política de uso: por padrão, utiliza dados do usuário para melhorar seus serviços.
Observação importante: é necessário desativar explicitamente a coleta de dados nas configurações de privacidade.
Recomendação: verificar termos atuais e desativar o "Web & App Activity" nas configurações da conta.
DeepSeek
Nível de conformidade: inadequado para uso judicial
Problema principal: utiliza explicitamente os dados do usuário para treinamento.
Versão local: modelo pode ser utilizado se baixado e executado localmente (sem envio de dados).
Recomendação: evitar o uso na plataforma online
Perplexity AI
Nível de conformidade: Adequado em sua versão paga
Observação: Utiliza APIs de outros modelos, mas não treina com os dados do usuário.
Risco: a versão gratuita pode estar sujeita a mudanças na política de privacidade.
Microsoft Copilot
Vantagens:
- forte governança no Brasil (empresa pode ser responsabilizada).
- boas políticas de proteção de dados na versão corporativa
Desvantagem:
- performance limitada para análises jurídicas complexas
Considerações importantes
Versões gratuitas vs. pagas: as versões gratuitas de quase todas as ferramentas apresentam maior risco por:
- políticas de privacidade sujeitas a alterações sem aviso
- menor proteção de dados em geral
- funcionalidades limitadas
Execução local: modelos que podem ser baixados e executados localmente oferecem maior segurança para dados sigilosos, pois não enviam informações para servidores externos.
Processos sigilosos requerem cuidados especiais:
- devem ser anonimizados antes de qualquer submissão a IAs.
- preferencialmente utilizar ferramentas internas do Judiciário para anonimização.
- nunca usar IAs externas para anonimizar (pois isso já exporia os dados).
Treinamento necessário: independentemente da ferramenta escolhida, a capacitação prévia é requisito obrigatório para uso legal e ético no ambiente judicial.
A IA como ferramenta: limites e capacitação
O princípio da "reserva de humanidade" estabelece que a decisão final sempre será humana - a IA pode auxiliar, mas nunca substituir o raciocínio judicial, já que os modelos atuais não possuem senso intrínseco de justiça. Para uso seguro e eficaz, é essencial que juízes e servidores sejam devidamente capacitados, não apenas para operar as ferramentas, mas principalmente para compreender seus riscos, limitações e vieses potenciais.
O futuro é colaborativo
Para nós, operadores do Direito, o momento exige adaptação e aprendizado contínuo. A IA não veio para nos substituir, mas para potencializar nosso trabalho, permitindo análises mais profundas e decisões mais bem fundamentadas.
O futuro do Judiciário será construído na simbiose entre inteligência humana e artificial, sempre com o ser humano no centro das decisões que afetam vidas e direitos.
Melissa Cipriano Vanini Tupinambá é advogada e Especialista em Proteção de Dados e Inteligência Artificial
* Os textos dos artigos são de responsabilidade dos autores e não refletem necessariamente a opinião do Hjur.
Compartilhar: