Da redação
Uma ferramenta de inteligência artificial utilizada pela Justiça do Trabalho identificou comandos ocultos inseridos em uma petição inicial com o objetivo de manipular o sistema e induzir uma análise superficial do documento. O episódio ocorreu no processo 0001062-55.2025.5.08.0130, julgado pela 3ª Vara do Trabalho de Parauapebas, no Pará, e foi conduzido pelo juiz do trabalho substituto Luis Carlos de Araujo Santos Júnior. O caso chamou atenção por expor, pela primeira vez de forma documentada em uma decisão judicial trabalhista, o uso da técnica conhecida como prompt injection contra um sistema de IA do Judiciário brasileiro.
A tentativa foi detectada pelo sistema Galileu, plataforma de IA generativa adotada nacionalmente pela Justiça do Trabalho desde maio de 2025. Ao processar a petição inicial, a ferramenta localizou instruções embutidas no texto que tentavam orientá-la a não questionar os documentos apresentados e a realizar uma leitura acrítica do conteúdo. O sistema emitiu um alerta automático e bloqueou o processamento do trecho suspeito antes que qualquer análise contaminada pudesse avançar.
Como funciona o prompt injection
A técnica de prompt injection consiste em inserir comandos disfarçados dentro de um texto comum, com o intuito de desviar o comportamento de sistemas de inteligência artificial de suas funções originais. No contexto jurídico, a estratégia pode ser especialmente danosa: se bem-sucedida, poderia levar uma ferramenta de apoio à elaboração de decisões a ignorar inconsistências nos documentos, favorecer determinada parte ou simplesmente deixar de sinalizar irregularidades que deveriam ser examinadas pelo magistrado.
No caso de Parauapebas, os comandos ocultos tinham um objetivo claro: fazer com que o Galileu processasse a petição sem o escrutínio adequado, potencialmente influenciando a minuta gerada para o juiz. A descoberta reforça um alerta que especialistas em segurança de sistemas de IA já apontavam: quanto mais essas ferramentas são integradas a processos de tomada de decisão, mais elas se tornam alvos de tentativas de exploração.
O episódio é relevante também porque coloca em evidência a necessidade de mecanismos robustos de defesa em sistemas judiciais que utilizam IA. Diferentemente de um ataque a um sistema corporativo, uma manipulação bem-sucedida no Judiciário poderia afetar diretamente direitos de partes em litígio.
A resposta do sistema e do magistrado
Ao detectar a tentativa de interferência, o Galileu agiu dentro de seus protocolos de segurança: emitiu o alerta e interrompeu o processamento do conteúdo identificado como suspeito. A decisão final, no entanto, não ficou a cargo da máquina. O juiz Luis Carlos de Araujo Santos Júnior fez questão de registrar na sentença que a conclusão do caso resultou de verificação humana do conteúdo sinalizado pelo sistema, não de um julgamento automatizado.
“A decisão não foi tomada exclusivamente com base no alerta emitido pelo sistema, mas após verificação humana do conteúdo identificado, em conformidade com os princípios de supervisão humana no uso de inteligência artificial pelo Poder Judiciário”, destacou o magistrado na sentença. A declaração é relevante sob o aspecto jurídico: ela reafirma que o papel da IA, dentro da estrutura atual do Judiciário, é de auxílio e sinalização — e não de substituição ao julgamento do juiz.
Esse ponto é central no debate sobre o uso responsável de inteligência artificial na prestação jurisdicional. Sistemas como o Galileu são desenhados para acelerar processos e apoiar magistrados sobrecarregados, mas a responsabilidade pela decisão permanece, integralmente, com o ser humano na toga.
O que é o Galileu
O Galileu foi desenvolvido pelo Tribunal Regional do Trabalho da 4ª Região (TRT-RS) em parceria com o Supremo Tribunal Federal (STF). A ferramenta é voltada para auxiliar magistrados e servidores na elaboração de minutas de sentenças, funcionando como um assistente de redação baseado em IA generativa. Em maio de 2025, o Conselho Superior da Justiça do Trabalho (CSJT) oficializou sua adoção em âmbito nacional, tornando-o disponível para todas as varas e tribunais trabalhistas do país.
Entre os recursos incorporados ao sistema estão justamente os mecanismos de segurança para identificar tentativas de manipulação — o que, no caso de Parauapebas, provou ser decisivo. A capacidade de detectar e bloquear um prompt injection antes que ele influenciasse qualquer etapa do processamento demonstra que os desenvolvedores do sistema já haviam antecipado esse tipo de ameaça e incorporado defesas específicas contra ela.
A adoção nacional da ferramenta coloca o Brasil em posição de destaque no uso institucional de IA no Judiciário, mas o episódio no Pará também evidencia que a expansão dessas tecnologias precisa ser acompanhada de constante atualização nos protocolos de segurança.
Posicionamento do TRT-8
A presidente do Tribunal Regional do Trabalho da 8ª Região (TRT-8), desembargadora Sulamir Palmeira Monassa de Almeida, reagiu ao caso destacando o protagonismo dos magistrados da região no uso das ferramentas oficiais de IA disponibilizadas pelo CSJT. “É importante destacar nesse caso a proatividade dos magistrados da 8ª Região no uso das ferramentas oficiais de inteligência artificial implantadas pelo Conselho Superior da Justiça do Trabalho”, afirmou.
O posicionamento da presidência do tribunal sublinha um aspecto relevante: a detecção só foi possível porque o juiz utilizava uma ferramenta oficial, desenvolvida com padrões de segurança institucionais. O uso de sistemas não homologados ou de aplicações externas de IA, sem os mesmos mecanismos de proteção, poderia ter resultado em um desfecho muito diferente — com a manipulação passando despercebida.
O caso de Parauapebas tende a se tornar referência em discussões sobre segurança de sistemas de IA no Judiciário e sobre os riscos do uso de ferramentas não institucionais por operadores do direito. Para além do episódio específico, ele lança uma questão de fundo que o Judiciário brasileiro precisará enfrentar com crescente urgência: como garantir a integridade dos sistemas de IA diante de agentes que buscam explorar suas vulnerabilidades.