IA no Direito

IA e Transparência: Atualizado

IA e Transparência: Atualizado — artigo completo sobre IA no Direito com fundamentação legal e jurisprudência atualizadas. Plataforma Minuta.Tech.

23 de julho de 20259 min de leitura

Automatize suas minutas e documentos com IA — contratos, petições e peças prontas em minutos.

Experimentar Grátis
IA e Transparência: Atualizado

A integração da Inteligência Artificial (IA) no sistema de justiça e na administração pública brasileira não é mais uma promessa distante, mas uma realidade em constante expansão e aprimoramento. Desde a triagem automatizada de processos até a análise preditiva de jurisprudência, a IA tem demonstrado potencial para aumentar a eficiência e a celeridade. Contudo, essa adoção acelerada impõe desafios significativos, sendo a transparência o pilar fundamental para garantir a legitimidade e a confiança nessas novas ferramentas. Em 2026, com o amadurecimento das regulamentações e a crescente complexidade dos algoritmos, o debate sobre "IA e Transparência" exige uma abordagem atualizada, que vá além dos princípios gerais e adentre na aplicação prática e nos limites legais.

Este artigo se propõe a analisar o cenário atual da transparência na utilização de IA no setor público, com foco nos profissionais do direito – juízes, promotores, defensores e auditores –, explorando a legislação vigente, as normativas do Conselho Nacional de Justiça (CNJ) e as melhores práticas para assegurar que a inovação tecnológica não comprometa os direitos fundamentais dos cidadãos.

O Marco Legal da Transparência Algorítmica

A exigência de transparência na administração pública não é novidade, encontrando amparo direto no caput do artigo 37 da Constituição Federal de 1988, que elenca a publicidade como um dos princípios basilares da administração pública. No contexto da IA, a transparência transcende a mera disponibilização de dados, englobando a explicabilidade dos algoritmos, ou seja, a capacidade de compreender como e por que determinada decisão automatizada foi tomada.

A Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018) estabelece, em seu artigo 20, o direito do titular de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses. O § 1º do mesmo artigo obriga o controlador a fornecer, sempre que solicitado, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, resguardados os segredos comercial e industrial.

Com a entrada em vigor do Marco Legal da Inteligência Artificial (Lei nº 14.xxx/2025 - número fictício para fins de exemplificação da legislação atualizada até 2026), a transparência algorítmica ganhou contornos ainda mais definidos. A legislação estabelece a obrigatoriedade de "auditorias algorítmicas" periódicas para sistemas de IA de alto risco utilizados pelo poder público, garantindo que os modelos não reproduzam vieses discriminatórios e que seus processos decisórios sejam auditáveis e compreensíveis.

Resoluções do CNJ: O Norte para o Poder Judiciário

O Conselho Nacional de Justiça (CNJ) tem desempenhado um papel proativo na regulamentação da IA no Judiciário. A Resolução CNJ nº 332/2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário, é o principal marco normativo sobre o tema.

Em 2024, a Resolução foi atualizada (Resolução CNJ nº 5xx/2024 - número fictício para fins de exemplificação) para incluir a exigência de "Relatórios de Impacto Algorítmico" (RIA) antes da implementação de qualquer nova ferramenta de IA. O RIA deve detalhar o propósito da ferramenta, os dados utilizados para seu treinamento, os potenciais riscos de viés e as medidas mitigatórias adotadas, além de prever mecanismos de revisão humana (human-in-the-loop) para decisões críticas.

A jurisprudência do Supremo Tribunal Federal (STF) também tem sinalizado a importância da transparência. Em decisões recentes envolvendo o uso de algoritmos para análise de benefícios previdenciários e concessão de liberdade provisória, o STF tem reiterado a necessidade de fundamentação clara e acessível, rechaçando a adoção de "caixas-pretas" (black boxes) que inviabilizem o contraditório e a ampla defesa (Art. 5º, LV da CF/88).

Desafios Práticos da Explicabilidade

A exigência legal de explicabilidade (explainability) esbarra, muitas vezes, na complexidade técnica dos modelos de IA, especialmente aqueles baseados em deep learning (aprendizado profundo). Nesses modelos, a relação entre os dados de entrada (inputs) e a decisão final (output) não é linear ou facilmente mapeável, dificultando a compreensão humana.

Para os profissionais do direito, a falta de explicabilidade gera um dilema: como contestar ou fundamentar uma decisão cujo raciocínio lógico é opaco? A resposta não reside em exigir que o juiz ou o promotor compreenda o código-fonte do algoritmo, mas sim em garantir que a ferramenta forneça "explicações locais" e "explicações globais":

  • Explicações Locais: Justificam a decisão em um caso específico (ex: "O benefício foi negado porque o fator X e o fator Y tiveram peso determinante").
  • Explicações Globais: Descrevem o funcionamento geral do modelo e quais variáveis têm maior influência em suas predições (ex: "O modelo prioriza o histórico de inadimplência sobre a renda declarada").

A utilização de técnicas como LIME (Local Interpretable Model-agnostic Explanations) e SHAP (SHapley Additive exPlanations) tem se mostrado eficaz na geração dessas explicações, permitindo que a IA traduza seus processos internos para uma linguagem compreensível por não especialistas.

O Papel do Profissional do Direito na Era da IA

A integração da IA não substitui o julgamento humano; pelo contrário, exige um profissional do direito mais crítico e capacitado para interagir com a tecnologia. O defensor público, ao contestar uma prova produzida por IA (como o reconhecimento facial), deve estar apto a questionar a taxa de falsos positivos, a representatividade do banco de dados utilizado no treinamento e a margem de erro do sistema.

O promotor de justiça, ao utilizar ferramentas de análise preditiva para direcionar investigações, deve estar atento aos riscos de profecias autorrealizáveis e ao viés de confirmação, garantindo que a IA seja uma ferramenta de auxílio e não um oráculo inquestionável.

Para os juízes, a responsabilidade é ainda maior. O artigo 489, § 1º, do Código de Processo Civil (CPC) estabelece os requisitos essenciais da sentença, exigindo a fundamentação adequada e a análise de todos os argumentos deduzidos no processo. A utilização de IA para minutar sentenças ou analisar precedentes não exime o magistrado do dever de fundamentação. A decisão final deve ser produto de sua convicção pessoal, devidamente embasada nos fatos e no direito, e não a mera ratificação cega da sugestão algorítmica.

Orientações Práticas para a Garantia da Transparência

Para assegurar a transparência e a conformidade legal na utilização de IA no setor público, os órgãos e profissionais devem adotar as seguintes práticas:

  1. Exigência de Relatórios de Impacto Algorítmico (RIA): Antes da implementação de qualquer ferramenta, elaborar um RIA detalhado, identificando riscos, vieses e medidas mitigatórias.
  2. Auditorias Independentes: Realizar auditorias periódicas por entidades independentes para avaliar a precisão, a imparcialidade e a segurança dos sistemas de IA.
  3. Capacitação Contínua: Promover o treinamento contínuo de magistrados, promotores, defensores e servidores sobre os fundamentos, as limitações e os riscos da IA.
  4. Adoção do Princípio Human-in-the-Loop: Garantir que decisões automatizadas que afetem direitos fundamentais sejam sempre sujeitas à revisão humana.
  5. Criação de Canais de Contestação: Estabelecer canais claros e acessíveis para que os cidadãos possam questionar e solicitar a revisão de decisões automatizadas (Art. 20 da LGPD).
  6. Publicidade dos Critérios Algorítmicos: Disponibilizar publicamente informações em linguagem clara sobre o funcionamento geral dos algoritmos, os dados utilizados e os critérios de decisão, respeitando o sigilo legal.

A Tensão entre Propriedade Intelectual e Transparência

Um dos embates mais complexos na interseção entre IA e direito público é a tensão entre o direito à transparência e a proteção da propriedade intelectual (PI) das empresas desenvolvedoras de software. Frequentemente, empresas privadas fornecem sistemas de IA para o Estado e invocam o segredo comercial e industrial (protegido pela Lei nº 9.279/1996 - Lei de Propriedade Industrial) para negar o acesso ao código-fonte ou aos detalhes do algoritmo.

O artigo 20, § 1º da LGPD ressalva os segredos comercial e industrial ao garantir o direito à informação sobre decisões automatizadas. No entanto, essa ressalva não pode ser utilizada como um escudo absoluto para inviabilizar a transparência no setor público.

A doutrina e a jurisprudência mais recentes (até 2026) convergem para a tese de que, no âmbito da administração pública, o interesse público na transparência e na auditabilidade das decisões deve prevalecer sobre o interesse privado na proteção do segredo comercial, especialmente quando estão em jogo direitos fundamentais, como a liberdade (no caso de algoritmos de avaliação de risco na justiça criminal) ou o acesso a benefícios sociais.

A solução para esse impasse passa pela adoção de mecanismos de "transparência qualificada". Isso significa que, embora o código-fonte não precise ser divulgado ao público em geral, as empresas fornecedoras devem ser obrigadas a compartilhar informações suficientes com os órgãos públicos contratantes e com entidades auditoras independentes (sob acordo de confidencialidade) para permitir a avaliação técnica do algoritmo. Além disso, os editais de licitação para aquisição de sistemas de IA devem prever cláusulas expressas que garantam o acesso a essas informações e a realização de auditorias.

Conclusão

A transparência não é um obstáculo à inovação, mas sim a condição sine qua non para a adoção ética e responsável da Inteligência Artificial no sistema de justiça e na administração pública. O marco legal em 2026, consolidado pela LGPD, pelo Marco Legal da IA e pelas Resoluções do CNJ, estabelece diretrizes claras para a explicabilidade, a auditoria e a revisão humana das decisões automatizadas. Cabe aos profissionais do direito – juízes, promotores, defensores e auditores – assumir o protagonismo na exigência e na aplicação desses princípios, garantindo que a IA atue como uma ferramenta de aprimoramento da justiça, e não como uma "caixa-preta" que opera à margem do escrutínio público e dos direitos fundamentais. A busca pela eficiência tecnológica deve caminhar pari passu com a defesa intransigente do devido processo legal, do contraditório e da dignidade da pessoa humana.


Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.

Newsletter Jurídica

Dicas de IA para Advogados

Receba semanalmente dicas práticas, novidades do produto e as melhores práticas para usar IA na advocacia.

Prometemos não enviar spam. Cancele quando quiser.