IA no Direito

IA no Setor Público: Aspectos Polêmicos

IA no Setor Público: Aspectos Polêmicos — artigo completo sobre IA no Direito com fundamentação legal e jurisprudência atualizadas. Plataforma Minuta.Tech.

19 de julho de 20258 min de leitura

Automatize suas minutas e documentos com IA — contratos, petições e peças prontas em minutos.

Experimentar Grátis
IA no Setor Público: Aspectos Polêmicos

A adoção de Inteligência Artificial (IA) no setor público brasileiro avança a passos largos, prometendo maior eficiência, celeridade e otimização de recursos. Ferramentas de IA são cada vez mais comuns no Judiciário, Ministério Público, Defensoria Pública e Tribunais de Contas, auxiliando desde a triagem de processos até a elaboração de minutas e análises preditivas. No entanto, essa integração não ocorre sem percalços. A utilização de algoritmos em decisões que afetam direitos fundamentais suscita debates acalorados sobre transparência, viés, responsabilidade e os limites éticos da automação estatal.

Este artigo explora os aspectos mais polêmicos da implementação da IA no setor público, com foco nos desafios enfrentados por profissionais do Direito que atuam na esfera estatal. Abordaremos as implicações jurídicas, as normativas vigentes e as diretrizes práticas para uma utilização responsável e legalmente amparada dessas tecnologias.

O Paradoxo da Eficiência e o Devido Processo Legal

O principal atrativo da IA para a administração pública é a sua capacidade de processar volumes massivos de dados em frações de segundo. No sistema de justiça, sistemas como o Victor (STF), o Sócrates (STJ) e o Sinapses (CNJ) demonstram como o aprendizado de máquina pode acelerar o julgamento de recursos e a identificação de teses de repercussão geral.

Contudo, a busca incessante pela eficiência não pode atropelar as garantias constitucionais do devido processo legal (art. 5º, LIV, da Constituição Federal). A automação de atos processuais, quando mal dimensionada, corre o risco de padronizar decisões de forma inadequada, ignorando as nuances e particularidades de cada caso concreto. A "justiça em massa", impulsionada por algoritmos, levanta questionamentos sobre a individualização da pena e a análise pormenorizada de provas, princípios basilares do Estado Democrático de Direito.

A "Caixa Preta" Algorítmica e o Dever de Motivação

Um dos desafios mais intrincados na adoção da IA é o fenômeno da "caixa preta" (black box). Muitos sistemas de aprendizado profundo (deep learning) operam de maneira tão complexa que nem mesmo seus desenvolvedores conseguem explicar, passo a passo, como o algoritmo chegou a determinada conclusão.

No setor público, essa opacidade colide frontalmente com o dever constitucional de motivação das decisões administrativas e judiciais (art. 93, IX, da CF). Se um juiz ou um auditor utiliza uma recomendação gerada por IA para embasar sua decisão, como garantir que os fundamentos são idôneos e não estão eivados de vícios lógicos ou preconceitos ocultos?

O Marco Civil da Internet (Lei nº 12.965/2014) já apontava para a necessidade de informações claras sobre os critérios utilizados em aplicações de internet. A Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018), em seu art. 20, garante o direito do titular de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses.

A Resolução nº 332/2020 do CNJ

No âmbito do Judiciário, a Resolução nº 332/2020 do Conselho Nacional de Justiça (CNJ) é o marco regulatório mais relevante. Ela estabelece diretrizes éticas e de governança para o desenvolvimento e uso da IA. O documento enfatiza a transparência, a explicabilidade e a auditorabilidade dos sistemas, exigindo que as ferramentas sejam compreensíveis e que suas decisões possam ser rastreadas e justificadas.

A Resolução também veda o uso de IA para a prolação de sentenças e acórdãos sem a supervisão e validação humana (human-in-the-loop), assegurando que a decisão final seja sempre de responsabilidade do magistrado.

O Perigo do Viés e a Quebra da Isonomia

Os algoritmos de IA "aprendem" com base em dados históricos. Se esses dados refletem desigualdades, preconceitos estruturais ou práticas discriminatórias do passado, a IA tenderá a reproduzi-los e, pior, a legitimá-los sob a aura de "objetividade matemática".

No sistema de justiça criminal, por exemplo, o uso de ferramentas de análise preditiva para avaliar o risco de reincidência ou para determinar a concessão de liberdade condicional tem gerado intensa controvérsia. Estudos internacionais, como o caso do software COMPAS nos Estados Unidos, demonstraram que esses sistemas podem apresentar viés racial, superestimando o risco de reincidência em populações negras e subestimando em populações brancas.

No Brasil, a aplicação do princípio constitucional da isonomia (art. 5º, caput, da CF) exige vigilância constante. A adoção de IA por forças de segurança pública, como o reconhecimento facial, frequentemente levanta denúncias de falsos positivos que afetam desproporcionalmente pessoas negras, gerando prisões injustas e violações de direitos.

A Resolução nº 332/2020 do CNJ aborda o tema do viés, exigindo que os sistemas de IA sejam desenvolvidos e treinados com bases de dados representativas e que passem por testes rigorosos para mitigar a discriminação.

A Responsabilidade Civil e Administrativa

Quando um sistema de IA comete um erro que causa dano a um cidadão, quem é o responsável? O servidor público que utilizou a ferramenta, a administração pública que a implementou, ou a empresa que a desenvolveu?

A Constituição Federal, em seu art. 37, § 6º, consagra a responsabilidade civil objetiva do Estado pelos danos que seus agentes, nessa qualidade, causarem a terceiros. Portanto, a administração pública responde pelos prejuízos decorrentes de falhas algorítmicas utilizadas em seus serviços.

No entanto, a responsabilização regressiva do agente público ou da empresa fornecedora exige a comprovação de dolo ou culpa. A opacidade dos algoritmos dificulta a identificação da causa raiz do erro, tornando a apuração de responsabilidades um desafio complexo.

O Marco Legal da Inteligência Artificial (Projeto de Lei nº 2338/2023, em tramitação avançada no Congresso Nacional) busca estabelecer um regime de responsabilidade civil específico para a IA, graduando a responsabilidade de acordo com o risco da aplicação. Sistemas de alto risco, como aqueles utilizados na administração da justiça, estariam sujeitos a um regime mais rigoroso.

O Futuro da Regulação: O Marco Legal da Inteligência Artificial (PL 2338/2023)

O Brasil encontra-se em um momento crucial para a definição do arcabouço legal da IA. O Projeto de Lei nº 2338/2023, que propõe o Marco Legal da Inteligência Artificial, tem o potencial de impactar profundamente a forma como o setor público desenvolve e utiliza essas tecnologias.

O projeto classifica os sistemas de IA com base no risco e impõe obrigações mais severas para aplicações de alto risco, que incluem a biometria, a avaliação de crédito, a gestão de infraestruturas críticas e, crucialmente, a administração da justiça. Para essas aplicações, o PL exige a realização de avaliações de impacto algorítmico, a adoção de medidas de mitigação de riscos, a transparência e a supervisão humana.

O Marco Legal também propõe a criação de uma autoridade competente para fiscalizar o cumprimento da lei e aplicar sanções, o que exigirá adaptação por parte dos órgãos públicos.

Orientações Práticas para Profissionais do Setor Público

Diante do cenário de incertezas e inovações aceleradas, profissionais do setor público (defensores, procuradores, promotores, juízes, auditores) devem adotar uma postura cautelosa e proativa na utilização da IA. Abaixo, elencamos algumas orientações fundamentais:

  • Supervisão Humana Ininterrupta (Human-in-the-loop): A IA não deve substituir a análise humana em decisões complexas e que afetem direitos fundamentais. A validação das recomendações algorítmicas por um servidor capacitado é indispensável.
  • Transparência Ativa: As decisões embasadas em IA devem explicitar os critérios utilizados pelo algoritmo. O jurisdicionado ou administrado tem o direito de compreender a lógica da decisão que o afeta.
  • Auditoria Contínua: Os sistemas de IA devem ser submetidos a auditorias regulares para identificar vieses, corrigir erros e garantir a conformidade com as normas éticas e legais. A atualização dos algoritmos é essencial para evitar a obsolescência e a reprodução de injustiças.
  • Capacitação: A compreensão dos fundamentos da IA, seus limites e potenciais vieses é crucial para os profissionais do setor público. A formação contínua é necessária para garantir o uso responsável da tecnologia.
  • Análise de Impacto: Antes da implementação de qualquer ferramenta de IA, os órgãos públicos devem realizar avaliações rigorosas de impacto algorítmico, considerando os riscos para a proteção de dados, a isonomia e os direitos fundamentais.

Conclusão

A Inteligência Artificial apresenta oportunidades inegáveis para a modernização do setor público, mas os desafios éticos e jurídicos não podem ser subestimados. A eficiência não deve sobrepor-se à justiça, à transparência e à proteção dos direitos fundamentais. A integração da IA na administração pública exige um debate maduro, uma regulação robusta e uma vigilância constante por parte dos profissionais do Direito. Apenas com uma abordagem crítica e responsável será possível aproveitar os benefícios da automação sem comprometer os valores democráticos que sustentam a atuação estatal. A tecnologia deve ser uma ferramenta a serviço da justiça, e não um fim em si mesma.


Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.

Newsletter Jurídica

Dicas de IA para Advogados

Receba semanalmente dicas práticas, novidades do produto e as melhores práticas para usar IA na advocacia.

Prometemos não enviar spam. Cancele quando quiser.