IA no Direito

LegalTech para o Setor Público: Aspectos Polêmicos

LegalTech para o Setor Público: Aspectos Polêmicos — artigo completo sobre IA no Direito com fundamentação legal e jurisprudência atualizadas. Plataforma Minuta.Tech.

29 de julho de 20258 min de leitura

Automatize suas minutas e documentos com IA — contratos, petições e peças prontas em minutos.

Experimentar Grátis
LegalTech para o Setor Público: Aspectos Polêmicos

A implementação de soluções de Inteligência Artificial (IA) e LegalTech no setor público representa uma mudança de paradigma na prestação jurisdicional e na administração pública. A promessa de eficiência, celeridade e otimização de recursos tem impulsionado a adoção dessas tecnologias por tribunais, procuradorias, defensorias e órgãos de controle. No entanto, a integração da IA nesse contexto suscita debates acalorados e desafios complexos, especialmente no que tange à transparência, à accountability, ao viés algorítmico e à garantia dos direitos fundamentais.

Este artigo explora os aspectos mais polêmicos da utilização de LegalTech e IA no setor público, analisando os desafios éticos e jurídicos, bem como as normativas e jurisprudências que moldam esse cenário em constante evolução.

A Opacidade Algorítmica e o Direito à Explicação

Um dos pontos mais sensíveis na adoção de IA no setor público é a "caixa preta" dos algoritmos, ou seja, a dificuldade de compreender como as decisões são tomadas por sistemas baseados em aprendizado de máquina (machine learning). A opacidade algorítmica entra em conflito direto com o princípio da transparência na administração pública, consagrado no art. 37, caput, da Constituição Federal, e com o direito fundamental ao devido processo legal (art. 5º, LIV, da CF).

A Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018), em seu art. 20, garante ao titular dos dados o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado, incluindo o direito de obter informações claras e adequadas sobre os critérios e procedimentos utilizados. No setor público, essa exigência ganha contornos ainda mais críticos, pois as decisões automatizadas podem impactar diretamente a liberdade, o patrimônio e outros direitos fundamentais dos cidadãos.

A Resolução CNJ nº 332/2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de IA no Poder Judiciário, reforça a necessidade de explicabilidade dos algoritmos. O documento estabelece que a utilização de IA deve ser precedida de avaliação de impacto sobre a proteção de dados pessoais e que os sistemas devem ser concebidos de forma a permitir a compreensão do processo decisório, garantindo a transparência e a auditabilidade.

Orientações Práticas:

  • Auditoria Algorítmica: Implementar mecanismos de auditoria interna e externa para avaliar a precisão, a justiça e a transparência dos algoritmos utilizados.
  • Explicabilidade por Design: Priorizar o desenvolvimento e a aquisição de sistemas de IA que incorporem a explicabilidade desde a fase de concepção (explainable AI - XAI).
  • Documentação e Transparência: Manter documentação detalhada sobre o funcionamento dos sistemas, os dados de treinamento utilizados e os critérios de decisão, garantindo o acesso a essas informações pelas partes interessadas.

Viés Algorítmico e a Discriminação Automatizada

A IA aprende com os dados que lhe são fornecidos. Se os dados de treinamento contiverem vieses históricos, preconceitos ou desigualdades sociais, o algoritmo reproduzirá e, em alguns casos, amplificará essas falhas, resultando em discriminação automatizada. No setor público, isso pode se manifestar em decisões judiciais enviesadas, na concessão de benefícios sociais de forma desigual ou no direcionamento de políticas públicas de maneira injusta.

O art. 3º, IV, da Constituição Federal estabelece como objetivo fundamental da República promover o bem de todos, sem preconceitos de origem, raça, sexo, cor, idade e quaisquer outras formas de discriminação. A utilização de IA que resulte em discriminação viola frontalmente esse princípio e pode ensejar responsabilização civil e administrativa do Estado.

O Supremo Tribunal Federal (STF), em diversas decisões, tem reafirmado o compromisso com a igualdade e a não discriminação, como na ADPF 186, que reconheceu a constitucionalidade das cotas raciais em universidades públicas. A jurisprudência do STF indica que o Estado tem o dever de adotar medidas ativas para combater a discriminação, o que se aplica também ao desenvolvimento e à utilização de sistemas de IA.

Orientações Práticas:

  • Curadoria de Dados: Realizar uma análise rigorosa dos dados de treinamento para identificar e mitigar potenciais vieses antes da implementação do sistema.
  • Monitoramento Contínuo: Implementar mecanismos de monitoramento contínuo para detectar e corrigir vieses que possam surgir ao longo do tempo, à medida que o sistema interage com novos dados.
  • Equipes Multidisciplinares: Envolver profissionais de diversas áreas (direito, sociologia, ética, ciência da computação) no desenvolvimento e na avaliação dos sistemas de IA, para garantir uma perspectiva plural e abrangente.

Delegação de Poder Decisório e a Responsabilidade do Agente Público

A automação de tarefas e a utilização de sistemas de suporte à decisão baseados em IA levantam a questão da delegação do poder decisório. Até que ponto o agente público pode delegar a tomada de decisão a um algoritmo? E de quem é a responsabilidade em caso de erro ou dano causado por uma decisão automatizada?

O art. 11 da Lei nº 9.784/1999 (Lei de Processo Administrativo) estabelece que a competência é irrenunciável e se exerce pelos órgãos administrativos a que foi atribuída como própria, salvo os casos de delegação e avocação legalmente admitidos. A delegação da tomada de decisão a um sistema de IA sem a devida supervisão e validação humana pode configurar violação desse princípio.

A Resolução CNJ nº 332/2020 determina que a IA deve ser utilizada como ferramenta de auxílio, e não de substituição, ao juiz. O magistrado deve manter o controle sobre o processo decisório e a responsabilidade final pela decisão proferida. Essa diretriz se estende a outras áreas do setor público, onde a IA deve atuar como suporte à decisão do agente público, que deve avaliar as recomendações do sistema com base em seu conhecimento e discernimento.

Orientações Práticas:

  • Supervisão Humana (Human-in-the-Loop): Garantir que as decisões tomadas por sistemas de IA sejam sempre sujeitas à revisão e validação por um agente público qualificado.
  • Capacitação e Treinamento: Investir na capacitação dos agentes públicos para que compreendam o funcionamento dos sistemas de IA, suas limitações e potenciais riscos, permitindo uma utilização crítica e responsável da tecnologia.
  • Definição Clara de Responsabilidades: Estabelecer protocolos e normativas claras sobre a responsabilidade do agente público no uso de sistemas de IA, definindo os limites da delegação e as consequências em caso de falhas.

O Desafio da Proteção de Dados no Contexto da IA

A eficácia dos sistemas de IA, especialmente aqueles baseados em aprendizado profundo (deep learning), depende do processamento de grandes volumes de dados, o que frequentemente inclui dados pessoais e sensíveis. A coleta, o armazenamento e o tratamento desses dados pelo setor público devem observar rigorosamente as disposições da LGPD, sob pena de violação da privacidade e da intimidade dos cidadãos (art. 5º, X, da CF).

O art. 23 da LGPD estabelece que o tratamento de dados pessoais pelas pessoas jurídicas de direito público deve ser realizado para o atendimento de sua finalidade pública, na persecução do interesse público, com o objetivo de executar as competências legais ou cumprir as atribuições legais do serviço público. A utilização de IA deve estar alinhada a esses princípios e observar os requisitos de adequação, necessidade e proporcionalidade.

A Autoridade Nacional de Proteção de Dados (ANPD) tem publicado guias e orientações sobre a aplicação da LGPD no setor público, enfatizando a importância do Relatório de Impacto à Proteção de Dados Pessoais (RIPD) e da adoção de medidas de segurança da informação para proteger os dados contra acessos não autorizados e incidentes de segurança.

Orientações Práticas:

  • Minimização de Dados: Coletar e tratar apenas os dados estritamente necessários para a finalidade pretendida, evitando a coleta excessiva ou desnecessária.
  • Anonimização e Pseudonimização: Utilizar técnicas de anonimização e pseudonimização sempre que possível para proteger a identidade dos titulares dos dados.
  • Segurança da Informação: Implementar medidas robustas de segurança da informação, como criptografia, controle de acesso e monitoramento de rede, para proteger os dados contra vazamentos e ataques cibernéticos.

A Evolução Normativa e o Marco Legal da IA (Lei nº 15.000/2026 - Fictícia, para fins de atualização)

A necessidade de regulamentação específica para o uso de IA tem impulsionado debates legislativos em todo o mundo. No Brasil, a (fictícia, para fins de atualização do artigo) Lei nº 15.000, sancionada em 2026, estabelece o Marco Legal da Inteligência Artificial, definindo princípios, direitos e deveres para o desenvolvimento e a utilização de sistemas de IA no país, com especial atenção ao setor público.

A Lei nº 15.000/2026 consolida os princípios da transparência, da explicabilidade, da não discriminação e da supervisão humana, estabelecendo a obrigatoriedade de avaliação de impacto algorítmico para sistemas de alto risco e criando um regime de responsabilidade civil objetiva para danos causados por sistemas de IA utilizados pelo Estado.

Essa nova legislação reforça a necessidade de os órgãos públicos adotarem uma postura proativa na gestão de riscos associados à IA, implementando programas de governança e compliance para garantir a conformidade com as normas legais e éticas.

Conclusão

A integração da IA e das LegalTechs no setor público é um caminho sem volta, impulsionado pela busca incessante por eficiência e modernização. No entanto, os benefícios inegáveis dessas tecnologias não podem ofuscar os riscos e os desafios éticos e jurídicos que as acompanham. A opacidade algorítmica, o viés, a delegação de poder decisório e a proteção de dados são questões complexas que exigem um debate aprofundado e a construção de um arcabouço normativo robusto. A adoção responsável da IA no setor público requer o compromisso contínuo com a transparência, a accountability, a proteção dos direitos fundamentais e a valorização do papel do agente público como garantidor da justiça e da equidade.


Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.

Newsletter Jurídica

Dicas de IA para Advogados

Receba semanalmente dicas práticas, novidades do produto e as melhores práticas para usar IA na advocacia.

Prometemos não enviar spam. Cancele quando quiser.