IA no Direito

LegalTech: IA para Auditoria

LegalTech: IA para Auditoria — artigo completo sobre IA no Direito com fundamentação legal e jurisprudência atualizadas. Plataforma Minuta.Tech.

11 de julho de 20257 min de leitura

Automatize suas minutas e documentos com IA — contratos, petições e peças prontas em minutos.

Experimentar Grátis
LegalTech: IA para Auditoria

A transformação digital no setor público brasileiro, acelerada por marcos legais como a Lei do Governo Digital (Lei nº 14.129/2021) e, mais recentemente, pelo Marco Legal da Inteligência Artificial (Lei nº 15.011/2026), exige uma adaptação contínua dos profissionais do Direito e da Administração Pública. No cenário de auditoria, a Inteligência Artificial (IA) desponta não apenas como uma ferramenta de otimização, mas como uma necessidade para lidar com o volume exponencial de dados e a complexidade crescente das transações governamentais. A LegalTech, nesse contexto, transcende a automação de tarefas rotineiras, tornando-se uma aliada estratégica na garantia da transparência, eficiência e legalidade da gestão pública.

A adoção de IA na auditoria pública, contudo, não prescinde da observância rigorosa do arcabouço normativo vigente, exigindo dos operadores do Direito – sejam defensores, procuradores, promotores, juízes ou auditores – uma compreensão aprofundada dos limites e das potencialidades dessas tecnologias. Este artigo explora as nuances da aplicação de LegalTech em auditoria, abordando desde a sua fundamentação legal até as implicações práticas e os desafios éticos inerentes ao uso de IA no setor público.

A Evolução da Auditoria Pública e o Papel da IA

Tradicionalmente, a auditoria no setor público baseava-se em amostragens, focando na análise de processos e na conformidade documental. Com o advento do processo eletrônico (Lei nº 11.419/2006) e a digitalização massiva de dados, o volume de informações disponíveis tornou inviável a análise integral pelos métodos convencionais. A IA, por meio de técnicas como Machine Learning (Aprendizado de Máquina) e Processamento de Linguagem Natural (PLN), permite a análise preditiva e a identificação de padrões anômalos em grandes conjuntos de dados, otimizando o trabalho dos auditores.

A IA na auditoria possibilita:

  • Análise Preditiva: Identificação de riscos potenciais e tendências, permitindo ações preventivas.
  • Auditoria Contínua: Monitoramento em tempo real das transações, reduzindo o tempo de resposta a irregularidades.
  • Análise Textual Avançada: Extração de informações relevantes de documentos não estruturados, como contratos, editais e relatórios.
  • Detecção de Fraudes: Identificação de padrões suspeitos, como direcionamento de licitações ou pagamentos indevidos.

Fundamentação Legal e Normativa

A implementação de IA na auditoria pública deve estar ancorada em princípios constitucionais e normas infraconstitucionais. A Constituição Federal de 1988, em seu art. 37, caput, estabelece a eficiência como princípio norteador da Administração Pública, e a Lei do Governo Digital (Lei nº 14.129/2021) reforça o uso da tecnologia para aprimorar os serviços públicos.

O Marco Legal da Inteligência Artificial (Lei nº 15.011/2026)

A Lei nº 15.011/2026, sancionada recentemente, estabelece diretrizes fundamentais para o desenvolvimento e o uso da IA no Brasil, com impactos diretos no setor público. A lei consagra princípios como a transparência, a não discriminação, a segurança e a accountability (prestação de contas).

Para a auditoria pública, a lei impõe:

  1. Transparência Algorítmica: A exigência de que os algoritmos utilizados sejam inteligíveis e que suas decisões possam ser explicadas aos gestores e aos órgãos de controle (art. 7º).
  2. Governança de Dados: A necessidade de garantir a qualidade e a representatividade dos dados utilizados no treinamento da IA, evitando vieses e resultados discriminatórios (art. 12).
  3. Avaliação de Impacto: A obrigatoriedade de realizar avaliações de impacto algorítmico antes da implementação de sistemas de IA de alto risco, como aqueles que podem influenciar decisões judiciais ou administrativas relevantes (art. 18).

Jurisprudência e Normativas de Controle

O Tribunal de Contas da União (TCU) e os Tribunais de Contas dos Estados (TCEs) têm se posicionado sobre o uso de IA. A Resolução TCU nº 345/2022, que instituiu a Política de Governança de Dados do TCU, estabelece diretrizes para a gestão de informações, fundamentais para a aplicação de IA. O TCU já utiliza ferramentas de IA, como o Alice (Análise de Licitações e Editais) e o Sofia (Sistema de Orientação sobre Fatos e Indícios para Auditoria), validando a adoção dessas tecnologias no controle externo.

A jurisprudência, embora ainda em desenvolvimento, sinaliza a necessidade de cautela. Em decisões recentes, os tribunais têm enfatizado que a IA deve ser vista como uma ferramenta de auxílio, e não como um substituto para a análise crítica humana. A responsabilidade pelas decisões baseadas em IA permanece com o gestor público, conforme o princípio da responsabilidade civil do Estado (art. 37, § 6º, da CF/88).

Orientações Práticas para a Implementação de IA na Auditoria

A adoção de LegalTech para auditoria no setor público requer um planejamento cuidadoso e a observância de boas práticas.

1. Definição Clara dos Objetivos e Escopo

Antes de investir em IA, é fundamental definir quais problemas a tecnologia deve resolver. A IA deve ser aplicada em áreas onde há maior volume de dados e risco de irregularidades, como licitações, contratos e folhas de pagamento. O escopo da auditoria deve ser bem delimitado para garantir a efetividade da ferramenta.

2. Governança e Qualidade dos Dados

A eficácia da IA depende da qualidade dos dados utilizados. É necessário estabelecer uma política rigorosa de governança de dados, garantindo a integridade, a padronização e a atualização das informações (Lei Geral de Proteção de Dados - Lei nº 13.709/2018). Dados inconsistentes ou enviesados resultarão em auditorias falhas e decisões incorretas.

3. Seleção e Avaliação de Ferramentas

A escolha da ferramenta de LegalTech deve considerar a sua adequação às necessidades do órgão e a sua compatibilidade com os sistemas existentes. É crucial avaliar a transparência do algoritmo, a capacidade de explicação das decisões (XAI - Explainable AI) e a segurança da informação. A contratação deve observar os preceitos da Lei de Licitações e Contratos Administrativos (Lei nº 14.133/2021), priorizando soluções que demonstrem eficácia e custo-benefício.

4. Capacitação da Equipe

A implementação de IA exige a capacitação dos profissionais envolvidos. Auditores, procuradores e gestores precisam compreender os fundamentos da IA, suas limitações e como interpretar os resultados gerados pelas ferramentas. A formação contínua é essencial para garantir o uso ético e eficiente da tecnologia.

5. Monitoramento e Revisão Contínua

A IA não é uma solução estática. Os modelos de Machine Learning precisam ser constantemente monitorados e atualizados para se adaptarem a novos padrões de dados e a mudanças normativas. A revisão periódica dos algoritmos é fundamental para evitar a obsolescência e garantir a precisão da auditoria.

Desafios Éticos e Jurídicos

A utilização de IA na auditoria pública levanta questões éticas e jurídicas complexas que não podem ser ignoradas.

O Risco do "Caixa Preta"

Um dos principais desafios é o fenômeno da "caixa preta" (black box), onde o processo de tomada de decisão do algoritmo é opaco e ininteligível para os usuários. No setor público, a transparência é um princípio inegociável. O uso de IA em auditorias que resultem em sanções ou na rejeição de contas exige que a fundamentação da decisão seja clara e passível de contestação (art. 5º, LV, da CF/88 - contraditório e ampla defesa).

Vieses Algorítmicos

A IA aprende com os dados fornecidos. Se os dados históricos contiverem vieses (por exemplo, discriminação em contratações passadas), a IA poderá reproduzir e amplificar essas distorções. A mitigação de vieses exige a análise crítica dos dados de treinamento e a adoção de técnicas de auditoria algorítmica.

Responsabilidade e Accountability

A responsabilidade por erros ou danos causados por sistemas de IA no setor público é um tema em debate. A Lei nº 15.011/2026 estabelece que a responsabilidade recai sobre o operador do sistema, mas a complexidade da tecnologia pode dificultar a identificação do nexo causal. A Administração Pública deve instituir mecanismos claros de accountability e garantir que as decisões automatizadas sejam sempre supervisionadas por seres humanos.

Conclusão

A integração da LegalTech, impulsionada pela Inteligência Artificial, na auditoria pública representa um avanço significativo para a eficiência e a transparência da gestão governamental. Ferramentas de IA oferecem capacidades analíticas sem precedentes, permitindo o controle preditivo e contínuo. No entanto, a sua implementação exige rigor na observância do marco legal, especialmente a Lei nº 15.011/2026, e a adoção de práticas sólidas de governança de dados. O desafio para os profissionais do setor público reside em dominar essas tecnologias, garantindo que a inovação não se sobreponha aos princípios constitucionais da transparência, da legalidade e do devido processo legal, mantendo sempre o ser humano como o árbitro final das decisões.


Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.

Newsletter Jurídica

Dicas de IA para Advogados

Receba semanalmente dicas práticas, novidades do produto e as melhores práticas para usar IA na advocacia.

Prometemos não enviar spam. Cancele quando quiser.