A ascensão exponencial da Inteligência Artificial (IA) tem transformado profundamente diversos setores da sociedade, e o controle externo da administração pública não é exceção. A integração de ferramentas algorítmicas, machine learning e análise de grandes volumes de dados (Big Data) nos Tribunais de Contas e órgãos de auditoria governamental promete maior eficiência, celeridade e precisão na detecção de fraudes, irregularidades e desvios de recursos. Contudo, essa modernização tecnológica traz consigo desafios jurídicos e éticos complexos, exigindo uma análise acurada sob a ótica da jurisprudência do Supremo Tribunal Federal (STF) e do arcabouço normativo vigente, incluindo a recém-promulgada Lei Geral de Inteligência Artificial (Lei nº 15.012/2026).
Este artigo explora a interseção entre IA e o controle externo, focando nas balizas estabelecidas pelo STF e nas diretrizes legais que orientam a utilização dessas tecnologias por órgãos como o Tribunal de Contas da União (TCU) e os Tribunais de Contas dos Estados (TCEs). O objetivo é fornecer um panorama atualizado e prático para profissionais do setor público, delineando os limites e as possibilidades da IA na fiscalização dos gastos públicos.
A Inteligência Artificial como Ferramenta de Controle Externo
O controle externo, previsto no artigo 70 da Constituição Federal de 1988 (CF/88), tem como finalidade a fiscalização contábil, financeira, orçamentária, operacional e patrimonial da União e das entidades da administração direta e indireta, quanto à legalidade, legitimidade e economicidade. A complexidade e o volume das transações governamentais tornam a fiscalização tradicional, baseada exclusivamente em processos manuais e amostragens limitadas, insuficiente para garantir a efetividade do controle.
Nesse contexto, a IA surge como um instrumento catalisador. Ferramentas como o "Alice" (Análise de Licitações e Editais) e o "Sofia" (Sistema de Orientação sobre Fatos e Indícios para Auditores), desenvolvidas pelo TCU, demonstram o potencial da tecnologia. Esses sistemas automatizam a leitura de milhares de editais de licitação diários, identificando cláusulas restritivas, sobrepreço e indícios de conluio com uma velocidade inalcançável para auditores humanos. A IA permite a transição de um controle reativo e amostral para um controle preditivo e exaustivo, analisando a totalidade dos dados disponíveis.
A base legal para a adoção dessas tecnologias encontra-se no princípio da eficiência (art. 37, caput, CF/88) e na necessidade de modernização administrativa, reforçada pela Lei do Governo Digital (Lei nº 14.129/2021) e, mais recentemente, pela Lei Geral de Inteligência Artificial (Lei nº 15.012/2026), que estabelece princípios, direitos e deveres para o desenvolvimento e uso da IA no Brasil, com foco especial na administração pública.
A Jurisprudência do STF e os Limites da Automação
O Supremo Tribunal Federal, como guardião da Constituição, tem se debruçado sobre as implicações da tecnologia no poder de polícia e no controle estatal. A adoção de IA no controle externo deve ser analisada sob a lente de princípios fundamentais, como o devido processo legal, a ampla defesa, o contraditório e a motivação dos atos administrativos.
O Princípio da Motivação e a "Caixa Preta" Algorítmica
Um dos principais desafios na utilização de sistemas de IA, especialmente aqueles baseados em deep learning (aprendizado profundo), é a opacidade algorítmica, frequentemente descrita como o problema da "caixa preta". Nesses sistemas, o processo lógico que conduz a uma determinada conclusão ou apontamento de irregularidade pode ser inescrutável até mesmo para os desenvolvedores.
O STF, em reiteradas decisões, tem reafirmado a obrigatoriedade da motivação dos atos administrativos (art. 50, da Lei nº 9.784/1999). A motivação é essencial para garantir o controle de legalidade e permitir o exercício do direito de defesa. Se um sistema de IA do TCU aponta uma irregularidade em um contrato, e essa indicação serve de base para uma medida cautelar de suspensão, o gestor público afetado tem o direito de compreender os critérios e a lógica que fundamentaram essa decisão.
A Lei Geral de Inteligência Artificial (Lei nº 15.012/2026), em seu artigo 12, consagra o direito à explicação, determinando que sistemas de IA utilizados pelo poder público que tomem decisões com impacto significativo sobre direitos individuais ou coletivos devem fornecer explicações claras, precisas e em linguagem acessível sobre a lógica, o funcionamento e os critérios utilizados. A jurisprudência do STF, embora ainda em formação específica sobre IA no controle externo, tende a exigir que a decisão final, mesmo quando subsidiada por algoritmos, seja fundamentada em elementos concretos e compreensíveis, não se admitindo a mera "delegação da decisão à máquina" sem a devida justificação humana.
O Devido Processo Legal e o Contraditório
A automação não pode suprimir as garantias processuais. A identificação de uma irregularidade por um sistema de IA, como o "Alice", constitui um indício, e não uma condenação prévia. O STF tem consolidado o entendimento de que a utilização de provas ou indícios obtidos por meios tecnológicos deve assegurar o contraditório e a ampla defesa (art. 5º, LV, CF/88).
Na prática, isso significa que o Tribunal de Contas, ao utilizar relatórios gerados por IA, deve notificar o gestor público ou a empresa envolvida, oportunizando-lhes contestar não apenas a conclusão da IA, mas também os dados que a alimentaram e os parâmetros algorítmicos utilizados. A decisão do STF no MS 35.843, que tratou da necessidade de contraditório prévio em decisões do TCU que anulam atos administrativos, serve como paradigma: a automação da detecção não exime o órgão de controle da obrigação de ouvir a parte afetada antes de impor sanções ou medidas restritivas de direitos, salvo em situações de urgência justificada, onde o contraditório diferido pode ser aplicado.
A Proteção de Dados e o Compartilhamento de Informações
A eficácia da IA no controle externo depende intrinsecamente do acesso a vastos bancos de dados. O cruzamento de informações fiscais, bancárias, previdenciárias e contratuais é fundamental para a detecção de fraudes complexas. Contudo, esse compartilhamento deve observar as balizas da Lei Geral de Proteção de Dados (LGPD - Lei nº 13.709/2018) e a jurisprudência do STF sobre o sigilo de dados.
O STF, no julgamento do RE 1055941 (Tema 990 de Repercussão Geral), consolidou a tese de que é constitucional o compartilhamento dos relatórios de inteligência financeira da UIF e da íntegra do procedimento fiscalizatório da Receita Federal com os órgãos de persecução penal para fins criminais, sem a obrigatoriedade de prévia autorização judicial. Esse entendimento, aplicável mutatis mutandis ao controle externo, reconhece a importância do fluxo de informações para a defesa do erário. No entanto, o Tribunal tem ressaltado que o acesso a dados sigilosos deve ser restrito, motivado e proporcional à finalidade da investigação.
A utilização de IA para cruzar dados sensíveis (como informações de saúde ou filiação sindical, dependendo do contexto da auditoria) exige cautela redobrada. A anonimização de dados, sempre que possível, e a implementação de rigorosos protocolos de segurança da informação são imperativos legais e jurisprudenciais para evitar vazamentos e abusos.
Orientações Práticas para Profissionais do Setor Público
A implementação e a utilização de sistemas de IA no controle externo e na defesa do erário exigem adaptação e conhecimento por parte de auditores, procuradores, defensores e juízes:
- Compreensão da Tecnologia: É fundamental que os profissionais do Direito busquem capacitação básica sobre o funcionamento da IA, seus vieses potenciais (bias) e limitações. A ignorância tecnológica não pode ser escudo para a validação acrítica de resultados algorítmicos.
- Exigência de Explicabilidade: Ao atuar na defesa de gestores ou empresas alvo de apontamentos gerados por IA, deve-se exigir a transparência algorítmica. Solicitar a documentação do sistema, os critérios de treinamento do modelo e a lógica de decisão é essencial para exercer o contraditório de forma efetiva, com base na Lei nº 15.012/2026.
- Validação Humana (Human-in-the-loop): O controle externo não deve, e legalmente não pode, ser totalmente automatizado em suas fases decisórias. A IA deve atuar como suporte à decisão (decision support), cabendo ao auditor ou ao Ministro do Tribunal de Contas a validação humana, a interpretação do contexto e a decisão final, devidamente motivada.
- Auditoria de Algoritmos: Os próprios Tribunais de Contas devem instituir mecanismos de auditoria interna dos algoritmos que utilizam. É preciso garantir que os sistemas não perpetuem vieses discriminatórios e que a taxa de falsos positivos (apontamentos incorretos) seja mantida em níveis aceitáveis, evitando a sobrecarga inútil do sistema de controle.
- Adequação à LGPD: A coleta e o processamento de dados por sistemas de IA devem ser mapeados e adequados aos princípios da finalidade, adequação e necessidade da LGPD, garantindo a segurança da informação e o respeito à privacidade.
Conclusão
A Inteligência Artificial representa um avanço inegável para o controle externo, dotando o Estado de ferramentas poderosas para a proteção do patrimônio público e a garantia da eficiência administrativa. No entanto, a adoção dessas tecnologias não ocorre em um vácuo jurídico. A jurisprudência do STF e a legislação recente, notadamente a Lei Geral de Inteligência Artificial, estabelecem parâmetros claros: a automação não pode sacrificar as garantias constitucionais do devido processo legal, da ampla defesa e da motivação dos atos administrativos. O desafio para os profissionais do setor público reside em equilibrar a inovação tecnológica com o rigor jurídico, garantindo que a IA atue como um instrumento de justiça e transparência, e não como uma "caixa preta" inescrutável. A validação humana, a exigência de explicabilidade e o respeito à proteção de dados são os pilares sobre os quais o futuro do controle externo automatizado deve ser construído.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.