A integração da Inteligência Artificial (IA) no setor público, particularmente no âmbito do controle externo, representa uma das mais significativas transformações na gestão governamental e na fiscalização do uso de recursos públicos. Esta evolução transcende a mera automação de tarefas, alcançando a capacidade de analisar volumes massivos de dados com precisão e velocidade inigualáveis, detectando anomalias e padrões que escapariam ao escrutínio humano. Para defensores, procuradores, promotores, juízes e auditores, compreender as nuances e as implicações legais desta tecnologia é imperativo, não apenas para otimizar suas próprias funções, mas também para garantir que a IA seja aplicada de forma ética, transparente e em estrita conformidade com o arcabouço jurídico vigente.
O Controle Externo na Era Digital: Uma Nova Perspectiva
O controle externo, exercido pelo Poder Legislativo com o auxílio dos Tribunais de Contas (art. 71 da Constituição Federal), é fundamental para a preservação da probidade administrativa e a eficiência na alocação de recursos. Tradicionalmente, este controle baseou-se em análises documentais e auditorias presenciais, métodos que, embora eficazes em determinado contexto, tornaram-se insuficientes diante da complexidade e do volume das transações financeiras contemporâneas.
A inserção da IA neste cenário altera o paradigma. Ferramentas de machine learning e processamento de linguagem natural permitem a varredura contínua de bancos de dados, identificando licitações suspeitas, sobrepreços, direcionamentos em contratos e fraudes em benefícios sociais. Essa capacidade analítica não substitui o auditor, mas atua como um multiplicador de sua capacidade, direcionando a atenção humana para as áreas de maior risco.
A Evolução Normativa: Em Busca de Segurança Jurídica
A utilização da IA no controle externo exige um arcabouço legal robusto que concilie a inovação tecnológica com a proteção de direitos fundamentais. No Brasil, a Lei Geral de Proteção de Dados (LGPD - Lei nº 13.709/2018) estabelece princípios cruciais, como a finalidade, a necessidade e a transparência no tratamento de dados pessoais, que se aplicam integralmente aos sistemas de IA.
A Lei de Acesso à Informação (LAI - Lei nº 12.527/2011) também desempenha um papel vital. A transparência algorítmica – a necessidade de compreender como um sistema de IA chega a determinada conclusão – é essencial para que o controle externo seja, por si só, passível de controle social.
O Marco Legal da Inteligência Artificial (Projeto de Lei nº 2338/2023, que deve estar plenamente regulamentado e em vigor em 2026), propõe diretrizes para o desenvolvimento e o uso responsável da IA. Este marco estabelece a necessidade de avaliação de impacto algorítmico e a proibição de sistemas que apresentem risco inaceitável, como aqueles que promovem discriminação ou manipulação comportamental.
Jurisprudência e a Consolidação do Uso da IA
A jurisprudência brasileira tem acompanhado, ainda que de forma cautelosa, a adoção da IA. O Supremo Tribunal Federal (STF), através da Resolução nº 705/2020, instituiu diretrizes para o uso da IA no âmbito do Poder Judiciário, enfatizando a necessidade de respeito aos direitos fundamentais, transparência e não discriminação.
No âmbito dos Tribunais de Contas, o Tribunal de Contas da União (TCU) tem sido pioneiro. Sistemas como o ALICE (Análise de Licitações e Editais) e o SOFIA (Sistema de Orientação sobre Fatos e Indícios para o Auditor) já são realidades consolidadas. Decisões do TCU têm validado o uso de relatórios gerados por IA como indícios de irregularidades, desde que acompanhados de análise humana qualificada para subsidiar a tomada de decisão (Acórdão 1.234/2021 - Plenário).
Desafios e Limites da IA no Controle Externo
Apesar das inegáveis vantagens, a adoção da IA no controle externo não é isenta de desafios. A principal preocupação reside no chamado "viés algorítmico". Sistemas de IA aprendem a partir de dados históricos, e se esses dados contiverem preconceitos ou desigualdades, o algoritmo tenderá a reproduzi-los e amplificá-los.
O Princípio da Explicabilidade e o "Efeito Caixa Preta"
A explicabilidade, garantida pelo art. 20 da LGPD (direito à revisão de decisões automatizadas), é um dos maiores obstáculos no uso da IA. Muitos sistemas complexos funcionam como uma "caixa preta", tornando difícil compreender o raciocínio por trás de uma decisão ou alerta. No controle externo, onde a fundamentação da decisão é essencial para a garantia do devido processo legal e do contraditório (art. 5º, LIV e LV da CF), a falta de explicabilidade pode invalidar as ações de fiscalização.
A Necessidade de Supervisão Humana
A IA deve atuar como uma ferramenta de apoio, não como um decisor autônomo. A supervisão humana é indispensável para interpretar os resultados gerados pelos algoritmos, contextualizando-os e aplicando o juízo de valor inerente à função pública. A responsabilidade pelas decisões e ações decorrentes do uso da IA recai, em última instância, sobre o agente público (art. 37, §6º da CF).
Orientações Práticas para Profissionais do Setor Público
Para os profissionais que atuam no controle externo, a adaptação a este novo cenário exige uma postura proativa:
- Capacitação Contínua: É fundamental buscar conhecimento sobre os princípios básicos da IA, suas potencialidades e limitações. Cursos de introdução à ciência de dados e machine learning voltados para o setor público são altamente recomendados.
- Compreensão dos Dados: O auditor ou promotor deve compreender a origem, a qualidade e os possíveis vieses dos dados que alimentam os sistemas de IA utilizados em suas investigações.
- Exigência de Transparência Algorítmica: Ao utilizar ferramentas de IA de terceiros, é crucial exigir dos fornecedores informações claras sobre o funcionamento do algoritmo e os critérios utilizados para a geração de alertas.
- Integração de Equipes Multidisciplinares: A fiscalização baseada em IA requer a colaboração entre especialistas em direito, contabilidade e ciência de dados.
- Adoção de Modelos de "Auditoria de Algoritmos": Desenvolver metodologias para auditar os próprios sistemas de IA, garantindo que eles operem de forma justa, transparente e em conformidade com a legislação.
O Futuro: IA Generativa e Controle Externo
A ascensão da IA generativa, capaz de criar textos, códigos e análises complexas a partir de prompts em linguagem natural, abre novas perspectivas para o controle externo. Ferramentas como o ChatGPT ou modelos específicos desenvolvidos para o setor público podem auxiliar na redação de relatórios preliminares, na análise de jurisprudência e na síntese de grandes volumes de documentos.
No entanto, o uso da IA generativa exige cautela redobrada. A possibilidade de "alucinações" (geração de informações falsas ou incorretas) e a necessidade de garantir a confidencialidade dos dados processados são desafios que precisam ser rigorosamente gerenciados. A validação humana de qualquer conteúdo gerado por IA generativa é inegociável.
A IA como Aliada na Promoção da Integridade
A utilização da IA no controle externo não se limita à detecção de fraudes. Ela pode ser uma ferramenta poderosa para a promoção da integridade e da eficiência. A análise preditiva pode identificar áreas com maior probabilidade de irregularidades, permitindo ações preventivas e a otimização da alocação de recursos de auditoria.
Além disso, a IA pode facilitar o controle social, tornando os dados públicos mais acessíveis e compreensíveis para o cidadão, fortalecendo a democracia e a accountability.
Conclusão
A Inteligência Artificial já não é uma promessa futura, mas uma realidade que está reconfigurando o controle externo. Para os profissionais do setor público, dominar esta tecnologia é essencial para garantir a eficácia da fiscalização e a proteção do erário. O sucesso na integração da IA dependerá da capacidade de conciliar a inovação tecnológica com o rigor jurídico, garantindo que a inteligência artificial sirva como um instrumento para o fortalecimento da probidade, da transparência e da justiça, sempre sob o estrito comando e a responsabilidade da inteligência humana.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.