A auditoria, função essencial à transparência e à boa gestão pública, encontra-se em um momento de transição profunda. A inteligência artificial (IA) promete revolucionar a forma como os auditores atuam, oferecendo ferramentas para analisar volumes massivos de dados, identificar padrões e anomalias, e otimizar processos de forma impensável há poucos anos. No entanto, a incorporação dessa tecnologia no âmbito da auditoria governamental suscita debates acalorados e desafios jurídicos complexos. Este artigo explora as principais polêmicas envolvendo a IA na auditoria, com foco no cenário brasileiro e nas normas aplicáveis até 2026.
O Desafio da Transparência e a "Caixa Preta"
A principal preocupação em relação à IA na auditoria reside na opacidade de certos algoritmos, frequentemente descritos como "caixas pretas". Em um contexto onde a transparência é pilar da atuação pública (art. 37, caput, da Constituição Federal), a incapacidade de compreender os critérios utilizados pela máquina para chegar a determinada conclusão gera insegurança jurídica. Como justificar um apontamento de irregularidade se o auditor não consegue explicar o caminho lógico percorrido pelo algoritmo?
A Lei Geral de Proteção de Dados (LGPD - Lei nº 13.709/2018), em seu art. 20, consagra o direito à revisão de decisões tomadas unicamente com base em tratamento automatizado de dados, o que se aplica diretamente aos processos de auditoria que envolvem dados pessoais. A jurisprudência, ainda em formação sobre o tema, tende a exigir que a administração pública forneça explicações claras sobre o funcionamento dos algoritmos, sob pena de nulidade dos atos administrativos deles decorrentes.
A Exigência de "Explainable AI" (XAI)
Para mitigar a opacidade, a doutrina e as diretrizes internacionais, como as da Organização Internacional das Entidades Fiscalizadoras Superiores (INTOSAI), preconizam a adoção de sistemas de IA explicável (Explainable AI - XAI). A XAI visa tornar os processos decisórios dos algoritmos compreensíveis para humanos, permitindo que os auditores justifiquem suas conclusões e garantam o contraditório e a ampla defesa. A ausência de explicabilidade compromete a validade jurídica dos achados de auditoria.
O Viés Algorítmico e a Discriminação
Outro aspecto polêmico é a suscetibilidade dos algoritmos a vieses, conscientes ou inconscientes, presentes nos dados de treinamento ou no próprio design do sistema. Se os dados históricos utilizados para treinar a IA contiverem preconceitos ou refletirem práticas discriminatórias do passado, a máquina tenderá a reproduzi-los e amplificá-los, resultando em auditorias enviesadas e injustas.
A Constituição Federal (art. 3º, IV, e art. 5º, caput) veda qualquer forma de discriminação, princípio que se estende à atuação da administração pública. A utilização de algoritmos enviesados na seleção de alvos de auditoria, por exemplo, pode configurar violação aos princípios da isonomia e da impessoalidade.
Mitigando Vieses na Prática
Para combater os vieses, é fundamental adotar medidas proativas, como a diversidade nas equipes de desenvolvimento, auditorias regulares dos algoritmos para identificar e corrigir vieses, e a utilização de conjuntos de dados representativos e imparciais. A implementação de mecanismos de feedback e a possibilidade de intervenção humana nos processos decisórios também são cruciais para garantir a justiça e a equidade nas auditorias.
A Responsabilidade Civil e a Atuação do Auditor
A delegação de tarefas de auditoria para sistemas de IA levanta a questão da responsabilidade civil em caso de erros ou falhas. Se um algoritmo identificar incorretamente uma irregularidade, causando prejuízos a terceiros, quem será responsabilizado? O desenvolvedor do software, a entidade pública que o adquiriu, ou o auditor que validou os resultados?
A Lei de Introdução às Normas do Direito Brasileiro (LINDB - Decreto-Lei nº 4.657/1942), em seu art. 28, estabelece que o agente público responderá pessoalmente por suas decisões ou opiniões técnicas em caso de dolo ou erro grosseiro. A jurisprudência, no entanto, ainda não consolidou o entendimento sobre a aplicação deste dispositivo em contextos envolvendo IA. A tendência é que a responsabilidade seja compartilhada, exigindo-se que a administração pública adote medidas para garantir a qualidade e a segurança dos sistemas de IA utilizados, e que os auditores exerçam o devido ceticismo profissional ao validar os resultados gerados pela máquina.
O Papel do Ceticismo Profissional
O ceticismo profissional, princípio basilar da auditoria, ganha ainda mais relevância no contexto da IA. O auditor não deve aceitar passivamente as conclusões do algoritmo, mas sim analisá-las criticamente, confrontando-as com outras evidências e utilizando seu julgamento profissional para validar os achados. A IA deve ser vista como uma ferramenta de apoio, e não como um substituto para o julgamento humano.
A Proteção de Dados e o Sigilo
A auditoria frequentemente envolve o acesso a grandes volumes de dados, incluindo informações sensíveis e protegidas por sigilo (art. 5º, X e XII, da Constituição Federal). A utilização de sistemas de IA para analisar esses dados exige a adoção de medidas rigorosas de segurança da informação para prevenir vazamentos e acessos não autorizados.
A LGPD estabelece princípios e regras para o tratamento de dados pessoais, impondo à administração pública o dever de garantir a segurança e a privacidade das informações. A inobservância dessas regras pode ensejar a responsabilização civil e administrativa da entidade pública e de seus agentes.
Medidas de Segurança da Informação
A implementação de medidas de segurança, como criptografia, controle de acesso, e auditorias regulares dos sistemas, é essencial para mitigar os riscos à proteção de dados. A adoção de técnicas de anonimização e pseudonimização também pode contribuir para reduzir a exposição de informações sensíveis, desde que não comprometa a eficácia da auditoria.
Orientações Práticas para a Incorporação Segura da IA
A adoção da IA na auditoria exige um planejamento cuidadoso e a implementação de salvaguardas adequadas. Algumas orientações práticas para os profissionais do setor público incluem:
- Capacitação Contínua: Investir na capacitação dos auditores em relação aos princípios, funcionamento e riscos da IA, para que possam utilizar as ferramentas de forma crítica e eficaz.
- Adoção de XAI: Priorizar a aquisição e o desenvolvimento de sistemas de IA explicável, garantindo a transparência e a justificabilidade das decisões.
- Auditoria de Algoritmos: Implementar processos regulares de auditoria dos algoritmos para identificar e corrigir vieses, garantindo a justiça e a equidade nas auditorias.
- Gestão de Riscos: Estabelecer um arcabouço robusto de gestão de riscos, incluindo a avaliação de impactos à proteção de dados e a implementação de medidas de segurança da informação.
- Manutenção do Ceticismo Profissional: Assegurar que os auditores exerçam o devido ceticismo profissional ao validar os resultados gerados pela IA, não os aceitando passivamente.
Conclusão
A inteligência artificial representa um avanço inegável para a auditoria governamental, oferecendo oportunidades para aprimorar a eficiência, a eficácia e a tempestividade dos trabalhos. No entanto, a sua adoção deve ser acompanhada de uma reflexão crítica sobre os desafios jurídicos e éticos envolvidos, especialmente no que tange à transparência, aos vieses, à responsabilidade e à proteção de dados. O sucesso da integração da IA na auditoria dependerá da capacidade da administração pública de implementar salvaguardas adequadas e de garantir que a tecnologia seja utilizada como uma ferramenta de apoio ao julgamento humano, fortalecendo a transparência e a boa governança no setor público.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.