A inteligência artificial (IA) tem se consolidado como uma ferramenta transformadora no cenário jurídico e administrativo, especialmente no que tange ao controle externo exercido pelos Tribunais de Contas. A implementação de sistemas algorítmicos promete maior eficiência e precisão na análise de dados, mas não está isenta de controvérsias. A adoção dessas tecnologias suscita debates sobre a transparência, a responsabilidade e o respeito aos princípios constitucionais. Este artigo explora as nuances dessa integração, analisando os aspectos polêmicos e as implicações práticas para os profissionais do setor público.
O Controle Externo na Era da Inteligência Artificial
O controle externo, pilar da administração pública, visa assegurar a legalidade, legitimidade e economicidade dos atos e gastos governamentais. A Constituição Federal de 1988, em seu artigo 70, estabelece o Congresso Nacional, com o auxílio do Tribunal de Contas da União (TCU), como o órgão responsável por essa fiscalização. A complexidade e o volume de informações geradas pela administração moderna desafiam a capacidade humana de processamento, tornando a IA uma aliada potencial. Sistemas como o ALICE (Análise de Licitações e Editais) e o SOFIA (Sistema de Orientação sobre Fatos e Indícios para Auditores), desenvolvidos pelo TCU, exemplificam essa tendência.
A promessa da IA reside na automação de tarefas repetitivas, identificação de padrões e anomalias, e na otimização da alocação de recursos de auditoria. No entanto, a delegação de decisões, mesmo que parciais, a algoritmos levanta questionamentos sobre a conformidade com o devido processo legal (artigo 5º, inciso LIV, da CF/88) e a ampla defesa (artigo 5º, inciso LV, da CF/88). A opacidade de alguns modelos de IA, conhecidos como "caixas-pretas", dificulta a compreensão do raciocínio subjacente à decisão, comprometendo a transparência e a accountability.
Aspectos Polêmicos e Desafios Jurídicos
A integração da IA no controle externo apresenta desafios jurídicos que exigem uma reflexão aprofundada por parte dos profissionais do direito e da administração pública.
Transparência e Explicabilidade
A Lei de Acesso à Informação (Lei nº 12.527/2011) e a Lei Geral de Proteção de Dados (Lei nº 13.709/2018 - LGPD) consagram o princípio da transparência na administração pública. A LGPD, em seu artigo 20, garante ao titular dos dados o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado. No contexto do controle externo, a explicabilidade dos algoritmos é crucial para garantir que os auditados compreendam os motivos pelos quais uma irregularidade foi apontada, permitindo o exercício do contraditório. A ausência de transparência pode levar à anulação de atos administrativos baseados em IA, como já discutido em julgados de tribunais superiores.
Viés Algorítmico e Discriminação
Os algoritmos de IA são treinados com base em dados históricos, que podem conter vieses e preconceitos. A reprodução desses vieses pelos sistemas de controle externo pode resultar em discriminação e injustiças. Por exemplo, um algoritmo treinado com dados que refletem práticas discriminatórias em licitações pode perpetuar essas práticas, apontando irregularidades de forma desproporcional em determinados grupos ou setores. A Constituição Federal (artigo 3º, inciso IV, e artigo 5º, caput) veda qualquer forma de discriminação, exigindo que os sistemas de IA sejam desenvolvidos e auditados de forma a mitigar esses riscos.
Responsabilidade Civil e Administrativa
A atribuição de responsabilidade em casos de danos causados por decisões automatizadas é um tema complexo. A responsabilidade objetiva do Estado, prevista no artigo 37, § 6º, da CF/88, aplica-se aos danos causados por seus agentes, independentemente de culpa ou dolo. No entanto, a identificação do agente responsável em um sistema de IA pode ser desafiadora. A responsabilidade recai sobre o desenvolvedor do software, o órgão público que o implementou ou o auditor que validou a decisão? A jurisprudência ainda está se consolidando nessa área, mas a tendência é responsabilizar o órgão público, que tem o dever de garantir a segurança e a confiabilidade dos sistemas que utiliza.
Marcos Regulatórios e Orientações Práticas
A regulamentação da IA no Brasil e no mundo está em constante evolução. O Marco Legal da Inteligência Artificial (Projeto de Lei nº 2338/2023), que visa estabelecer diretrizes para o desenvolvimento e o uso da IA no país, encontra-se em tramitação no Congresso Nacional. A proposta prevê a classificação de sistemas de IA com base no risco, estabelecendo requisitos de transparência, segurança e governança mais rigorosos para sistemas de alto risco, como os utilizados no controle externo.
Diretrizes para Profissionais do Setor Público
Diante dos desafios e incertezas, os profissionais do setor público devem adotar cautelas na utilização e na análise de sistemas de IA no controle externo:
- Compreensão do Sistema: É fundamental que auditores, procuradores e juízes compreendam o funcionamento básico do sistema de IA, seus objetivos, limitações e os dados utilizados em seu treinamento.
- Supervisão Humana: A IA não deve substituir o julgamento humano. As decisões automatizadas devem ser submetidas a revisão e validação por profissionais qualificados, garantindo a conformidade com a legislação e os princípios constitucionais.
- Auditoria Algorítmica: Os órgãos de controle devem promover auditorias regulares nos sistemas de IA para identificar e corrigir vieses, garantir a segurança da informação e avaliar a eficácia do sistema.
- Transparência Ativa: A administração pública deve disponibilizar informações claras e acessíveis sobre os sistemas de IA utilizados, seus objetivos e os critérios de decisão, promovendo a transparência e o controle social.
- Capacitação Contínua: A rápida evolução tecnológica exige a atualização constante dos profissionais do setor público em relação às novas tecnologias, seus impactos jurídicos e as melhores práticas de uso.
A Jurisprudência e a Atuação dos Tribunais
Os Tribunais de Contas têm se posicionado sobre o uso da IA no controle externo, buscando conciliar a inovação tecnológica com a segurança jurídica. O TCU, por meio do Acórdão nº 1.434/2022-Plenário, estabeleceu diretrizes para o uso de IA em auditorias, enfatizando a necessidade de transparência, explicabilidade e supervisão humana. O Tribunal também tem investido em projetos de pesquisa e desenvolvimento em parceria com universidades e instituições de pesquisa, buscando aprimorar a eficácia e a segurança de seus sistemas.
A jurisprudência do Supremo Tribunal Federal (STF) e do Superior Tribunal de Justiça (STJ) ainda está em formação no que se refere especificamente à IA no controle externo. No entanto, decisões recentes sobre o uso de algoritmos na administração pública, como no caso do reconhecimento facial em segurança pública, indicam uma preocupação com a proteção de dados, a privacidade e a não discriminação. A tendência é que os tribunais superiores exijam maior rigor na fundamentação e na transparência das decisões baseadas em IA, garantindo o respeito aos direitos fundamentais.
Conclusão
A integração da inteligência artificial no controle externo representa um avanço significativo para a administração pública, oferecendo ferramentas poderosas para a detecção de irregularidades e a otimização de recursos. No entanto, a adoção dessas tecnologias deve ser acompanhada de uma reflexão crítica sobre seus impactos jurídicos, éticos e sociais. A transparência, a explicabilidade, a mitigação de vieses e a supervisão humana são princípios fundamentais para garantir que a IA seja utilizada de forma justa, responsável e em conformidade com a Constituição Federal. A capacitação contínua dos profissionais do setor público e o acompanhamento da evolução legislativa e jurisprudencial são essenciais para enfrentar os desafios e aproveitar as oportunidades que a IA oferece ao controle externo.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.