A Inteligência Artificial (IA) tem revolucionado a gestão pública, prometendo celeridade, eficiência e precisão na administração de contratos. Contudo, essa inserção tecnológica, embora bem-vinda e muitas vezes necessária diante do volume colossal de demandas, suscita debates acalorados sobre seus limites éticos, operacionais e, sobretudo, legais. O presente artigo visa dissecar os aspectos polêmicos atinentes à utilização da IA na gestão de contratos públicos, fornecendo um panorama jurídico e prático para defensores, procuradores, promotores, juízes e auditores.
A promessa de automatizar processos repetitivos, identificar cláusulas nulas ou desvantajosas e monitorar prazos com precisão algorítmica é inegavelmente atraente. Sistemas de IA podem analisar milhares de páginas em segundos, cruzando dados e apontando inconsistências que passariam despercebidas ao olho humano. No entanto, a implementação dessas ferramentas no seio da Administração Pública exige cautela redobrada, sob pena de violação de princípios basilares do Direito Administrativo e da própria Constituição Federal.
A análise deve, obrigatoriamente, transcender a mera exaltação tecnológica e adentrar o campo das garantias fundamentais e da responsabilidade estatal. A IA não é infalível; seus algoritmos são criados por humanos e, portanto, suscetíveis a vieses e erros. Quando aplicada à gestão de contratos, a falibilidade da máquina pode resultar em prejuízos ao erário, violação de direitos de terceiros e responsabilização do gestor público.
A seguir, abordaremos os principais pontos de tensão, buscando conciliar o imperativo da modernização com a necessidade de segurança jurídica.
Transparência e o Problema da "Caixa Preta"
Um dos maiores desafios na adoção da IA na gestão pública é a chamada opacidade algorítmica, ou o fenômeno da "caixa preta". Sistemas complexos de machine learning (aprendizado de máquina) e deep learning (aprendizado profundo) frequentemente tomam decisões cujos fundamentos lógicos são inescrutáveis, até mesmo para seus desenvolvedores. Na esfera pública, essa falta de transparência choca-se frontalmente com o princípio da publicidade e com o dever de motivação dos atos administrativos.
O artigo 37, caput, da Constituição Federal consagra a publicidade como pilar da Administração Pública. Ademais, o artigo 50, incisos I e II, da Lei nº 9.784/1999 (Lei de Processo Administrativo) exige que os atos administrativos sejam motivados, com indicação dos fatos e dos fundamentos jurídicos, mormente quando afetem direitos ou interesses. Se uma IA recomenda a rescisão contratual ou a aplicação de multa, o gestor público deve ser capaz de explicar o porquê dessa recomendação de forma clara e objetiva.
A jurisprudência do Tribunal de Contas da União (TCU) tem se posicionado reiteradamente sobre a necessidade de transparência nos processos de contratação e gestão contratual. O Acórdão nº 2.471/2008-Plenário, por exemplo, ressalta a importância da motivação adequada e da possibilidade de escrutínio público das decisões administrativas. A utilização de IA não pode servir como escudo para obnubilar o processo decisório, devendo a Administração exigir dos fornecedores de tecnologia a rastreabilidade e a explicabilidade dos algoritmos (Explainable AI - XAI).
Requisitos Mínimos de Explicabilidade
Para mitigar o problema da "caixa preta", a Administração Pública deve estabelecer, nos editais de licitação e nos contratos de fornecimento de sistemas de IA, requisitos rigorosos de explicabilidade. Os sistemas devem ser capazes de gerar relatórios que detalhem:
- Os dados utilizados para treinar o algoritmo;
- Os critérios adotados pela IA para chegar a determinada conclusão (ex: rescisão, prorrogação, aplicação de penalidade);
- O peso atribuído a cada variável na tomada de decisão;
- Os possíveis vieses identificados no sistema e as medidas adotadas para mitigá-los.
A ausência desses requisitos pode ensejar a nulidade do ato administrativo e a responsabilização do gestor por omissão.
Vieses Algorítmicos e a Discriminação Involuntária
A IA aprende com base nos dados que lhe são fornecidos. Se os dados históricos estiverem eivados de preconceitos sociais, raciais, de gênero ou de qualquer outra natureza, a IA tenderá a reproduzir e até mesmo amplificar esses vieses. Na gestão de contratos públicos, isso pode levar a decisões discriminatórias, como a preterição de determinadas empresas em processos de renovação contratual ou a aplicação de penalidades mais severas a fornecedores de certas regiões ou com características específicas.
O princípio da impessoalidade, previsto no artigo 37 da Constituição Federal, veda qualquer forma de discriminação injustificada. O artigo 3º da Lei nº 14.133/2021 (Nova Lei de Licitações e Contratos) reforça esse mandamento, estabelecendo que a licitação e a gestão contratual devem observar, entre outros, os princípios da igualdade e do julgamento objetivo.
Para combater os vieses algorítmicos, é crucial que a Administração Pública adote medidas de governança de dados robustas, garantindo a qualidade, a representatividade e a diversidade dos dados utilizados no treinamento da IA. Além disso, é necessário realizar auditorias periódicas nos sistemas para identificar e corrigir possíveis distorções, promovendo o que se convencionou chamar de fairness (justiça) algorítmica.
Auditoria e Monitoramento Contínuo
A implementação de IA na gestão de contratos não é um evento isolado, mas um processo contínuo que exige monitoramento e avaliação constantes. A Administração Pública deve instituir comitês ou equipes multidisciplinares responsáveis por:
- Avaliar o impacto da IA nas decisões contratuais;
- Identificar e corrigir vieses e erros algorítmicos;
- Garantir a conformidade dos sistemas com a legislação e os princípios do Direito Administrativo;
- Promover a transparência e a prestação de contas sobre o uso da IA.
O controle externo, exercido pelos Tribunais de Contas e pelo Ministério Público, desempenha um papel fundamental nesse processo, devendo atuar de forma proativa na fiscalização do uso da IA na gestão pública.
Responsabilidade Civil e Administrativa
A questão da responsabilidade civil e administrativa no contexto do uso da IA é, quiçá, a mais espinhosa. Quando uma IA comete um erro que resulta em dano ao erário ou a terceiros, de quem é a culpa? Do desenvolvedor do sistema? Do gestor público que o implementou? Do servidor que acatou a recomendação da máquina?
A responsabilidade civil do Estado, consagrada no artigo 37, § 6º, da Constituição Federal, é objetiva, o que significa que a Administração responde pelos danos causados por seus agentes, independentemente de dolo ou culpa, bastando a comprovação do nexo causal entre a conduta (ou a utilização do sistema) e o dano.
No entanto, a responsabilidade do agente público é subjetiva, exigindo a demonstração de dolo ou culpa (negligência, imprudência ou imperícia). Se o servidor agir de boa-fé e acatar a recomendação da IA, acreditando que a máquina tomou a melhor decisão, ele poderá ser responsabilizado? A resposta, em regra, é não, salvo se houver erro crasso ou se o servidor tiver ignorado alertas ou indícios de falha no sistema.
A Teoria da Delegação Ilícita
Um argumento frequentemente aventado é o de que a utilização de IA para tomar decisões complexas configura uma delegação ilícita de competência. O artigo 11 da Lei nº 9.784/1999 estabelece que a competência é irrenunciável e se exerce pelos órgãos administrativos a que foi atribuída como própria. O artigo 13 do mesmo diploma legal veda a delegação da edição de atos de caráter normativo, da decisão de recursos administrativos e das matérias de competência exclusiva.
A delegação da tomada de decisão a um sistema de IA pode ser interpretada como uma violação desses preceitos legais, especialmente se a máquina for programada para agir com autonomia, sem a supervisão e a validação de um agente humano. Para evitar a delegação ilícita, a Administração Pública deve garantir que a IA atue apenas como uma ferramenta de apoio à decisão, e não como um substituto do servidor.
A Importância do Fator Humano (Human-in-the-Loop)
A mitigação dos riscos associados à IA na gestão de contratos perpassa, inexoravelmente, pela manutenção do fator humano no processo decisório. O conceito de human-in-the-loop (humano no ciclo) preconiza que a IA deve atuar como uma ferramenta de auxílio, fornecendo subsídios e recomendações, mas a decisão final deve sempre caber a um agente público devidamente capacitado e investido de competência legal.
A Lei nº 14.133/2021, em seu artigo 169, institui as linhas de defesa da contratação pública, atribuindo aos servidores e gestores públicos a responsabilidade primária pelo controle e pela regularidade dos processos. A delegação integral da gestão contratual a um algoritmo viola esse princípio basilar, esvaziando a figura do gestor e transferindo para a máquina uma responsabilidade que é inerente à função pública.
O servidor deve ser treinado para interpretar os resultados gerados pela IA, questionar suas recomendações quando necessário e exercer o seu juízo de valor com base na legislação, na jurisprudência e nos princípios do Direito Administrativo. A IA não substitui o bom senso, a ética e o compromisso com o interesse público.
O Marco Legal da IA (PL 2338/2023)
O cenário normativo brasileiro encontra-se em fase de consolidação com o Projeto de Lei nº 2.338/2023, que institui o Marco Legal da Inteligência Artificial no Brasil. O PL propõe uma regulação baseada em riscos, classificando os sistemas de IA em categorias (risco inaceitável, alto risco e baixo risco) e impondo obrigações proporcionais a cada nível.
No contexto da gestão de contratos públicos, sistemas que tomem decisões autônomas com impacto significativo nos direitos de terceiros ou no erário poderão ser classificados como de alto risco, sujeitando-se a exigências rigorosas de transparência, explicabilidade, governança de dados e supervisão humana.
O PL 2.338/2023 também prevê a responsabilidade civil objetiva para os fornecedores e operadores de sistemas de IA de alto risco, o que poderá impactar a dinâmica das contratações públicas de tecnologia e a alocação de riscos nos contratos administrativos. A aprovação e a implementação do Marco Legal da IA exigirão adaptações significativas por parte da Administração Pública, que deverá alinhar seus processos de contratação e gestão contratual às novas diretrizes normativas.
Orientações Práticas para a Implementação
Diante dos desafios expostos, a implementação da IA na gestão de contratos públicos deve ser pautada pela prudência e pelo planejamento estratégico. Algumas orientações práticas para os profissionais do setor público incluem:
- Mapeamento de Processos: Antes de adotar qualquer solução de IA, é fundamental mapear detalhadamente os processos de gestão contratual, identificando os gargalos, as ineficiências e as etapas que podem ser automatizadas com segurança.
- Definição Clara de Objetivos: A IA não é uma panaceia; ela deve ser utilizada para resolver problemas específicos e alcançar objetivos previamente definidos, como a redução do tempo de tramitação de processos ou a melhoria da precisão na análise de cláusulas.
- Avaliação Rigorosa de Fornecedores: A Administração Pública deve exigir dos fornecedores de tecnologia a comprovação da eficácia, da segurança e da conformidade legal de seus sistemas de IA, mediante a apresentação de certificações, laudos técnicos e casos de sucesso.
- Capacitação Contínua: Os servidores públicos devem ser capacitados não apenas para operar as ferramentas de IA, mas também para compreender seus princípios de funcionamento, seus limites e seus riscos éticos e legais.
- Instituição de Protocolos de Governança: É essencial estabelecer protocolos claros de governança de dados, auditoria algorítmica e supervisão humana, garantindo a transparência, a responsabilidade e a conformidade dos sistemas de IA com os princípios da Administração Pública.
Conclusão
A Inteligência Artificial ostenta um potencial transformador inegável para a gestão de contratos públicos, prometendo otimização de recursos e celeridade processual. Contudo, a sua implementação não pode ocorrer à margem dos princípios constitucionais e administrativos que regem a atuação estatal. A transparência, a mitigação de vieses, a manutenção da responsabilidade humana ( human-in-the-loop ) e a adequação ao emergente arcabouço regulatório (como o PL 2338/2023) são imperativos inafastáveis. Cabe aos profissionais do setor público – defensores, procuradores, promotores, juízes e auditores – o papel de sentinelas, garantindo que a modernização tecnológica sirva ao interesse público sem comprometer a segurança jurídica e os direitos fundamentais. A IA deve ser um instrumento de aperfeiçoamento da máquina pública, e não um substituto para o discernimento e a responsabilidade inerentes à função pública.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.