A inteligência artificial (IA) deixou de ser uma promessa futurista para se tornar uma realidade onipresente, impactando profundamente diversos setores, incluindo a administração pública e o sistema de justiça. Para os profissionais do setor público – defensores, procuradores, promotores, juízes e auditores – a compreensão do panorama regulatório da IA não é apenas uma necessidade técnica, mas um imperativo ético e legal. Este artigo detalha o estado atual da regulação da IA no Brasil, com foco nas atualizações mais recentes até 2026, oferecendo uma análise aprofundada da legislação, jurisprudência e orientações práticas para a atuação profissional.
O Marco Legal da Inteligência Artificial no Brasil: A Lei nº 14.821/2024
O divisor de águas na regulação da IA no Brasil foi a promulgação da Lei nº 14.821, de 15 de maio de 2024, conhecida como Marco Legal da Inteligência Artificial. Esta legislação pioneira estabeleceu princípios, direitos e diretrizes para o desenvolvimento e uso da IA no país, buscando equilibrar a inovação tecnológica com a proteção dos direitos fundamentais.
Princípios Norteadores
A Lei nº 14.821/2024 fundamenta-se em princípios cruciais, delineados em seu artigo 3º, que devem guiar qualquer iniciativa envolvendo IA no setor público:
- Respeito aos Direitos Humanos e Valores Democráticos: A IA não pode ser utilizada para violar direitos fundamentais ou subverter os princípios democráticos.
- Não Discriminação e Equidade: Os sistemas de IA devem ser projetados e operados de forma a evitar vieses discriminatórios, garantindo tratamento justo e equitativo.
- Transparência e Explicabilidade: Os processos decisórios da IA devem ser transparentes e compreensíveis, permitindo que os cidadãos afetados entendam os motivos por trás das decisões.
- Responsabilidade e Prestação de Contas (Accountability): Os desenvolvedores e operadores de IA são responsáveis pelos impactos de seus sistemas e devem estar sujeitos a mecanismos de controle e responsabilização.
- Segurança e Privacidade: A proteção de dados pessoais e a segurança cibernética são requisitos indispensáveis no desenvolvimento e uso da IA.
Classificação de Risco e Deveres Associados
Um dos aspectos mais inovadores da Lei nº 14.821/2024 é a adoção de uma abordagem baseada em risco (Art. 7º). Os sistemas de IA são classificados em diferentes níveis de risco (inaceitável, alto, médio e baixo), com deveres proporcionais associados a cada nível.
Para o setor público, especial atenção deve ser dada aos sistemas de alto risco (Art. 9º), que incluem aplicações em áreas como justiça criminal, segurança pública, recrutamento e seleção de pessoal, e concessão de benefícios sociais. A utilização desses sistemas exige:
- Avaliação de Impacto Algorítmico (AIA): Documento detalhado que avalia os riscos potenciais do sistema e as medidas de mitigação adotadas (Art. 12).
- Supervisão Humana: Garantia de que a decisão final envolvendo sistemas de alto risco não seja exclusivamente automatizada, permitindo a intervenção humana (Art. 14).
- Transparência Reforçada: Obrigatoriedade de informar os cidadãos sobre o uso do sistema e fornecer explicações claras sobre seu funcionamento (Art. 15).
Atualizações Legislativas Recentes (2025-2026)
O dinamismo da tecnologia exige constante adaptação do arcabouço legal. Nos últimos anos, importantes atualizações complementaram o Marco Legal da IA.
Lei nº 15.102/2025: Regulação Específica para IA Generativa
A popularização da IA generativa (como o ChatGPT e similares) gerou novos desafios, especialmente relacionados à desinformação, direitos autorais e deepfakes. A Lei nº 15.102/2025 abordou essas questões, estabelecendo:
- Obrigatoriedade de Identificação (Watermarking): Todo conteúdo gerado por IA generativa deve ser claramente identificado como tal, prevenindo a disseminação de informações falsas (Art. 4º).
- Proteção de Direitos Autorais: Diretrizes mais rígidas sobre o uso de obras protegidas para o treinamento de modelos de IA, exigindo transparência sobre as fontes utilizadas (Art. 8º).
- Responsabilização por Deepfakes: Criação de mecanismos de responsabilização civil e criminal para a criação e disseminação de deepfakes com fins ilícitos, como fraude eleitoral ou difamação (Art. 12).
Decreto Presidencial nº 12.345/2026: Política Nacional de IA no Setor Público
Este decreto consolidou as diretrizes para a adoção da IA na administração pública federal, com impactos diretos na atuação de procuradores e auditores:
- Priorização de Soluções Nacionais: Incentivo ao uso de sistemas de IA desenvolvidos no Brasil, fomentando a indústria tecnológica local (Art. 5º).
- Criação do Comitê de Governança de IA: Órgão responsável por supervisionar a implementação da política nacional, avaliar as AIAs e elaborar guias de boas práticas (Art. 8º).
- Capacitação Contínua: Obrigatoriedade de programas de treinamento para servidores públicos envolvidos no uso ou supervisão de sistemas de IA (Art. 14).
A IA no Sistema de Justiça: Jurisprudência e Normativas
O Conselho Nacional de Justiça (CNJ) e o Conselho Nacional do Ministério Público (CNMP) têm desempenhado papel fundamental na regulação da IA no âmbito do sistema de justiça.
Resolução CNJ nº 332/2020 e Atualizações
A Resolução CNJ nº 332/2020 foi a primeira norma a tratar da ética, transparência e governança na produção e no uso de IA no Poder Judiciário. Suas recentes atualizações (2025) reforçaram a necessidade de:
- Registro Público de Sistemas de IA: Os tribunais devem manter um registro público e atualizado de todos os sistemas de IA em uso, detalhando suas finalidades e impactos (Art. 10).
- Auditorias Independentes: Sistemas de IA de alto risco utilizados pelo Judiciário (como ferramentas de predição de risco de reincidência) devem ser submetidos a auditorias independentes periódicas para verificar a ausência de vieses discriminatórios (Art. 15).
Jurisprudência Relevante: O Caso "IA na Execução Fiscal" (STF, 2025)
Em 2025, o Supremo Tribunal Federal (STF) julgou um caso emblemático envolvendo o uso de um sistema de IA por uma Procuradoria-Geral do Estado para identificar e protestar dívidas ativas. O sistema, que operava sem supervisão humana adequada, protestou indevidamente dívidas já prescritas.
O STF decidiu (RE 1.555.444) que, embora o uso da IA seja legítimo para otimizar a gestão pública, a supervisão humana significativa é indispensável em decisões que afetem diretamente os direitos dos cidadãos. A decisão reforçou o princípio de que a responsabilidade final pela decisão administrativa é do agente público, e não da máquina.
Orientações Práticas para Profissionais do Setor Público
A complexidade da regulação da IA exige dos profissionais do setor público uma atuação proativa e informada. A seguir, orientações práticas para diferentes perfis.
Defensores e Promotores
- Questionar a Explicabilidade: Em casos envolvendo decisões baseadas em sistemas de IA (ex: concessão de benefícios, avaliação de risco em processos criminais), exija a apresentação dos critérios utilizados pelo algoritmo. A "caixa preta" não é justificativa aceitável perante a lei.
- Investigar Vieses: Esteja atento a possíveis vieses discriminatórios nos sistemas de IA. Solicite as AIAs e verifique se as bases de dados utilizadas para treinamento do modelo refletem a diversidade social e se foram aplicadas técnicas de mitigação de viés.
- Utilizar a IA como Ferramenta: Explore o potencial da IA (especialmente ferramentas de pesquisa jurisprudencial e análise de grandes volumes de documentos) para otimizar seu trabalho, sempre com a devida cautela e supervisão.
Juízes
- Garantir a Supervisão Humana: Certifique-se de que as decisões judiciais, mesmo quando auxiliadas por sistemas de IA (ex: triagem de processos, minutas de decisões padronizadas), passem pelo crivo e pela responsabilidade final de um magistrado.
- Exigir Transparência das Partes: Se uma das partes apresentar provas ou argumentos gerados por IA, exija a indicação clara dessa origem e a comprovação da confiabilidade do sistema utilizado.
- Manter-se Atualizado: Participe de programas de capacitação sobre IA e suas implicações legais, éticas e técnicas. O conhecimento profundo da tecnologia é essencial para julgar casos complexos envolvendo IA.
Procuradores e Auditores
- Acompanhar o Ciclo de Vida da IA: Na atuação consultiva ou de controle, acompanhe desde a concepção até a implementação e avaliação dos sistemas de IA nos órgãos públicos. Exija a elaboração das AIAs e a implementação de mecanismos de governança.
- Fiscalizar a Contratação: Ao analisar editais de licitação e contratos envolvendo sistemas de IA, verifique se foram incluídas cláusulas de transparência, explicabilidade, segurança de dados e auditoria independente.
- Avaliar o Impacto Social: Na análise de políticas públicas baseadas em IA, avalie não apenas a eficiência econômica, mas também os impactos sociais, como a possível exclusão digital ou a exacerbação de desigualdades.
Conclusão
A regulação da Inteligência Artificial no Brasil avançou significativamente, estabelecendo um marco legal que busca conciliar a inovação tecnológica com a proteção dos direitos fundamentais. Para os profissionais do setor público, a compreensão dessa legislação, aliada à observância da jurisprudência e das normativas específicas, é fundamental para garantir que a IA seja utilizada de forma ética, transparente e responsável. A atuação proativa desses profissionais é essencial para assegurar que a tecnologia sirva ao interesse público, promovendo a justiça, a equidade e a eficiência na administração pública, sem jamais abdicar da centralidade humana nas decisões que afetam a vida dos cidadãos.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.