A integração da Inteligência Artificial (IA) no setor público, especialmente no Sistema de Justiça, promete ganhos expressivos de eficiência, agilidade e precisão. Contudo, essa transformação digital profunda não está isenta de desafios, sendo a transparência algorítmica um dos mais críticos. Para defensores, procuradores, promotores, juízes e auditores, a compreensão e a aplicação dos princípios de transparência no uso da IA não são apenas uma questão de boas práticas, mas um imperativo legal e ético. Este guia explora as nuances da IA e da transparência no contexto jurídico brasileiro, oferecendo um panorama atualizado da legislação e orientações práticas para a mitigação de riscos.
O Imperativo da Transparência Algorítmica no Setor Público
A transparência, no contexto da IA, refere-se à capacidade de compreender como um sistema algorítmico funciona, como toma decisões e quais dados utiliza. No setor público, essa exigência é amplificada pelo princípio da publicidade (Art. 37, caput, da Constituição Federal) e pela necessidade de garantir o devido processo legal e o direito à ampla defesa (Art. 5º, LIV e LV, da CF). Quando algoritmos são empregados para auxiliar em decisões judiciais, concessão de benefícios, triagem de processos ou análise de risco, a opacidade – o chamado fenômeno da "caixa preta" (black box) – compromete a accountability e a confiança nas instituições.
A Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018) estabeleceu marcos importantes nesse sentido. O Art. 20 garante aos titulares dos dados o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado, incluindo aquelas destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. O § 1º do mesmo artigo impõe ao controlador o dever de fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.
Arcabouço Normativo e Jurisprudencial em Evolução
O cenário normativo brasileiro tem acompanhado a rápida evolução tecnológica, buscando equilibrar a inovação com a proteção de direitos.
O Marco Legal da Inteligência Artificial (PL 2338/2023 e Evoluções)
O debate legislativo sobre a regulação da IA no Brasil, impulsionado pelo Projeto de Lei nº 2338/2023, consolidou a transparência como princípio fundamental. A legislação, em suas versões mais recentes (considerando o cenário até 2026), estabelece a categorização de sistemas de IA baseada em risco. Sistemas de alto risco, frequentemente encontrados no setor público (como ferramentas de biometria, policiamento preditivo e suporte à decisão judicial), estão sujeitos a obrigações rigorosas de transparência.
Isso inclui a exigência de avaliações de impacto algorítmico prévias, a documentação detalhada do desenvolvimento e funcionamento do sistema, e a obrigação de informar aos usuários quando estiverem interagindo com uma IA. A transparência, nesse contexto, não se limita à abertura do código-fonte, mas engloba a explicabilidade das decisões e a identificação de vieses nos dados de treinamento.
Resoluções do CNJ e Normativas Específicas
O Conselho Nacional de Justiça (CNJ) tem desempenhado um papel proativo na orientação do uso da IA no Judiciário. A Resolução CNJ nº 332/2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de IA no Poder Judiciário, é um marco. Ela estabelece que a IA deve respeitar os direitos fundamentais, promover a igualdade e evitar a discriminação (Art. 3º).
O Art. 5º da Resolução 332/2020 exige que os tribunais garantam a transparência dos modelos de IA, permitindo a compreensão dos critérios utilizados nas decisões automatizadas ou assistidas. Além disso, a Resolução CNJ nº 396/2021, que institui a Estratégia Nacional de Tecnologia da Informação e Comunicação do Poder Judiciário (ENTIC-JUD), reforça a necessidade de auditoria e monitoramento contínuo dos sistemas algorítmicos.
A jurisprudência também começa a delinear os contornos da transparência algorítmica. Tribunais superiores têm reiterado a necessidade de fundamentação adequada em decisões que se baseiam em ferramentas tecnológicas, exigindo que a lógica por trás do algoritmo seja compreensível e passível de contestação, sob pena de nulidade.
Desafios Práticos e Riscos da Opacidade
A falta de transparência na IA apresenta riscos significativos, especialmente no âmbito do Direito Público:
- Viés e Discriminação: Algoritmos treinados com dados históricos enviesados tendem a reproduzir e amplificar preconceitos sistêmicos (ex: ferramentas de avaliação de risco de reincidência que penalizam desproporcionalmente minorias). Sem transparência, esses vieses permanecem ocultos e inquestionáveis.
- Violação do Devido Processo Legal: Decisões judiciais ou administrativas fundamentadas em sistemas opacos impedem que a parte afetada compreenda os motivos da decisão e exerça plenamente seu direito de defesa e contraditório.
- Dificuldade de Auditoria: A impossibilidade de escrutinar o funcionamento interno de um sistema impede a detecção de erros, falhas de segurança e uso inadequado de dados públicos.
- Perda de Confiança Pública: A percepção de que decisões críticas são tomadas por "máquinas" insondáveis corrói a legitimidade das instituições democráticas.
Orientações Práticas para Profissionais do Setor Público
Para garantir a transparência e a conformidade legal no uso da IA, profissionais do setor público devem adotar uma postura proativa e crítica.
1. Exija Explicabilidade (Explainability)
Não aceite respostas como "o algoritmo disse". A IA utilizada no setor público deve ser explicável. Isso significa que, além da precisão (acurácia), o sistema deve fornecer as razões que o levaram a determinada conclusão, de forma compreensível para humanos (juízes, defensores, cidadãos). Ferramentas de Explainable AI (XAI) devem ser integradas ao design dos sistemas adotados.
2. Implemente Auditorias Algorítmicas Independentes
Sistemas de IA de alto risco devem ser submetidos a auditorias regulares por entidades independentes. Essas auditorias devem avaliar não apenas a conformidade com a LGPD e o marco legal da IA, mas também a presença de vieses, a qualidade dos dados de treinamento e a robustez do sistema. Auditores públicos desempenham um papel crucial na definição dos parâmetros dessas avaliações.
3. Participe do Ciclo de Vida do Sistema
A responsabilidade pela transparência não recai apenas sobre a equipe de TI. Promotores, defensores e juízes devem estar envolvidos nas fases de desenho, desenvolvimento e validação das ferramentas de IA, garantindo que as premissas legais e éticas sejam incorporadas desde o início (ethics by design e privacy by design).
4. Promova a Transparência Ativa
As instituições públicas devem disponibilizar informações claras e acessíveis sobre as ferramentas de IA que utilizam. Isso inclui a publicação de relatórios de impacto algorítmico, a descrição da finalidade do sistema, as métricas de avaliação e os mecanismos de contestação das decisões automatizadas. A transparência ativa é um dever decorrente da Lei de Acesso à Informação (LAI - Lei nº 12.527/2011).
5. Capacitação Contínua
A compreensão da IA e de suas implicações legais exige atualização constante. É fundamental que os profissionais do Direito busquem capacitação técnica básica sobre como os algoritmos funcionam, para que possam formular questionamentos adequados e atuar de forma crítica frente a relatórios e decisões baseadas em IA.
Conclusão
A transparência não é um obstáculo à inovação tecnológica no setor público, mas um requisito indispensável para sua legitimidade e eficácia. A IA oferece ferramentas poderosas para otimizar a justiça e a administração pública, mas seu uso deve ser pautado pela explicabilidade, accountability e respeito aos direitos fundamentais. Ao exigir a abertura da "caixa preta" e implementar mecanismos robustos de controle e auditoria, os profissionais do Direito garantem que a tecnologia sirva à sociedade de forma justa, equânime e transparente, alinhando-se aos princípios constitucionais e à legislação vigente.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.