O uso da Inteligência Artificial (IA) no setor jurídico, impulsionado pelo crescimento exponencial das LegalTechs, promete otimizar processos, reduzir a burocracia e ampliar o acesso à justiça. No entanto, a implementação dessas tecnologias em órgãos públicos como Defensorias, Procuradorias, Ministérios Públicos e Tribunais exige cautela, especialmente no que tange à transparência. A opacidade inerente a muitos algoritmos de IA, frequentemente descritos como "caixas pretas" (black boxes), levanta questões cruciais sobre a accountability (responsabilização), o devido processo legal e a garantia de direitos fundamentais. Este artigo explora os desafios e as exigências legais e normativas para garantir a transparência na utilização de IA no sistema de justiça brasileiro, com foco nas necessidades e responsabilidades dos profissionais do setor público.
O Desafio da Transparência: A "Caixa Preta" Algorítmica
A transparência algorítmica é um princípio fundamental para a legitimidade do uso de IA no setor público. Ela se refere à capacidade de compreender como um sistema de IA toma decisões, quais dados utiliza e quais critérios aplica. A falta de transparência pode levar a decisões arbitrárias, discriminatórias ou enviesadas, minando a confiança da sociedade nas instituições de justiça.
Um dos principais obstáculos à transparência é a complexidade de algoritmos de aprendizado de máquina (machine learning), particularmente os de deep learning (aprendizado profundo). Nesses sistemas, as decisões são tomadas com base em padrões complexos identificados em vastas quantidades de dados, tornando difícil, senão impossível, rastrear o caminho lógico que levou a um resultado específico. Essa opacidade, conhecida como o problema da "caixa preta", representa um risco significativo para o devido processo legal, pois dificulta a contestação de decisões automatizadas e a identificação de eventuais erros ou vieses.
Exigências Legais e Normativas
O ordenamento jurídico brasileiro estabelece diretrizes claras para garantir a transparência e a accountability no uso de tecnologias da informação no setor público, incluindo a IA. A Constituição Federal, em seu art. 37, caput, consagra os princípios da legalidade, impessoalidade, moralidade, publicidade e eficiência na administração pública. A publicidade, nesse contexto, abrange não apenas a divulgação de atos administrativos, mas também a transparência dos processos e ferramentas utilizadas para a tomada de decisões.
A Lei de Acesso à Informação (LAI) - Lei nº 12.527/2011, reforça o princípio da publicidade ao garantir o direito de acesso a informações produzidas ou custodiadas por órgãos públicos. A LAI estabelece a presunção de publicidade das informações, exceto aquelas expressamente protegidas por sigilo (art. 3º, inciso I). No contexto da IA, a LAI pode ser invocada para solicitar acesso a informações sobre os dados utilizados para treinar um algoritmo, os critérios de decisão e os resultados obtidos.
A Lei Geral de Proteção de Dados Pessoais (LGPD) - Lei nº 13.709/2018, também desempenha um papel crucial na garantia da transparência no uso de IA. A LGPD estabelece princípios para o tratamento de dados pessoais, incluindo a finalidade, a adequação, a necessidade, o livre acesso, a qualidade dos dados, a transparência, a segurança, a prevenção, a não discriminação e a responsabilização e prestação de contas (art. 6º). O princípio da transparência garante aos titulares de dados o direito a informações claras, precisas e facilmente acessíveis sobre o tratamento de seus dados (art. 6º, inciso VI).
Além disso, a LGPD consagra o direito do titular de dados de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade (art. 20). Essa disposição é particularmente relevante para o uso de IA no setor jurídico, pois garante o direito à revisão humana de decisões automatizadas que possam ter impacto significativo na vida das pessoas.
O Marco Legal da Inteligência Artificial (PL 2338/2023)
O Projeto de Lei (PL) 2338/2023, que propõe o Marco Legal da Inteligência Artificial no Brasil, traz inovações importantes para a regulação do uso de IA, com foco na proteção de direitos fundamentais e na promoção da transparência e da accountability. O PL estabelece princípios para o desenvolvimento e o uso de sistemas de IA, incluindo o respeito aos direitos humanos e aos valores democráticos, a não discriminação, a transparência, a explicabilidade e a auditabilidade.
O PL 2338/2023 também classifica os sistemas de IA em diferentes níveis de risco, impondo requisitos mais rigorosos para sistemas de alto risco, que incluem aqueles utilizados em áreas como segurança pública, justiça criminal, avaliação de crédito e seleção de pessoal. Para sistemas de alto risco, o PL exige a realização de avaliação de impacto algorítmico, a implementação de medidas de mitigação de riscos e a garantia de transparência e explicabilidade das decisões automatizadas.
O Papel do Conselho Nacional de Justiça (CNJ)
O Conselho Nacional de Justiça (CNJ) tem desempenhado um papel fundamental na promoção da transparência e da accountability no uso de IA no Poder Judiciário brasileiro. A Resolução CNJ nº 332/2020 estabelece diretrizes para a governança de dados e o uso de IA no Judiciário, com o objetivo de garantir a eficiência, a segurança, a transparência e a ética no uso dessas tecnologias.
A Resolução CNJ nº 332/2020 determina que a utilização de IA no Judiciário deve observar princípios como o respeito aos direitos fundamentais, a não discriminação, a transparência, a explicabilidade, a auditabilidade e a supervisão humana. A resolução também exige a criação de comitês de governança de dados e IA nos tribunais, responsáveis por supervisionar o desenvolvimento e a implementação de sistemas de IA e garantir o cumprimento das diretrizes estabelecidas.
Além disso, o CNJ tem promovido a criação de um repositório nacional de modelos de IA, com o objetivo de fomentar o compartilhamento de conhecimento e boas práticas entre os tribunais e facilitar a auditoria e a avaliação de sistemas de IA.
Orientações Práticas para Profissionais do Setor Público
A implementação de IA no setor público exige uma abordagem proativa e responsável, com foco na garantia da transparência, da accountability e do respeito aos direitos fundamentais. A seguir, apresentamos algumas orientações práticas para profissionais do setor público envolvidos na adoção e no uso de IA.
1. Avaliação de Impacto Algorítmico (AIA)
Antes de implementar um sistema de IA, é fundamental realizar uma Avaliação de Impacto Algorítmico (AIA) para identificar e mitigar potenciais riscos à privacidade, à igualdade, à não discriminação e ao devido processo legal. A AIA deve envolver a participação de especialistas em ética, direito e tecnologia, bem como representantes da sociedade civil.
2. Transparência e Explicabilidade
Os sistemas de IA utilizados no setor público devem ser transparentes e explicáveis. Isso significa que as decisões automatizadas devem ser acompanhadas de informações claras e compreensíveis sobre os dados utilizados, os critérios de decisão e a lógica subjacente ao algoritmo. A explicabilidade é essencial para permitir a contestação de decisões automatizadas e a identificação de eventuais erros ou vieses.
3. Supervisão Humana
A IA não deve substituir o julgamento humano, mas sim auxiliá-lo. As decisões automatizadas que possam ter impacto significativo na vida das pessoas devem estar sujeitas à supervisão humana e à possibilidade de revisão por um profissional qualificado. A supervisão humana é fundamental para garantir a justiça, a equidade e o respeito aos direitos fundamentais.
4. Auditoria e Monitoramento
Os sistemas de IA devem ser auditados e monitorados regularmente para garantir o seu bom funcionamento e a ausência de vieses discriminatórios. A auditoria deve ser realizada por especialistas independentes e os resultados devem ser tornados públicos. O monitoramento contínuo é essencial para identificar e corrigir eventuais problemas que possam surgir ao longo do tempo.
5. Capacitação e Treinamento
Os profissionais do setor público envolvidos no uso de IA devem receber capacitação e treinamento adequados sobre os princípios éticos, legais e técnicos relacionados à IA. O treinamento deve abranger temas como transparência, explicabilidade, viés algorítmico, proteção de dados e responsabilidade civil.
Conclusão
A adoção da Inteligência Artificial no setor jurídico público brasileiro representa uma oportunidade ímpar para modernizar e otimizar a prestação jurisdicional. Contudo, essa transformação não pode prescindir do compromisso inabalável com a transparência e a responsabilização. A "caixa preta" dos algoritmos não pode se tornar um escudo para a arbitrariedade ou a discriminação. É imperativo que os profissionais do Direito, amparados pela Constituição, pela LGPD e pelas diretrizes do CNJ, atuem como guardiões da ética e da legalidade na implementação dessas tecnologias. Somente por meio da exigência de explicabilidade, da supervisão humana constante e de auditorias rigorosas será possível garantir que a IA sirva à justiça, fortalecendo a confiança da sociedade nas instituições públicas e assegurando o pleno respeito aos direitos fundamentais de todos os cidadãos.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.