A inteligência artificial (IA) tem se consolidado como uma ferramenta indispensável no setor público, prometendo maior eficiência, precisão e celeridade na prestação jurisdicional e na atuação administrativa. No entanto, a adoção de sistemas autônomos e algorítmicos em processos decisórios levanta questões cruciais sobre a transparência, a responsabilidade e a necessidade de garantir que a tecnologia atue em prol do interesse público, sem comprometer direitos fundamentais.
No cenário jurídico brasileiro, a busca por um equilíbrio entre a inovação tecnológica e a segurança jurídica tem impulsionado o debate sobre a regulamentação da IA, com foco especial na transparência. Este artigo se propõe a analisar o panorama atual e as perspectivas futuras da IA no Direito, com ênfase na transparência, direcionado a profissionais do setor público.
O Desafio da Caixa Preta e a Necessidade de Transparência
A complexidade dos algoritmos de IA, frequentemente descritos como "caixas pretas", dificulta a compreensão do processo decisório por parte de humanos. Essa opacidade gera preocupações sobre a possibilidade de vieses, discriminação e erros sistêmicos, que podem comprometer a imparcialidade e a justiça das decisões.
Para mitigar esses riscos, a transparência se apresenta como um princípio fundamental. A transparência em sistemas de IA não se limita apenas à disponibilização do código-fonte, mas abrange a explicabilidade das decisões, a identificação dos dados utilizados para treinamento, a documentação do processo de desenvolvimento e a avaliação de impactos sociais e éticos.
Marco Legal e Jurisprudência: A Construção de um Arcabouço Normativo
O Brasil tem avançado na construção de um arcabouço normativo para a IA, com a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet estabelecendo princípios basilares para o tratamento de dados pessoais e a utilização de tecnologias da informação.
A LGPD (Lei nº 13.709/2018), em seu art. 20, consagra o direito à revisão de decisões automatizadas, garantindo aos titulares o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. O art. 5º, X, da LGPD, define "tratamento automatizado" como "qualquer operação ou conjunto de operações efetuadas sobre dados pessoais ou sobre conjuntos de dados pessoais, por meios automatizados".
No âmbito do Judiciário, o Conselho Nacional de Justiça (CNJ) tem desempenhado um papel fundamental na regulamentação da IA. A Resolução CNJ nº 332/2020 estabelece diretrizes éticas e de transparência para o uso da IA no Poder Judiciário, exigindo a adoção de mecanismos de explicabilidade e a realização de avaliações de impacto algorítmico.
A jurisprudência brasileira também tem se debruçado sobre a questão da transparência em sistemas de IA. O Supremo Tribunal Federal (STF), em diversas decisões, tem reafirmado a importância da transparência e da publicidade na atuação da administração pública, princípios que devem ser observados na utilização de sistemas algorítmicos.
O Marco Regulatório da IA (PL 2338/2023) e as Perspectivas para 2026
O Projeto de Lei (PL) 2338/2023, que institui o Marco Legal da Inteligência Artificial no Brasil, encontra-se em tramitação no Congresso Nacional e promete trazer maior clareza e segurança jurídica para o desenvolvimento e a utilização da IA no país.
O PL 2338/2023 prevê a criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será responsável por estabelecer diretrizes, normas e padrões para a IA, com foco na proteção de direitos fundamentais, na transparência, na responsabilidade e na segurança.
O PL também estabelece a obrigação de realizar avaliações de impacto algorítmico para sistemas de IA de alto risco, como aqueles utilizados em processos de recrutamento, seleção, avaliação de crédito e na área da saúde.
A expectativa é que o Marco Legal da IA seja aprovado e implementado até 2026, consolidando um ambiente regulatório mais robusto e previsível para a inovação tecnológica no Brasil.
Orientações Práticas para Profissionais do Setor Público
Para os profissionais do setor público que atuam com sistemas de IA, a busca pela transparência deve ser uma preocupação constante. Algumas orientações práticas podem auxiliar nesse processo.
1. Compreensão do Sistema
É fundamental que os profissionais busquem compreender o funcionamento básico dos sistemas de IA que utilizam, incluindo os dados utilizados para treinamento, os algoritmos empregados e as limitações da tecnologia.
2. Exigência de Explicabilidade
Ao contratar ou desenvolver sistemas de IA, é importante exigir mecanismos de explicabilidade, que permitam compreender os fatores que influenciaram a decisão algorítmica.
3. Avaliação de Impacto Algorítmico
A realização de avaliações de impacto algorítmico é crucial para identificar e mitigar potenciais riscos de vieses, discriminação e violação de direitos fundamentais.
4. Transparência na Comunicação
A comunicação com os cidadãos sobre a utilização de sistemas de IA deve ser clara e transparente, informando sobre os objetivos da tecnologia, os dados utilizados e os mecanismos de revisão de decisões.
5. Atualização Contínua
A área de IA está em constante evolução, o que exige dos profissionais do setor público uma atualização contínua sobre as novas tecnologias, as melhores práticas e as mudanças no arcabouço normativo.
Conclusão
A transparência é um pilar fundamental para a construção de um ambiente de confiança e segurança na utilização da IA no setor público. O desenvolvimento de um arcabouço normativo robusto, aliado à adoção de boas práticas por parte dos profissionais, é essencial para garantir que a tecnologia atue em prol do interesse público, sem comprometer direitos fundamentais. A busca pela transparência na IA é um desafio contínuo, que exige um diálogo constante entre o desenvolvimento tecnológico, a ética e o Direito.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.