IA no Direito

IA e Transparência: Aspectos Polêmicos

IA e Transparência: Aspectos Polêmicos — artigo completo sobre IA no Direito com fundamentação legal e jurisprudência atualizadas. Plataforma Minuta.Tech.

24 de julho de 20257 min de leitura

Automatize suas minutas e documentos com IA — contratos, petições e peças prontas em minutos.

Experimentar Grátis
IA e Transparência: Aspectos Polêmicos

A Inteligência Artificial (IA) tem se consolidado como uma ferramenta poderosa no setor público, prometendo maior eficiência, precisão e celeridade na prestação de serviços e na tomada de decisões. No entanto, a adoção dessa tecnologia levanta questionamentos profundos sobre a transparência, a accountability (responsabilização) e a proteção dos direitos fundamentais dos cidadãos. Este artigo explora as polêmicas envolvendo a IA e a transparência no contexto jurídico brasileiro, analisando os desafios legais, a jurisprudência recente e as orientações práticas para os profissionais do setor público.

A Complexidade da Transparência Algorítmica

A transparência em sistemas de IA não se resume a disponibilizar o código-fonte. A complexidade dos algoritmos de aprendizado de máquina (machine learning) e das redes neurais (deep learning) torna a compreensão do processo decisório um desafio até mesmo para os próprios desenvolvedores. O termo "caixa preta" (black box) é frequentemente utilizado para descrever a opacidade desses sistemas, onde os inputs e outputs são conhecidos, mas o funcionamento interno permanece obscuro.

Para os profissionais do Direito, essa opacidade representa um obstáculo à ampla defesa, ao contraditório e ao devido processo legal (art. 5º, incisos LIV e LV, da Constituição Federal). Como contestar uma decisão automatizada se não se compreende como ela foi tomada? Como garantir que os critérios utilizados não sejam discriminatórios ou enviesados? A resposta a essas perguntas exige uma abordagem multifacetada, envolvendo não apenas a transparência algorítmica em si, mas também a explicabilidade (explainability) e a auditabilidade dos sistemas.

A Exigência de Explicabilidade

A explicabilidade refere-se à capacidade de traduzir o funcionamento interno de um sistema de IA de forma compreensível para humanos. Isso implica em fornecer justificativas claras e inteligíveis para as decisões automatizadas, permitindo que os cidadãos entendam os motivos que levaram a determinado resultado.

No Brasil, o Marco Civil da Internet (Lei nº 12.965/2014) já estabelecia o direito à "informação clara e completa sobre coleta, uso, armazenamento, tratamento e proteção de seus dados pessoais" (art. 7º, inciso VIII). A Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018) aprofundou essa exigência, garantindo aos titulares o direito de solicitar a "revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito, ou os aspectos de sua personalidade" (art. 20).

A jurisprudência também tem se manifestado sobre a necessidade de explicabilidade. O Tribunal de Contas da União (TCU), por exemplo, em acórdão recente (Acórdão nº 289/2023 - Plenário), recomendou à administração pública a adoção de medidas para garantir a explicabilidade e a transparência de sistemas de IA utilizados em processos de contratação.

Desafios Jurídicos e Polêmicas

A busca pela transparência e explicabilidade em sistemas de IA enfrenta diversos desafios jurídicos e práticos.

Propriedade Intelectual e Segredo Industrial

Um dos principais conflitos reside na tensão entre a transparência e a proteção da propriedade intelectual e do segredo industrial. As empresas desenvolvedoras de sistemas de IA frequentemente argumentam que a divulgação do código-fonte ou de detalhes técnicos sobre o funcionamento dos algoritmos poderia comprometer seus segredos comerciais e prejudicar sua competitividade.

O Superior Tribunal de Justiça (STJ) já se deparou com essa questão. Em decisão paradigmática, a Corte entendeu que o direito à informação do consumidor não se sobrepõe ao segredo de negócio, mas ressaltou a necessidade de se buscar um equilíbrio, permitindo o acesso a informações essenciais para a defesa dos direitos do consumidor sem revelar os segredos industriais da empresa.

O "Viés Algorítmico" e a Discriminação

Outra polêmica central envolve o risco de "viés algorítmico". Sistemas de IA aprendem com os dados que lhes são fornecidos. Se esses dados refletirem preconceitos ou discriminações presentes na sociedade, o algoritmo pode reproduzi-los e até mesmo amplificá-los.

A Constituição Federal proíbe qualquer forma de discriminação (art. 3º, inciso IV). A LGPD também estabelece o princípio da não discriminação (art. 6º, inciso IX). No entanto, identificar e mitigar o viés algorítmico é uma tarefa complexa, que exige auditorias regulares e o desenvolvimento de metodologias específicas para avaliar o impacto das decisões automatizadas em diferentes grupos sociais.

O Supremo Tribunal Federal (STF), no julgamento da ADI 6387, que discutiu o compartilhamento de dados de usuários de telecomunicações com o IBGE, destacou a importância de se evitar a utilização de dados para fins discriminatórios ou prejudiciais aos direitos fundamentais.

A Responsabilidade Civil e Penal

A opacidade dos sistemas de IA também levanta questionamentos sobre a responsabilidade civil e penal em caso de danos causados por decisões automatizadas. Quem deve ser responsabilizado? O desenvolvedor do sistema? A entidade pública que o utiliza? O próprio algoritmo?

A legislação brasileira ainda não possui um marco legal específico para a responsabilidade civil em IA. No entanto, aplicam-se as regras gerais do Código Civil, como a responsabilidade objetiva do Estado (art. 37, § 6º, da CF) e a responsabilidade civil por fato do produto ou do serviço (art. 12 do Código de Defesa do Consumidor - CDC).

No âmbito penal, a responsabilização de algoritmos é ainda mais complexa, uma vez que o direito penal brasileiro exige a conduta humana, dolosa ou culposa, para a configuração de crime.

O Marco Legal da Inteligência Artificial (PL 2338/2023)

O Projeto de Lei nº 2338/2023, que institui o Marco Legal da Inteligência Artificial no Brasil, busca estabelecer diretrizes para o desenvolvimento e o uso da IA no país. O PL prevê, entre outros princípios, a transparência, a explicabilidade, a não discriminação e a responsabilização (accountability).

O projeto também propõe a criação de uma autoridade nacional competente para regulamentar e fiscalizar o uso da IA, além de estabelecer a necessidade de avaliação de impacto algorítmico para sistemas de alto risco.

A aprovação do Marco Legal da IA (prevista para 2026) será um passo fundamental para garantir a segurança jurídica e a proteção dos direitos fundamentais no contexto da inteligência artificial.

Orientações Práticas para Profissionais do Setor Público

Diante dos desafios e polêmicas envolvendo a IA e a transparência, os profissionais do setor público devem adotar uma postura proativa e cautelosa:

  1. Exigir Transparência nos Contratos: Ao contratar sistemas de IA, a administração pública deve incluir cláusulas contratuais que garantam a transparência e a explicabilidade do sistema, exigindo o fornecimento de documentação técnica, manuais e justificativas para as decisões automatizadas.
  2. Realizar Auditorias e Avaliações de Impacto: A administração pública deve realizar auditorias regulares nos sistemas de IA utilizados, avaliando seu desempenho, identificando possíveis vieses e mitigando os riscos de discriminação. A avaliação de impacto algorítmico deve ser uma prática constante, especialmente em sistemas de alto risco.
  3. Garantir a Revisão Humana: A LGPD garante o direito à revisão de decisões automatizadas. A administração pública deve garantir que os cidadãos tenham acesso a um canal de atendimento para contestar as decisões tomadas por sistemas de IA e solicitar a revisão por um ser humano.
  4. Capacitação Contínua: Os profissionais do Direito devem buscar capacitação contínua sobre as tecnologias de IA, compreendendo seus fundamentos técnicos, seus impactos jurídicos e as melhores práticas para o uso ético e responsável dessas ferramentas.

Conclusão

A adoção da Inteligência Artificial no setor público é um caminho sem volta. No entanto, a busca pela eficiência não pode se sobrepor aos direitos fundamentais e à transparência. A opacidade dos algoritmos exige um debate profundo sobre a necessidade de explicabilidade, a proteção da propriedade intelectual, a mitigação do viés algorítmico e a responsabilização pelos danos causados. O Marco Legal da IA, em trâmite no Congresso Nacional, será um instrumento essencial para balizar o desenvolvimento e o uso da IA no Brasil. Cabe aos profissionais do Direito, especialmente aos que atuam no setor público, estarem preparados para enfrentar esses desafios e garantir que a tecnologia seja utilizada em benefício da sociedade, com respeito aos princípios constitucionais e aos direitos dos cidadãos.


Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.

Newsletter Jurídica

Dicas de IA para Advogados

Receba semanalmente dicas práticas, novidades do produto e as melhores práticas para usar IA na advocacia.

Prometemos não enviar spam. Cancele quando quiser.