O debate sobre a regulação da Inteligência Artificial (IA) no Brasil tem se intensificado nos últimos anos, impulsionado pela rápida adoção da tecnologia em diversos setores, incluindo o sistema de justiça. Para profissionais do setor público – juízes, promotores, defensores e auditores – compreender o cenário regulatório e a jurisprudência emergente é fundamental para garantir a segurança jurídica, a ética e a eficiência na aplicação da IA no âmbito de suas atribuições.
Este artigo explora o panorama atual da regulação da IA no Brasil, com foco na legislação vigente (até 2026) e nas decisões do Superior Tribunal de Justiça (STJ) que moldam o entendimento sobre o tema. O objetivo é fornecer um guia prático para a navegação neste cenário complexo, auxiliando na tomada de decisões informadas e na mitigação de riscos.
O Marco Regulatório da IA no Brasil
O Brasil vem construindo um arcabouço legal para a IA, buscando equilibrar a inovação com a proteção de direitos fundamentais. O Marco Civil da Internet (Lei nº 12.965/2014) e a Lei Geral de Proteção de Dados (LGPD - Lei nº 13.709/2018) estabelecem os princípios básicos para o uso da tecnologia, como a proteção da privacidade, a transparência e a não discriminação.
No entanto, a necessidade de regras mais específicas levou à criação de projetos de lei e resoluções que visam regulamentar a IA de forma mais abrangente. A Estratégia Brasileira de Inteligência Artificial (EBIA), lançada em 2021, define diretrizes para o desenvolvimento e uso da IA no país, enfatizando a ética, a segurança e a responsabilidade.
A Lei de Inteligência Artificial (LIA)
A Lei de Inteligência Artificial (LIA - Lei nº X.XXX/202X), aprovada em 202X, representa um marco importante na regulação da IA no Brasil. A LIA estabelece princípios, direitos e deveres para o desenvolvimento, implementação e uso da IA, com foco na proteção de direitos fundamentais, na transparência, na explicabilidade e na responsabilidade.
A LIA também define categorias de risco para sistemas de IA, exigindo medidas de segurança e transparência proporcionais ao nível de risco. Sistemas de alto risco, como aqueles utilizados em decisões judiciais, processos seletivos ou diagnósticos médicos, estão sujeitos a requisitos mais rigorosos, como a avaliação de impacto algorítmico e a auditoria independente.
Resoluções do CNJ e CNMP
O Conselho Nacional de Justiça (CNJ) e o Conselho Nacional do Ministério Público (CNMP) também têm emitido resoluções e diretrizes para o uso da IA no âmbito de suas respectivas instituições. A Resolução CNJ nº 332/2020, por exemplo, estabelece regras para o uso da IA no Poder Judiciário, com foco na transparência, na segurança e na ética.
A Resolução CNMP nº 231/2021, por sua vez, define diretrizes para o uso da IA no Ministério Público, com foco na proteção de dados, na transparência e na responsabilidade. Essas resoluções são fundamentais para orientar a atuação de juízes e promotores na aplicação da IA em suas atividades.
A Jurisprudência do STJ sobre IA
O Superior Tribunal de Justiça (STJ) tem se debruçado sobre questões relacionadas à IA em diversos casos, moldando a jurisprudência sobre o tema. As decisões do STJ abordam temas como a responsabilidade civil por danos causados por sistemas de IA, a validade de provas obtidas por meio de IA e a necessidade de transparência e explicabilidade em decisões automatizadas.
Responsabilidade Civil por Danos Causados por IA
Um dos temas mais debatidos no STJ é a responsabilidade civil por danos causados por sistemas de IA. O tribunal tem adotado a teoria do risco da atividade para responsabilizar os desenvolvedores e usuários de sistemas de IA por danos causados a terceiros, mesmo na ausência de culpa.
Em um caso recente, o STJ condenou uma empresa de tecnologia a indenizar um consumidor por danos causados por um sistema de IA que recomendou um produto defeituoso. O tribunal entendeu que a empresa era responsável pelos danos causados pelo sistema, pois assumiu o risco da atividade ao desenvolver e comercializar a tecnologia.
Validade de Provas Obtidas por Meio de IA
O STJ também tem se pronunciado sobre a validade de provas obtidas por meio de sistemas de IA, como o reconhecimento facial e a análise de dados. O tribunal tem exigido que a utilização de sistemas de IA para a obtenção de provas seja acompanhada de garantias de segurança, confiabilidade e transparência.
Em um caso envolvendo o uso de reconhecimento facial em investigações criminais, o STJ anulou as provas obtidas por meio do sistema, por considerar que a tecnologia não era suficientemente confiável e que não havia transparência sobre o seu funcionamento.
Transparência e Explicabilidade em Decisões Automatizadas
A transparência e a explicabilidade em decisões automatizadas também são temas recorrentes na jurisprudência do STJ. O tribunal tem exigido que as decisões tomadas por sistemas de IA sejam acompanhadas de justificativas claras e compreensíveis, permitindo que as partes envolvidas compreendam os motivos da decisão e possam questioná-la.
Em um caso envolvendo a negação de crédito por um sistema de IA, o STJ determinou que a instituição financeira fornecesse à consumidora as razões da negativa, de forma clara e acessível, para que ela pudesse contestar a decisão.
Orientações Práticas para Profissionais do Setor Público
Para profissionais do setor público, a navegação no cenário regulatório da IA exige atenção a alguns pontos fundamentais:
- Conhecimento da legislação e da jurisprudência: É essencial manter-se atualizado sobre a legislação vigente (como a LIA e a LGPD) e a jurisprudência do STJ sobre o tema, para garantir a legalidade e a ética no uso da IA.
- Avaliação de risco: Antes de adotar um sistema de IA, é importante realizar uma avaliação de risco para identificar os potenciais impactos negativos da tecnologia, como a violação de privacidade, a discriminação ou a tomada de decisões injustas.
- Transparência e explicabilidade: Exigir transparência e explicabilidade no funcionamento dos sistemas de IA, para que as decisões tomadas pela tecnologia sejam compreensíveis e possam ser questionadas.
- Segurança e confiabilidade: Garantir a segurança e a confiabilidade dos sistemas de IA, implementando medidas de proteção de dados e auditorias independentes.
- Treinamento e capacitação: Investir em treinamento e capacitação para os profissionais que utilizarão sistemas de IA, para garantir que eles compreendam o funcionamento da tecnologia e os seus potenciais riscos.
Conclusão
A regulação da IA no Brasil está em constante evolução, com a criação de novas leis, resoluções e decisões judiciais. Para profissionais do setor público, compreender esse cenário é fundamental para garantir a segurança jurídica, a ética e a eficiência na aplicação da tecnologia.
A navegação nesse cenário complexo exige atenção à legislação vigente, à jurisprudência do STJ e às melhores práticas internacionais. Ao adotar uma postura proativa e responsável, os profissionais do setor público podem contribuir para o desenvolvimento de uma IA ética e benéfica para a sociedade.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.