O avanço da Inteligência Artificial (IA) tem transformado o cenário jurídico, introduzindo novas ferramentas e métodos que prometem eficiência e agilidade. No entanto, a integração da IA no Direito levanta questões éticas profundas que exigem a atenção dos profissionais do setor público, como defensores, procuradores, promotores, juízes e auditores. Este artigo explora as implicações éticas da IA na prática jurídica, com foco na legislação brasileira, incluindo normativas e jurisprudência relevantes, e oferece orientações práticas para a utilização responsável dessas tecnologias.
O Papel da IA no Direito e seus Desafios Éticos
A IA tem o potencial de otimizar diversas tarefas jurídicas, desde a análise de grandes volumes de dados até a redação de peças processuais e a pesquisa de jurisprudência. No entanto, a automação de processos jurídicos levanta preocupações éticas que precisam ser cuidadosamente consideradas.
Viés Algorítmico e Discriminação
Um dos principais desafios éticos da IA no Direito é o viés algorítmico. Sistemas de IA são treinados em grandes conjuntos de dados, que podem conter vieses e preconceitos presentes na sociedade. Se esses vieses não forem identificados e mitigados, a IA pode perpetuar e até mesmo amplificar a discriminação em decisões judiciais, como a concessão de liberdade condicional ou a determinação de penas.
O princípio da igualdade, previsto no artigo 5º da Constituição Federal de 1988, exige que todos sejam tratados de forma igualitária perante a lei. A utilização de IA que resulte em discriminação viola esse princípio fundamental. O Conselho Nacional de Justiça (CNJ), por meio da Resolução nº 332/2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário, estabelece que os sistemas de IA devem ser projetados e utilizados de forma a evitar vieses e discriminação.
Transparência e Explicabilidade
A complexidade de muitos sistemas de IA, como as redes neurais profundas, dificulta a compreensão de como eles chegam a determinadas conclusões. A falta de transparência e explicabilidade pode comprometer o direito à ampla defesa e ao contraditório, previstos no artigo 5º, inciso LV, da Constituição Federal.
Se uma decisão judicial é baseada em um algoritmo que não pode ser explicado, como o réu pode contestá-la? A Lei Geral de Proteção de Dados (LGPD), Lei nº 13.709/2018, em seu artigo 20, garante o direito do titular de dados de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses. Além disso, a Resolução nº 332/2020 do CNJ exige que os sistemas de IA utilizados no Poder Judiciário sejam transparentes e explicáveis, permitindo a compreensão de seus mecanismos de funcionamento e a justificativa de suas decisões.
Responsabilidade e Autoria
A quem deve ser atribuída a responsabilidade por danos causados por um sistema de IA? Se um algoritmo comete um erro que resulta em prejuízo para uma das partes em um processo judicial, quem deve ser responsabilizado: o desenvolvedor do software, o juiz que o utilizou ou o próprio sistema de IA?
A responsabilização por danos causados por IA é um tema complexo que ainda está em debate no meio jurídico. O Código Civil Brasileiro (Lei nº 10.406/2002) estabelece a responsabilidade civil subjetiva, que exige a comprovação de culpa ou dolo para a reparação de danos. No entanto, a aplicação dessa regra a sistemas de IA pode ser desafiadora, pois muitas vezes é difícil determinar quem agiu com culpa ou dolo em casos de erros algorítmicos.
Marco Legal da IA no Brasil
O Brasil vem desenvolvendo um arcabouço normativo para regular o uso da IA, com foco na ética, na transparência e na proteção de direitos fundamentais.
A Estratégia Brasileira de Inteligência Artificial (EBIA)
A EBIA, instituída em 2021, tem como objetivo guiar as ações do Estado brasileiro em relação ao desenvolvimento e uso da IA. A estratégia define princípios éticos para a IA, como a centralidade no ser humano, o respeito aos direitos humanos, a não discriminação, a transparência e a responsabilidade.
O Projeto de Lei nº 2338/2023 (Marco Legal da IA)
O Projeto de Lei nº 2338/2023, que propõe o Marco Legal da Inteligência Artificial no Brasil, busca estabelecer regras para o desenvolvimento e uso da IA no país, com foco na proteção de direitos fundamentais, na transparência, na responsabilidade e na governança. O projeto, que se encontra em tramitação no Congresso Nacional (situação em 2026), prevê a classificação de sistemas de IA de acordo com o risco que apresentam e estabelece obrigações específicas para cada nível de risco.
Resoluções do CNJ
O CNJ tem desempenhado um papel fundamental na regulamentação do uso da IA no Poder Judiciário. Além da Resolução nº 332/2020, que trata da ética e da governança da IA, o CNJ editou outras normativas relevantes, como a Portaria nº 271/2020, que instituiu o Comitê Gestor de Inteligência Artificial do Poder Judiciário, e a Resolução nº 396/2021, que dispõe sobre a Estratégia Nacional de Tecnologia da Informação e Comunicação do Poder Judiciário (ENTIC-JUD).
Jurisprudência Relevante
A jurisprudência brasileira sobre o uso da IA no Direito ainda está em desenvolvimento, mas já existem decisões importantes que abordam questões éticas relacionadas a essas tecnologias.
No Recurso Especial nº 1.867.027/RJ, o Superior Tribunal de Justiça (STJ) decidiu que a utilização de sistemas de IA para a análise de recursos repetitivos não viola o princípio do juiz natural, desde que a decisão final seja proferida por um magistrado. Essa decisão reforça a ideia de que a IA deve ser utilizada como uma ferramenta de auxílio ao trabalho do juiz, e não como um substituto para a sua capacidade de julgamento.
Orientações Práticas para Profissionais do Setor Público
A utilização responsável da IA no setor público exige que os profissionais estejam cientes dos desafios éticos e legais envolvidos e adotem medidas para mitigar os riscos:
- Capacitação e Conscientização: É fundamental que os profissionais do setor público busquem capacitação sobre as tecnologias de IA, seus potenciais benefícios e riscos, e as implicações éticas de seu uso no Direito.
- Avaliação de Risco: Antes de implementar um sistema de IA, é necessário realizar uma avaliação rigorosa dos riscos envolvidos, considerando o potencial de viés, a falta de transparência e os impactos sobre os direitos fundamentais.
- Transparência e Explicabilidade: Dê preferência a sistemas de IA que sejam transparentes e explicáveis, permitindo a compreensão de como eles chegam a determinadas conclusões e a justificativa de suas decisões.
- Supervisão Humana: A IA não deve ser utilizada para tomar decisões automatizadas que afetem direitos fundamentais sem a supervisão humana. É fundamental que um profissional qualificado revise as decisões tomadas por sistemas de IA e garanta que elas sejam justas, imparciais e fundamentadas na lei.
- Auditoria e Monitoramento: Monitore e audite continuamente o desempenho dos sistemas de IA para identificar e corrigir possíveis vieses ou erros.
Conclusão
A integração da IA no Direito oferece oportunidades significativas para aprimorar a eficiência e a agilidade da justiça. No entanto, é fundamental que a utilização dessas tecnologias seja guiada por princípios éticos e pelo respeito aos direitos fundamentais. O arcabouço normativo brasileiro, em constante evolução, e a jurisprudência em desenvolvimento fornecem orientações importantes para a utilização responsável da IA no setor público. A capacitação, a avaliação de risco, a transparência, a supervisão humana e a auditoria contínua são medidas essenciais para garantir que a IA seja utilizada como uma ferramenta para promover a justiça e não para perpetuar desigualdades.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.