A inteligência artificial (IA) tem se consolidado como uma ferramenta transformadora no cenário jurídico brasileiro, e as Defensorias Públicas não estão imunes a essa revolução. A busca por eficiência e celeridade no atendimento à população vulnerável impulsiona a adoção de sistemas inteligentes, mas a implementação dessas tecnologias suscita debates acalorados e desafios complexos. Este artigo explora os aspectos polêmicos da utilização da IA nas Defensorias Públicas, analisando os impactos, as implicações legais e as perspectivas para o futuro, com foco nas normativas e jurisprudência até 2026.
O Papel da IA nas Defensorias Públicas
As Defensorias Públicas, incumbidas da missão constitucional de garantir o acesso à justiça aos necessitados, enfrentam desafios crônicos, como a escassez de recursos e o volume expressivo de demandas. A IA surge como uma promessa de otimização de processos, desde a triagem inicial de casos até a elaboração de peças processuais, passando pela análise de jurisprudência e pela gestão de prazos.
Automação e Triagem de Casos
A utilização de chatbots e assistentes virtuais baseados em IA para triagem de casos é uma realidade em diversas Defensorias. Esses sistemas podem coletar informações preliminares, identificar a natureza da demanda e direcionar o assistido para o setor competente. Essa automação agiliza o atendimento e libera os defensores para tarefas mais complexas.
No entanto, a implementação desses sistemas exige cautela. A triagem automatizada não deve substituir o atendimento humanizado, especialmente em casos sensíveis que demandam empatia e compreensão do contexto social do assistido. A inteligência artificial, por mais avançada que seja, não possui a capacidade de interpretar nuances e complexidades inerentes à experiência humana, o que pode resultar em direcionamentos inadequados ou na exclusão de demandas legítimas.
Análise de Jurisprudência e Elaboração de Peças
A IA também tem sido empregada na análise de vastos volumes de jurisprudência, identificando precedentes relevantes e auxiliando os defensores na construção de teses jurídicas. Sistemas de geração de linguagem natural (NLG) podem redigir petições e outras peças processuais com base em modelos predefinidos, otimizando o tempo e a produtividade.
A polêmica reside na qualidade e na confiabilidade das informações geradas pela IA. A dependência excessiva de algoritmos pode levar à padronização das peças processuais, desconsiderando as particularidades de cada caso e limitando a criatividade e a argumentação jurídica dos defensores. Além disso, a opacidade dos algoritmos levanta questionamentos sobre a transparência e a auditabilidade das decisões automatizadas.
Desafios e Implicações Legais
A adoção da IA nas Defensorias Públicas esbarra em desafios legais e éticos que demandam atenção redobrada. A proteção de dados pessoais, a responsabilidade civil por danos causados por sistemas de IA e a garantia do devido processo legal são questões cruciais nesse debate.
Proteção de Dados e Privacidade
As Defensorias lidam com dados sensíveis de milhares de cidadãos, o que exige rigor no cumprimento da Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018). O tratamento de dados por sistemas de IA deve observar os princípios da finalidade, adequação, necessidade, livre acesso, qualidade dos dados, transparência, segurança, prevenção, não discriminação e responsabilização.
A coleta e o armazenamento de dados para treinamento de algoritmos devem ser realizados com o consentimento expresso dos assistidos, quando exigido por lei, e a anonimização dos dados deve ser priorizada sempre que possível. A falta de transparência sobre o uso de dados por sistemas de IA pode gerar desconfiança e violar os direitos fundamentais dos cidadãos.
Responsabilidade Civil e Decisões Automatizadas
A responsabilidade civil por danos causados por sistemas de IA é um tema complexo e ainda em construção no ordenamento jurídico brasileiro. Em casos de erros ou falhas em decisões automatizadas, quem deve ser responsabilizado: o desenvolvedor do software, a Defensoria Pública ou o defensor responsável pelo caso?
A Resolução CNJ nº 332/2020, que dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário, estabelece que a responsabilidade final pelas decisões proferidas com o auxílio de IA recai sobre o magistrado. Analogamente, no âmbito das Defensorias, a responsabilidade pelas ações e peças processuais geradas ou influenciadas por IA deve ser atribuída ao defensor público.
O Marco Civil da Internet (Lei nº 12.965/2014) e o Código de Defesa do Consumidor (Lei nº 8.078/1990) também podem ser aplicados em casos de responsabilização por danos causados por IA, dependendo da natureza da relação jurídica.
Discriminação Algorítmica e Acesso à Justiça
A IA é treinada com base em dados históricos, que podem conter vieses e preconceitos presentes na sociedade. Se não houver um controle rigoroso sobre a qualidade dos dados e o design dos algoritmos, a IA pode perpetuar e até mesmo amplificar desigualdades sociais e raciais.
Nas Defensorias Públicas, a discriminação algorítmica pode resultar em decisões injustas, como a negação de atendimento a determinados grupos sociais ou a priorização de casos com base em critérios discriminatórios. A garantia do acesso à justiça exige que os sistemas de IA sejam transparentes, auditáveis e livres de vieses que prejudiquem os mais vulneráveis.
Orientações Práticas para Profissionais do Setor Público
A implementação da IA nas Defensorias Públicas deve ser pautada por princípios éticos e legais, visando sempre aprimorar o atendimento à população e garantir o acesso à justiça:
- Capacitação e Letramento Digital: É fundamental que defensores, servidores e estagiários recebam treinamento adequado sobre o uso de ferramentas de IA, compreendendo suas potencialidades e limitações. O letramento digital é essencial para garantir o uso crítico e responsável da tecnologia.
- Transparência e Auditabilidade: Os sistemas de IA utilizados nas Defensorias devem ser transparentes e auditáveis. Os defensores devem compreender como os algoritmos funcionam e quais critérios são utilizados para a tomada de decisões. A opacidade dos sistemas compromete a confiança e a legitimidade das ações da Defensoria.
- Supervisão Humana: A IA deve ser vista como uma ferramenta de auxílio, e não como uma substituta do trabalho humano. A supervisão humana é indispensável em todas as etapas do processo, desde a triagem de casos até a elaboração de peças processuais. O defensor deve manter o controle sobre a estratégia jurídica e a argumentação utilizada em cada caso.
- Proteção de Dados: As Defensorias devem implementar políticas rigorosas de proteção de dados, garantindo o cumprimento da LGPD e a segurança das informações dos assistidos. A coleta e o tratamento de dados devem ser limitados ao estritamente necessário para a prestação do serviço.
- Mitigação de Vieses: É crucial adotar medidas para identificar e mitigar vieses algorítmicos. O treinamento de sistemas de IA deve ser realizado com base em dados representativos e diversificados, e os algoritmos devem ser constantemente monitorados para evitar a reprodução de preconceitos.
Conclusão
A integração da IA nas Defensorias Públicas representa um marco significativo na busca por maior eficiência e ampliação do acesso à justiça. No entanto, a implementação dessas tecnologias exige um debate profundo e contínuo sobre seus impactos éticos, legais e sociais. A automação não deve comprometer a humanização do atendimento, a qualidade da argumentação jurídica e, sobretudo, a garantia dos direitos fundamentais dos cidadãos mais vulneráveis. A adoção responsável da IA, pautada pela transparência, pela proteção de dados e pela mitigação de vieses, é o caminho para que a tecnologia se consolide como uma aliada efetiva na promoção da justiça social.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.