IA no Direito

Chatbot para Atendimento Público: Aspectos Polêmicos

Chatbot para Atendimento Público: Aspectos Polêmicos — artigo completo sobre IA no Direito com fundamentação legal e jurisprudência atualizadas. Plataforma Minuta.Tech.

23 de julho de 20259 min de leitura

Automatize suas minutas e documentos com IA — contratos, petições e peças prontas em minutos.

Experimentar Grátis
Chatbot para Atendimento Público: Aspectos Polêmicos

A adoção de Inteligência Artificial (IA) no setor público deixou de ser um cenário futurista para se tornar uma realidade operacional. Dentre as aplicações mais visíveis, os chatbots para atendimento ao cidadão ganham destaque pela promessa de eficiência, redução de filas e disponibilidade ininterrupta. No entanto, a implementação dessas ferramentas em órgãos como Defensorias Públicas, Ministérios Públicos e Tribunais levanta questões jurídicas e éticas complexas, exigindo dos profissionais do Direito uma análise cuidadosa dos limites e das responsabilidades envolvidas.

Este artigo explora os aspectos polêmicos do uso de chatbots no atendimento público, com foco nos desafios legais, na proteção de dados, na transparência algorítmica e na preservação dos direitos dos cidadãos. O objetivo é fornecer um panorama fundamentado para a tomada de decisão e a formulação de políticas públicas adequadas.

A Tensão entre Eficiência e a Desumanização do Atendimento

A principal motivação para a implementação de chatbots no setor público é a otimização de recursos. Ferramentas baseadas em Processamento de Linguagem Natural (PLN) podem realizar triagens, fornecer informações básicas sobre andamentos processuais, agendar atendimentos e até mesmo auxiliar na elaboração de petições simples. Contudo, a automação do atendimento público esbarra no princípio da dignidade da pessoa humana (art. 1º, III, da Constituição Federal) e no direito à informação clara e adequada.

O atendimento humanizado é, em muitos casos, essencial para a compreensão de demandas complexas ou sensíveis, especialmente em áreas como o Direito de Família, Violência Doméstica e Saúde. A substituição do servidor público por um algoritmo pode gerar a sensação de desamparo e frustração no cidadão, configurando uma violação ao princípio da eficiência (art. 37, caput, da CF), que não se resume à celeridade, mas engloba a qualidade do serviço prestado.

O Direito à Revisão Humana

A Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018) estabelece, em seu artigo 20, o direito do titular de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses. Esse dispositivo é crucial no contexto dos chatbots, pois garante que o cidadão não fique à mercê de decisões algorítmicas, especialmente quando essas decisões envolvem a negativa de um serviço ou benefício.

A implementação de chatbots deve, portanto, prever mecanismos claros e acessíveis para que o usuário solicite o atendimento humano a qualquer momento. A ausência dessa alternativa pode ensejar a responsabilização do Estado por danos morais ou materiais decorrentes de falhas no atendimento automatizado.

Transparência Algorítmica e o "Viés da Máquina"

A opacidade dos algoritmos é um dos maiores desafios jurídicos da IA. Modelos de machine learning são treinados com grandes volumes de dados que podem conter vieses históricos e sociais. Se um chatbot for treinado com dados enviesados, ele pode reproduzir e até mesmo amplificar discriminações, violando o princípio da isonomia (art. 5º, caput, da CF).

A transparência algorítmica, princípio basilar do Marco Legal da Inteligência Artificial (PL 2338/2023, com suas atualizações até 2026), exige que os órgãos públicos expliquem como os chatbots tomam decisões, quais dados utilizam e quais os critérios adotados. Essa explicação não precisa revelar segredos comerciais (embora o interesse público deva prevalecer em ferramentas desenvolvidas para o Estado), mas deve ser suficiente para que o cidadão compreenda o funcionamento da ferramenta e possa contestar eventuais erros ou discriminações.

O Desafio da Explicabilidade no Setor Público

A explicabilidade da IA (XAI - Explainable AI) é um requisito legal crescente. O Conselho Nacional de Justiça (CNJ), por meio da Resolução nº 332/2020 (e suas posteriores revisões), já estabelece diretrizes para o uso de IA no Poder Judiciário, enfatizando a necessidade de transparência, explicabilidade e não discriminação.

Na prática, isso significa que um chatbot utilizado por uma Defensoria Pública para realizar triagem de casos, por exemplo, deve ser capaz de explicar por que determinou que um caso não é urgente, ou por que direcionou o cidadão para um determinado serviço em detrimento de outro. A incapacidade de fornecer essa explicação pode comprometer a validade do atendimento e gerar litígios.

Proteção de Dados e Privacidade no Atendimento Automatizado

O atendimento público frequentemente envolve o tratamento de dados sensíveis (saúde, origem racial, filiação sindical, etc.), sujeitos a regras mais rigorosas na LGPD (art. 11). Os chatbots, ao interagirem com os cidadãos, coletam e processam essas informações, o que exige a implementação de medidas robustas de segurança da informação (art. 46 da LGPD).

Além disso, o uso de chatbots em nuvem, muitas vezes fornecidos por empresas privadas (Big Techs), levanta questões sobre o compartilhamento de dados públicos e a soberania digital. É fundamental que os contratos com fornecedores de tecnologia prevejam cláusulas rigorosas de confidencialidade e segurança, garantindo que os dados dos cidadãos não sejam utilizados para fins alheios ao interesse público (como treinamento de modelos comerciais sem a devida anonimização e consentimento).

A Necessidade de Avaliação de Impacto

O artigo 38 da LGPD prevê que a autoridade nacional poderá determinar ao controlador a elaboração de relatório de impacto à proteção de dados pessoais (RIPD). No caso de implementação de chatbots no setor público, a elaboração do RIPD deve ser uma prática padrão, antes do início da operação da ferramenta.

O RIPD deve analisar os riscos envolvidos no tratamento de dados pelo chatbot, as medidas de mitigação adotadas e os mecanismos de garantia dos direitos dos titulares. A omissão na elaboração do RIPD pode caracterizar negligência e sujeitar o órgão público a sanções administrativas (que, no caso do setor público, podem envolver advertências, publicização da infração e até o bloqueio dos dados, conforme art. 52, § 3º da LGPD).

Responsabilidade Civil do Estado por Atos da IA

A responsabilização por danos causados por sistemas de Inteligência Artificial é um tema amplamente debatido, e no âmbito do setor público, a questão ganha contornos específicos devido ao regime de responsabilidade civil objetiva do Estado, consagrado no artigo 37, § 6º, da Constituição Federal.

De acordo com esse dispositivo, as pessoas jurídicas de direito público responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros. A doutrina e a jurisprudência têm caminhado no sentido de equiparar a atuação de sistemas autônomos ou semiautônomos à atuação de agentes públicos para fins de responsabilização do Estado.

Se um chatbot fornecer uma informação incorreta que resulte na perda de um prazo processual para um cidadão, ou se realizar uma triagem inadequada que atrase um atendimento médico urgente, o Estado poderá ser responsabilizado objetivamente pelos danos causados. A alegação de "erro do algoritmo" não exime a Administração Pública de sua responsabilidade, cabendo-lhe, posteriormente, o direito de regresso contra o desenvolvedor da ferramenta, caso comprovada a culpa ou dolo deste (art. 37, § 6º, parte final).

Jurisprudência e a Aplicação da Teoria do Risco Administrativo

Embora a jurisprudência sobre danos causados especificamente por chatbots no setor público ainda esteja em consolidação, os tribunais brasileiros têm aplicado a teoria do risco administrativo em casos de falhas em sistemas informatizados do Estado que causam prejuízos aos cidadãos.

O Superior Tribunal de Justiça (STJ) já firmou entendimento de que a falha em sistemas eletrônicos de tribunais que impeça o peticionamento tempestivo gera justa causa para a devolução do prazo (art. 223 do CPC). Por analogia, falhas no atendimento via chatbot que impeçam ou dificultem o exercício de direitos devem ser interpretadas em favor do cidadão, não podendo este ser penalizado por ineficiências da máquina estatal.

Orientações Práticas para a Implementação Segura

Para mitigar os riscos jurídicos e éticos associados ao uso de chatbots no atendimento público, os profissionais do Direito devem observar as seguintes diretrizes:

  1. Governança de IA: Estabelecer comitês de governança multidisciplinares (envolvendo TI, setor jurídico, proteção de dados e representantes da sociedade civil) para supervisionar o desenvolvimento e o uso de sistemas de IA.
  2. Auditoria Algorítmica: Realizar auditorias periódicas nos modelos de linguagem utilizados pelos chatbots para identificar e corrigir vieses e falhas de precisão.
  3. Transparência e Informação: Informar claramente ao usuário que ele está interagindo com um sistema de Inteligência Artificial e explicar, em linguagem simples, as finalidades e os limites do atendimento automatizado.
  4. Garantia de Atendimento Humano (Opt-out): Disponibilizar, de forma visível e de fácil acesso, a opção de transferência para o atendimento humano a qualquer momento da interação.
  5. Segurança e Privacidade desde a Concepção (Privacy by Design): Integrar os princípios da LGPD desde a fase de planejamento do chatbot, garantindo a minimização na coleta de dados e a adoção de medidas robustas de criptografia e controle de acesso.
  6. Elaboração de RIPD: Conduzir Relatórios de Impacto à Proteção de Dados Pessoais de forma minuciosa antes da implementação, atualizando-os sempre que houver mudanças significativas no escopo ou na tecnologia utilizada.
  7. Capacitação Contínua: Promover o treinamento contínuo de servidores e magistrados sobre os impactos, os limites e as melhores práticas no uso da IA no setor público.

Conclusão

A integração de chatbots no atendimento público representa um avanço inegável na busca por eficiência e ampliação do acesso à justiça e aos serviços do Estado. Contudo, a tecnologia não pode ser vista como uma panaceia que exime a Administração Pública de seus deveres constitucionais. Os desafios inerentes à transparência algorítmica, à proteção de dados sensíveis e à preservação da dignidade humana no atendimento exigem uma postura cautelosa e proativa por parte dos profissionais do Direito. A implementação dessas ferramentas deve ser pautada por rigorosa observância à legislação, pela adoção de práticas de governança transparentes e, acima de tudo, pelo compromisso inegociável com a garantia dos direitos fundamentais dos cidadãos. A tecnologia deve servir ao cidadão, e não o cidadão se submeter às limitações da tecnologia.


Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse minuta.tech para mais recursos.

Newsletter Jurídica

Dicas de IA para Advogados

Receba semanalmente dicas práticas, novidades do produto e as melhores práticas para usar IA na advocacia.

Prometemos não enviar spam. Cancele quando quiser.