Na ementa do julgado, relatora afirmou que informações inexistentes visavam induzir magistrados a erro.
A 5ª câmara Criminal do TJ/SC negou pedido de revogação de medidas protetivas de urgência em caso de violência doméstica, e destacou, na ementa, indícios de que a petição inicial teria sido criada por inteligência artificial, contendo citações de jurisprudência inexistente.
A relatora, desembargadora Cinthia Beatriz da Silva Bittencourt Schaefer, afirmou que se tratou de ato de má-fé e desrespeito ao tribunal.
Enfatizou que os precedentes jurídicos apresentados como reforço argumentativo “foram criados para induzir o julgador a erro”.
Assim, apesar de conhecer a ordem, advertiu o advogado impetrante.
No mérito, o colegiado considerou que a alegação de desproporcionalidade da prorrogação das medidas protetivas por tempo indeterminado era improcedente.
A decisão foi fundamentada no entendimento do STJ que prevê que tais medidas possuem abrangência limitada, mas devem garantir a segurança da vítima.
O tribunal concluiu que a razoabilidade e a proporcionalidade das medidas estavam presentes, não havendo constrangimento ilegal. Diante disso, o pedido foi conhecido e negado.
Repercussão
Em publicação na sua conta do Instagram, o jurista Lênio Streck alertou que esse tipo de problema – petições com falsos fundamentos geradas por IA – pode se tornar cada vez mais comum. “É apenas a ponta do iceberg da agnotologia jurídica que vem aí!!”, afirmou.
Na Justiça Eleitoral
Em 2023, ministro Benedito Gonçalves, corregedor-geral da Justiça Eleitoral, aplicou uma multa de R$ 2.604 por litigância de má-fé a um advogado que protocolou uma petição escrita com o ChatGPT no TSE.
O advogado solicitava ingresso como amicus curiae em uma investigação eleitoral contra o ex-presidente Jair Bolsonaro, mas sua real intenção era criar uma “fábula escrita a duas mãos” para protestar contra o uso de IA na Justiça.
Na decisão, Benedito Gonçalves destacou que a resolução do TSE já veda o uso do amicus curiae nesse tipo de processo. Além disso, criticou o fato de a petição ser baseada exclusivamente em um diálogo com uma inteligência artificial, sem contribuição pessoal do requerente.
O ministro classificou a conduta como temerária e infundada, ressaltando que um advogado deve conhecer a inadequação do material apresentado. Assim, além de indeferir o pedido, aplicou a multa de dois salários-mínimos.
Problema mundial
O acontecimento não é isolado. Nos Estados Unidos, o advogado Steven A. Schwartz utilizou o ChatGPT para processar a Avianca. A sua petição também apresentou precedentes inexistentes. Após a repercussão, um juiz do Texas determinou que petições elaboradas com IA deveriam ser identificadas para verificação de precisão.
A advogada Ana Paula Ávila, vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS, alertou que advogados têm dever ético e legal de checar informações geradas por ferramentas, como ChatGPT, que pode fornecer dados falsos.
Ela destaca que, embora as respostas da IA pareçam certeiras, podem ser incorretas. Por isso, recomenda a dupla verificação em fontes autênticas para evitar o que chama de “IA: Ignorância Autêntica”.
No Brasil, Ana Paula afirma que um caso semelhante pode levar à sanção por litigância de má-fé, conforme o art. 80 do CPC, se comprovado o uso consciente de informações falsas. Além disso, a responsabilidade civil pode ser aplicada por erro profissional, incluindo indenizações por perda de uma chance.
A diferença entre veneno e remédio
É inegável a presença da inteligência artificial também na advocacia. Assim como em outras áreas do conhecimento, os mecanismos já vêm sendo utilizados e transformam a rotina dos profissionais. Não há como afastar a realidade.
Mesmo o CFOAB – Conselho Federal da OAB aprovou, conjunto de recomendações para o uso da inteligência artificial generativa na advocacia, com foco na ética e na responsabilidade profissional.
As diretrizes, elaboradas pelo Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados da OAB, abordam quatro pilares principais: legislação aplicável, confidencialidade e privacidade, prática jurídica ética e transparência no uso da IA.
Portanto, saber como utilizar e dosar as ferramentas de inteligência artificial é a chave para não fazer do remédio, veneno.
O advogado Renato Opice Blum destacou ao Migalhas que profissionais devem se atentar aos riscos relacionados à LGPD e ao plágio, reforçando a necessidade de uso responsável das ferramentas generativas.
Afirmou que elas podem apoiar a redação de petições, trazendo referências doutrinárias, mas não substituem o trabalho do advogado na adaptação ao contexto jurídico.
No evento “IA no Direito: Ferramentas, Governança e Perspectivas para o Futuro”, promovido pelo Migalhas e coordenado pelo advogado Luiz Augusto Filizzola D’Urso, foram recomendadas oito ferramentas de IA para otimizar a advocacia.