Por LARRY NEUMEISTER

NOVA YORK (AP) – Dois advogados que se desculparam respondendo a um juiz furioso no tribunal federal de Manhattan culparam o ChatGPT na quinta-feira por induzi-los a incluir pesquisas legais fictícias em um processo judicial.

Advogados culpam ChatGPT por induzi-los a citar jurisprudência falsa - as petições escritas deixaram o juiz P. Kevin Castel perplexo.
O aplicativo ChatGPT é exibido em um iPhone em Nova York, 18 de maio de 2023. Um juiz está decidindo se sancionará dois advogados que culparam o ChatGPT por induzi-los a incluir pesquisa jurídica fictícia em um processo judicial. Os advogados se desculparam em uma audiência na quinta-feira, 8 de junho de 2023, no tribunal federal de Manhattan por seus papéis em petições escritas que pareciam deixar o juiz P. Kevin Castel perplexo e perturbado com o que aconteceu. (Foto AP/Richard Drew, Arquivo)

Os advogados Steven A. Schwartz e Peter LoDuca estão enfrentando uma possível punição por um processo contra uma companhia aérea que incluía referências a processos judiciais anteriores que Schwartz pensava serem reais, mas na verdade foram inventados pelo chatbot movido a inteligência artificial.

Schwartz explicou que usou o programa inovador enquanto procurava precedentes legais que apoiassem o caso de um cliente contra a companhia aérea colombiana Avianca por uma lesão sofrida em um voo de 2019.

O chatbot, que tem fascinado o mundo com sua produção de respostas em forma de ensaio às solicitações dos usuários, sugeriu vários casos envolvendo acidentes de aviação que Schwartz não conseguiu encontrar pelos métodos usuais usados ​​em seu escritório de advocacia.

O problema era que vários desses casos não eram reais ou envolviam companhias aéreas que não existiam.

Schwartz disse ao juiz distrital dos EUA P. Kevin Castel que estava “operando sob um equívoco … que este site estava obtendo esses casos de alguma fonte à qual eu não tinha acesso”.

Ele disse que “falhou miseravelmente” em fazer pesquisas de acompanhamento para garantir que as citações estivessem corretas.

“Não compreendi que o ChatGPT pudesse fabricar casos”, disse Schwartz.

A Microsoft investiu cerca de US$ 1 bilhão na OpenAI , a empresa por trás do ChatGPT.

Seu sucesso, demonstrando como a inteligência artificial pode mudar a maneira como os humanos trabalham e aprendem, gerou medo em alguns. Centenas de líderes da indústria assinaram uma carta em maio alertando que “ mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.

juiz Castel parecia perplexo e perturbado com a ocorrência incomum e desapontado porque os advogados não agiram rapidamente para corrigir as falsas citações legais quando foram alertados sobre o problema pelos advogados da Avianca e pelo tribunal. A Avianca apontou a jurisprudência falsa em um processo de março.

O juiz confrontou Schwartz com um caso legal inventado pelo programa de computador. Foi inicialmente descrito como um caso de morte por negligência movido por uma mulher contra uma companhia aérea apenas para se transformar em uma ação legal sobre um homem que perdeu um voo para Nova York e foi forçado a incorrer em despesas adicionais.

“Podemos concordar que isso é um jargão jurídico?” Castel perguntou.

Schwartz disse que pensou erroneamente que a apresentação confusa resultou de trechos extraídos de diferentes partes do caso.

Quando Castel terminou seu interrogatório, perguntou a Schwartz se ele tinha mais alguma coisa a dizer.

“Gostaria de me desculpar sinceramente”, disse Schwartz.

Ele acrescentou que sofreu pessoalmente e profissionalmente como resultado do erro e se sentiu “envergonhado, humilhado e extremamente arrependido”.

Ele disse que ele e a empresa onde trabalhava – Levidow, Levidow & Oberman – colocaram salvaguardas para garantir que nada semelhante aconteça novamente.

LoDuca, outro advogado que trabalhou no caso, disse que confiava em Schwartz e não revisou adequadamente o que compilou.

Depois que o juiz leu em voz alta partes de um caso citado para mostrar como era fácil discernir que era “sem nexo”, LoDuca disse: “Nunca me ocorreu que este era um caso falso”.

Ele disse que o resultado “me dói sem fim”.

Ronald Minkoff, advogado do escritório de advocacia, disse ao juiz que a submissão “resultou de descuido, não de má-fé” e não deveria resultar em sanções.

Ele disse que os advogados historicamente tiveram dificuldades com a tecnologia, principalmente com as novas tecnologias, “e não está ficando mais fácil”.

“Senhor. Schwartz, alguém que mal faz pesquisa federal, optou por usar essa nova tecnologia. Ele pensou que estava lidando com um mecanismo de busca padrão”, disse Minkoff. “O que ele estava fazendo era brincar com munição real.”

Daniel Shin, professor adjunto e diretor assistente de pesquisa do Centro de Tecnologia Jurídica e Judicial da William & Mary Law School, disse que apresentou o caso Avianca durante uma conferência na semana passada que atraiu dezenas de participantes pessoalmente e online de governos estaduais e federais tribunais nos EUA, incluindo o tribunal federal de Manhattan.

Ele disse que o assunto causou choque e confusão na conferência.

“Estamos falando do Distrito Sul de Nova York, o distrito federal que lida com grandes casos, do 11 de setembro a todos os grandes crimes financeiros”, disse Shin. “Esta foi a primeira instância documentada de possível má conduta profissional por um advogado usando IA generativa”.

Ele disse que o caso demonstrou como os advogados podem não ter entendido como o ChatGPT funciona porque ele tende a alucinar, falando sobre coisas fictícias de uma maneira que parece realista, mas não é.

“Isso destaca os perigos de usar tecnologias promissoras de IA sem conhecer os riscos”, disse Shin.

O juiz disse que decidirá sobre as sanções em uma data posterior.

ChatGPT

Ocasionalmente pode gerar informações incorretas

Ocasionalmente, pode produzir instruções prejudiciais ou conteúdo tendencioso

Conhecimento limitado do mundo e eventos após 2021