domingo, 4 de junho de 2023

O ChatGPT inventou processos judiciais que foram citados em ações legais contra a Avianca

Os advogados que representam um processo de passageiro usaram o chatbot para pesquisa.

(Foto: Markus Mainka/Shutterstock)
Advogados que buscam um processo contra a companhia aérea colombiana Avianca se encontraram em maus lençóis depois de citar processos judiciais fabricados pelo ChatGPT. O chatbot de IA inventou vários casos falsos que foram posteriormente apresentados em um processo judicial.

O caso Avianca


O passageiro Robert Mata entrou com uma ação contra a Avianca no ano passado após alegar que foi ferido por um carrinho de serviço em um voo de El Salvador (SAL) para Nova York (JFK) em 27 de agosto de 2019. Conforme relatado pelo The New York Times, que o representa foi Steven A. Schwartz, do escritório de advocacia Levidow, Levidow & Oberman. Depois que a Avianca solicitou que um juiz rejeitasse o processo com base no estatuto de limitações, Schwartz apresentou uma petição contendo meia dúzia de casos legais falsos.


O juiz distrital dos EUA, Kevin Castel, declarou: "Seis dos casos apresentados parecem ser decisões judiciais falsas com citações falsas e citações internas falsas."

Alucinações do ChatGPT


O erro veio à tona depois que os advogados da Avianca entraram em contato com o juiz Kevin Castel alegando que nenhuma das citações falsas apareceu nos bancos de dados legais. Schwartz confiou no ChatGPT da OpenAI para se preparar para o caso, e o LLM (large language model) é notório por sua tendência a fabricar fatos ou fontes, apelidados de “alucinações”.

Os chatbots agora são capazes de desempenhar funções além de simples agentes de atendimento ao cliente - por exemplo, a Etihad Airways anunciou recentemente que permitiria que os passageiros reservassem voos por meio de um chatbot de IA. Apesar da capacidade do ChatGPT de passar no exame da ordem, simplesmente não se pode confiar nele para obter informações factuais precisas.

O advogado da Avianca, Bart Banino, da Condon & Forsyth, disse à CBS MoneyWatch: "Parecia claro quando não reconhecemos nenhum dos casos em seu relatório de oposição que algo estava errado. Imaginamos que era algum tipo de chatbot de algum tipo."

Casos inventados incluíram Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines e Varghese v. China Southern Airlines - o processo judicial até citou uma longa citação do caso "Varghese" que não pôde ser encontrada.

Advogado responde


Desde então, Schwartz admitiu em um depoimento que "se arrepende muito" de usar o ChatGPT como parte de sua pesquisa, alegando que era apenas "para complementar" seu próprio trabalho. Ele aparentemente tentou verificar os casos perguntando ao ChatGPT se eram reais e solicitando fontes. Depois que o chatbot sustentou que eram casos legítimos, Schwartz verificou as outras citações com o mesmo método.

De acordo com o The Verge, Schwartz afirma que nunca havia usado o ChatGPT antes desse incidente e que " portanto, desconhecia a possibilidade de que seu conteúdo pudesse ser falso ". O advogado acrescentou que “ lamenta muito ter utilizado inteligência artificial generativa para complementar a pesquisa jurídica aqui realizada e nunca o fará no futuro sem a verificação absoluta de sua autenticidade ”. O juiz Castel convocou Schwartz e sua empresa para uma audiência na próxima semana para discutir por que eles não deveriam ser sancionados.

Nenhum comentário: