O advogado de aviação de Nova York, Steven Schwartz, pode enfrentar sanções profissionais depois que um documento legal que ele apresentou foi descoberto cheio de " decisões judiciais falsas " e citações falsas de autoria do modelo de linguagem AI ChatGPT, de acordo com registros do tribunal publicados na semana passada.
Em uma declaração à Justiça na quinta-feira (25), Schwartz alegou que estava usando o ChatGPT para pesquisa jurídica pela primeira vez e que usou o sistema para ajudá-lo a redigir um resumo de dez páginas para seu caso. Ele afirmou não estar ciente da possibilidade de que o conteúdo que o ChatGPT lhe forneceu pudesse ser falso. Schwartz disse isso ao tribunal enquanto tentava convencer o juiz federal de Manhattan, P. Kevin Castel, a não arquivar seu caso.
Quando questionado, o ChatGPT chegou a dizer a Schwartz – um advogado com 30 anos de experiência – que a meia dúzia de casos que citou na submissão legal eram reais, ele insistiu. Declarando que " se arrepende muito " de colocar sua fé no grande modelo de linguagem, ele prometeu " nunca fazê-lo no futuro " – pelo menos, não " sem verificação absoluta de sua autenticidade. "
O escritório de advocacia de Schwartz, Levidow, Levidow & Oberman, representava o passageiro da companhia aérea Roberto Mata em um processo por danos pessoais contra a companhia aérea Avianca em relação a um incidente em um voo de 2019. Quando a companhia aérea respondeu ao processo entrando com um pedido de demissão, argumentando que o estatuto de limitações havia expirado, Schwartz e sua empresa responderam com o resumo confuso do ChatGPT.
Os advogados da Avianca reclamaram ao juiz que os casos citados não existiam, mas quando o juiz Castel ordenou que os advogados de Mata fornecessem cópias dos pareceres questionáveis, eles prontamente o fizeram – apenas para os advogados da Avianca retrucarem que nenhum desses casos apareceu na vida real súmulas judiciais ou bancos de dados jurídicos.
O juiz Castel respondeu no início deste mês com uma ordem exigindo que Schwartz e seus colegas mostrassem o motivo pelo qual não deveriam enfrentar sanções disciplinares por usar um chatbot para escrever sua petição inicial. A audiência está marcada para o dia 8 de junho.
Em resposta, Schwartz insistiu em uma declaração apresentada na quinta-feira que havia realizado toda a pesquisa legal encontrada no documento questionável, apenas implantando o ChatGPT para " complementar " seu próprio trabalho. " Em consulta " com o modelo de software de IA, ele encontrou os casos falsos e " o ChatGPT garantiu a confiabilidade de seu conteúdo ", explicou.
Ele até anexou uma transcrição de sua conversa com o chatbot, que aparentemente o enganou ao responder perguntas como " os outros casos que você forneceu são falsos " com " não, os outros casos que forneci são reais e podem ser encontrados em bancos de dados jurídicos respeitáveis . "
Embora as respostas do ChatGPT às consultas do usuário geralmente pareçam factuais, o grande modelo de linguagem funciona como um mecanismo de probabilidade, preenchendo uma sequência de texto com base no conteúdo de seu enorme banco de dados de trechos de texto.
Gazeta Brasil