O advogado de aviação de Nova York, Steven Schwartz, pode enfrentar sanções profissionais depois que um documento legal que ele apresentou foi descoberto cheio de " decisões judiciais falsas " e citações falsas de autoria do modelo de linguagem AI ChatGPT, de acordo com registros do tribunal publicados na semana passada.
Em uma declaração à Justiça na quinta-feira (25), Schwartz alegou que estava usando o ChatGPT para pesquisa jurídica pela primeira vez e que usou o sistema para ajudá-lo a redigir um resumo de dez páginas para seu caso. Ele afirmou não estar ciente da possibilidade de que o conteúdo que o ChatGPT lhe forneceu pudesse ser falso. Schwartz disse isso ao tribunal enquanto tentava convencer o juiz federal de Manhattan, P. Kevin Castel, a não arquivar seu caso.
Quando questionado, o ChatGPT chegou a dizer a Schwartz – um advogado com 30 anos de experiência – que a meia dúzia de casos que citou na submissão legal eram reais, ele insistiu. Declarando que " se arrepende muito " de colocar sua fé no grande modelo de linguagem, ele prometeu " nunca fazê-lo no futuro " – pelo menos, não " sem verificação absoluta de sua autenticidade. "
O escritório de advocacia de Schwartz, Levidow, Levidow & Oberman, representava o passageiro da companhia aérea Roberto Mata em um processo por danos pessoais contra a companhia aérea Avianca em relação a um incidente em um voo de 2019. Quando a companhia aérea respondeu ao processo entrando com um pedido de demissão, argumentando que o estatuto de limitações havia expirado, Schwartz e sua empresa responderam com o resumo confuso do ChatGPT.
Os advogados da Avianca reclamaram ao juiz que os casos citados não existiam, mas quando o juiz Castel ordenou que os advogados de Mata fornecessem cópias dos pareceres questionáveis, eles prontamente o fizeram – apenas para os advogados da Avianca retrucarem que nenhum desses casos apareceu na vida real súmulas judiciais ou bancos de dados jurídicos.
O juiz Castel respondeu no início deste mês com uma ordem exigindo que Schwartz e seus colegas mostrassem o motivo pelo qual não deveriam enfrentar sanções disciplinares por usar um chatbot para escrever sua petição inicial. A audiência está marcada para o dia 8 de junho.
Em resposta, Schwartz insistiu em uma declaração apresentada na quinta-feira que havia realizado toda a pesquisa legal encontrada no documento questionável, apenas implantando o ChatGPT para " complementar " seu próprio trabalho. " Em consulta " com o modelo de software de IA, ele encontrou os casos falsos e " o ChatGPT garantiu a confiabilidade de seu conteúdo ", explicou.
Ele até anexou uma transcrição de sua conversa com o chatbot, que aparentemente o enganou ao responder perguntas como " os outros casos que você forneceu são falsos " com " não, os outros casos que forneci são reais e podem ser encontrados em bancos de dados jurídicos respeitáveis . "
Embora as respostas do ChatGPT às consultas do usuário geralmente pareçam factuais, o grande modelo de linguagem funciona como um mecanismo de probabilidade, preenchendo uma sequência de texto com base no conteúdo de seu enorme banco de dados de trechos de texto.
Fonte: Gazeta Brasil