Un giudice scopre che sette sentenze citate da un legale di New York sono fasulle. Il legale ammette di essersi affidato a ChatGpt e giura che non lo farà «mai più». Ma non c’è nulla di nuovo nell’incapacità del chatbot di fare i conti con la verità
«Mi scuso per la confusione di prima»: è tutto quello che ChatGpt è riuscita a dire al povero avvocato Steven A. Schwartz prima di rifilargli un'altra balla. Il legale dello studio Levidow, Levidow & Oberman stava sudando sette camice per capire cosa diavolo fosse andato storto: «Gli altri casi che hai fornito sono falsi», strepitava l'avvocato contro il chatbot. «No, gli altri casi che ho fornito sono reali e possono essere trovati in database legali affidabili», sciorinava con sicumera ChatGpt.
Ma ormai la frittata era fatta: né il giudice, né i legali della controparte avevano trovato traccia della mezza dozzina di casi citati da Schwartz quali precedenti che assicurassero la vittoria al suo cliente. Non c'era traccia perché i casi se li era inventati di sana pianta ChatGpt.
Il disastroso debutto di ChatGpt in tribunale
La causa era iniziata come tante altre: un uomo di nome Roberto Mata aveva citato in giudizio la compagnia aerea colombiana Avianca, dopo essere stato ferito a u...