La prima volta di ChatGPT in tribunale: a New York cita sentenze fasulle e il giudice gli dà torto

Davanti ai giudici di Manhattan, Steven Schwartz ha deciso di affidare la propria difesa al chatbot. Ma…

Se nel campo della medicina i primi risultati dell’intelligenza artificiale sembrano promettenti, per l’assistenza legale non si può dire lo stesso. La prima esperienza di ChatGPT in un’aula di tribunale è stata a dir poco disastrosa. A chiedere aiuto al chatbot è stato l’avvocato Steven Schwartz, a cui è stata affidata la difesa di Roberto Mata, un passeggero di un volo Avianca che ha fatto causa alla compagnia aerea dopo essere stato ferito a un ginocchio dal carrello delle vivande durante un volo. Al tribunale di Manhattan, a New York, Avianca ha chiesto l’archiviazione del caso, contestando anche la scadenza dei termini. L’avvocato Schwartz, in tutta risposta, si è difeso citando sette precedenti legali in cui i tribunali hanno dato ragione ai passeggeri: il caso Martinez contro Delta Airlines, il caso Zicherman contro Korean Air e tanti altri.


Le «allucinazioni» di ChatGPT

C’è solo un problema: nessuno riusciva a risalire ai casi citati. Schwartz, che si era affidato a ChatGPT, è tornato a chiedere al software di intelligenza artificiale dove avesse trovato quei precedenti. Anche questa volta il chatbot gli ha risposto in un batter d’occhio, citando addirittura il numero esatto delle sentenze. Eppure, anche dopo questo secondo passaggio il giudice Kevin Castel continuava a non trovare nulla. E ha chiesto al legale di fornire i testi completi delle sentenze. Alla fine, messa alle strette per la terza volta da Schwartz, ChatGPT ha confessato: quei precedenti legali non esistono, se li era inventati tutti. Non solo: ha chiesto scusa all’avvocato e si è detta sinceramente dispiaciuta per quanto successo.


Le scuse dell’Ai

A quel punto, al legale newyorkese non è rimasto altro da fare se non confessare di aver affidato la propria difesa a ChatGPT. E di essere stato tradito dalle sue «allucinazioni», risposte casualmente false e inventate che l’intelligenza artificiale a volte mescola alle informazioni fondate e veritiere. Ora Schwartz sembra aver imparato la lezione. In una dichiarazione scritta, il legale newyorkese «si rammarica vivamente di aver utilizzato l’intelligenza artificiale generativa per integrare la ricerca legale» e promette che «non lo farà mai più in futuro senza prima svolgere una verifica assoluta della sua autenticità».

Leggi anche: