Un avvocato è stato sanzionato per aver usato ChatGPT: citava casi inesistenti

Non solo ChatGPT, i chatbot che utilizzano l'intelligenza artificiale generativa sono diventati ormai parte integrante della nostra vita, anche del nostro lavoro. Basti pensare a Meta AI, l'intelligenza artificiale di Meta, arrivata a fine aprile sui nostri account social e nella nostra chat di WhatsApp, a prescindere dalla nostra volontà.
Certo, i vantaggi sono tanti, ma anche i rischi sono sempre dietro l'angolo. Soprattutto se ci si affida ciecamente a quello che ci dicono i chatbot, senza fare alcuna verifica, le conseguenze possono essere anche gravi. È il caso di questo avvocato dello Utah, Richard Bednar, che la scorsa settimana è stato sanzionato dalla Corte d'Appello dello Stato per aver presentato in un ricorso una testimonianza scritta con ChatGPT che faceva riferimento a un caso giudiziario mai accaduto.
Cos'è successo
Un episodio simile è successo anche in Italia qualche tempo fa e come in quel caso, anche in questa vicenda il punto non è stato l'uso di ChatGPT, ma la presenza nel documento di gravi errori di sostanza dovuti proprio al mancato controllo da parte del legale di quanto scritto dal chatbot.
Come riporta il sito di notizie ABC4, ad accorgersi degli errori è stato l'avvocato dell'altra parte che ha riscontrato e segnalato i diversi riferimenti a casi precedenti completamente inesistenti.
“Sembra che almeno alcune parti della petizione possano essere state generate dall'intelligenza artificiale, comprese le citazioni di casi passati e almeno un caso non sembra esistere in nessun database legale (e può essere trovato solo in ChatGPT) e i riferimenti a casi che sono completamente estranei alla materia di riferimento”, ha spiegato ad ABC4 il legale che per primo ha notato gli errori.
L'uso di ChatGPT senza controlli successivi
Come nel caso italiano, l'avvocato, chiamato a rispondere delle anomalie riscontrate nei documenti da lui presentati, ha riconosciuto l'errore, senza però riconoscersi in quanto autore del documento incriminato. Nel caso italiano, l'avvocato si era infatti difeso dicendo che a scrivere il documento era stata una sua assistente, in questo, invece, Bednar, pur riconoscendo le proprie responsabilità, ha detto che il documento con i riferimenti a casi non pertinenti o perfino inesistenti era stato scritto da un praticante ancora senza licenza.
Secondo quanto ricostruito dal giornale, dopo questa vicenda il praticante in questione è stato licenziato, mentre l'avvocato sanzionato ha comunque riconosciuto le proprie responsabilità, offrendosi di di pagare le spese legali dell'udienza che lo ha visto protagonista.
Da parte sua la Corte dello Utah ha ribadito che "l'utilizzo dell'IA nella preparazione dei documenti rimane uno strumento di ricerca legale che continuerà a evolversi con i progressi della tecnologia. Tuttavia, sottolineiamo che ogni avvocato ha il dovere costante di rivedere e garantire l'accuratezza dei propri documenti giudiziari". In sostanza quindi l'avvocato è stato sanzionato non per aver usato ChatGPT ma per averlo fatto in modo irresponsabile.