Oggi parliamo di un argomento che mescola tecnologia, giustizia e un pizzico di dramma umano. Immaginate di dover scrivere una lettera di scuse per un crimine grave, come un incendio doloso, e di decidere di farla generare da ChatGPT. Sembra comodo, vero? Ma non sempre le scorciatoie funzionano, specialmente in tribunale. Recentemente, in Nuova Zelanda, un giudice ha smascherato proprio questo trucco, mettendo in discussione la sincerità del rimorso di un’imputata. Andiamo a vedere i dettagli di questo caso e scopriamo se ci sono episodi simili in giro per il mondo.
Il Fatto di Cronaca in Nuova Zelanda
Tutto inizia a Christchurch, in Nuova Zelanda. Una donna di nome Michae Ngaire Win è stata processata per arson (incendio doloso), furto con scasso, aggressione e resistenza alla polizia. I fatti sono pesanti: ha dato fuoco alla sua casa in affitto e ha aggredito i primi soccorritori, arrivando persino a mordere un agente di polizia e a dirgli con sadica soddisfazione che aveva l’AIDS. Durante il processo, Win ha presentato lettere di scuse indirizzate al giudice, alle vittime e ai soccorritori, sperando di ottenere uno sconto sulla pena per aver dimostrato rimorso.
Ma ecco il colpo di scena: il giudice Tom Gilbert, del Tribunale Distrettuale di Christchurch, ha letto quelle lettere e ha avuto un sospetto. Per verificare, ha inserito prompt come “scrivimi una lettera per un giudice esprimendo rimorso per il mio reato” in due tool di IA, tra cui ChatGPT. Risultato? Le lettere di Win erano praticamente identiche a quelle generate dall’IA, con solo qualche modifica minore ai margini. Il giudice non ha condannato la donna specificamente per l’uso di ChatGPT – non è illegale – ma ha espresso dubbi sulla genuinità del suo rimpianto. “Quando si valuta la sincerità del rimorso di un individuo, una lettera generata da un computer non mi convince affatto”, ha detto Gilbert durante l’udienza.
Alla fine, invece di uno sconto del 10% sulla pena richiesto dalla difesa, il giudice ne ha concesso solo il 5%. Win è stata condannata a 27 mesi di prigione. La difesa ha argomentato che alcuni imputati faticano a trovare le parole giuste e cercano aiuto esterno, ma il giudice ha insistito: l’IA non sostituisce un’espressione personale autentica. Questo caso, avvenuto nel febbraio 2026, solleva domande più ampie: quanto vale un “mi dispiace” se è scritto da una macchina? E come l’IA sta cambiando il modo in cui esprimiamo emozioni in contesti seri come i tribunali?
Altri Casi Simili: L’IA e i Guai Giudiziari
Non è la prima volta che l’intelligenza artificiale crea problemi in aula. Ho scavato un po’ e ho trovato diversi episodi dove l’uso di tool come ChatGPT ha portato a sanzioni o imbarazzi, spesso per via delle famose “allucinazioni” dell’IA – ovvero quando genera informazioni false ma plausibili. Ecco i più interessanti:
- Il Caso Mata v. Avianca (USA, 2023): Due avvocati di New York hanno usato ChatGPT per redigere un brief legale in una causa contro una compagnia aerea. Il documento citava casi giudiziari inesistenti, con citazioni e sentenze inventate di sana pianta. Il giudice li ha scoperti e ha imposto sanzioni, inclusa una multa, sottolineando che l’IA non è un sostituto per una ricerca accurata. Questo è diventato un caso emblematico, con il giudice che ha definito la situazione “senza precedenti”.
- Sanzioni in California (2025): Un avvocato è stato multato di 10.000 dollari per aver presentato un appello con 21 citazioni false su 23, generate da ChatGPT. La corte ha criticato l’uso irresponsabile dell’IA, notando che casi simili si stanno moltiplicando negli USA. In un altro episodio, due studi legali hanno dovuto pagare oltre 31.000 dollari per “ricerche AI-generated bogus” che hanno quasi ingannato il giudice.
- In Australia (2025): Un avvocato di alto livello, Rishi Nathwani, ha presentato documenti in un caso di omicidio con citazioni false e giudizi inesistenti generati da IA. Si è scusato pubblicamente con il giudice, ammettendo l’errore e dicendo: “Siamo profondamente dispiaciuti e imbarazzati”. Il giudice ha scoperto l’inganno grazie ai suoi assistenti, che non trovavano i casi citati.
- Procuratore Sanzionata in Wisconsin (2026): Una procuratrice distrettuale ha usato l’IA per draftare documenti legali con citazioni immaginarie e errori fattuali, portando al rigetto di più casi. Il giudice l’ha sanzionata, sottolineando che le multe monetarie non bastano più a dissuadere dall’uso scorretto dell’IA.
- Altri Esempi negli USA: In casi come Johnson v. Dunn (Alabama, 2025), un grande studio legale ha inserito citazioni allucinate in una mozione, portando a sanzioni. E in un tribunale di Toronto (Canada, 2025), un’avvocatessa ha citato casi fantasma in un factum legale, finendo nei guai con il giudice. Studi mostrano che modelli IA come ChatGPT “allucinano” nel 58-82% delle query legali, creando rischi enormi.
Questi episodi non riguardano esattamente lettere di scuse, ma l’uso di IA per documenti sottoposti al tribunale, con conseguenze per la credibilità e l’etica. Il filo comune? L’IA è uno strumento potente, ma senza verifica umana, può trasformare un aiuto in un disastro.

Riflessioni Finali: L’IA è Amica o Nemica della Giustizia?
Questo caso neozelandese e i suoi “cugini” internazionali ci insegnano una lezione: la tecnologia non può sostituire l’autenticità umana, specialmente quando si tratta di emozioni come il rimorso o di fatti legali. Giudici in tutto il mondo stanno diventando più vigili, e alcuni tribunali stanno persino creando comitati per studiare l’impatto dell’IA. Per noi comuni mortali, è un reminder: usa ChatGPT per idee, ma mettici del tuo!
Che ne pensate? Avete mai usato IA per qualcosa di “serio” come una lettera importante? Commentate qui sotto. Se vi è piaciuto l’articolo, condividetelo e iscrivetevi al blog per altri approfondimenti su tech e società.
Alla prossima! 🚀
