Con la sentenza n. 338 del 20 febbraio 2026, il Tribunale di Siracusa ha inflitto a un avvocato del Foro di Milano una sanzione complessiva di circa 30.000 euro per aver fondato la propria difesa su quattro precedenti della Cassazione che, a una verifica nel CED della Suprema Corte, si sono rivelati inutilizzabili: le sentenze esistevano, ma trattavano materie del tutto estranee alla causa. Le massime virgolettate riportate negli atti erano state generate ex novo da un sistema di intelligenza artificiale generativa. Non si trattava di un refuso. Era il risultato di una delega in bianco a uno strumento che non sa distinguere tra ciò che è vero e ciò che è plausibile.
I fatti
La vicenda riguarda un contenzioso civile su un contratto di sublocazione immobiliare. A sostegno delle proprie tesi, il difensore ha inserito nella memoria quattro richiami alla giurisprudenza di legittimità, completi di estratti testuali virgolettati. Il giudice, insospettito dalla formulazione delle massime, ha effettuato una verifica diretta nel database della Cassazione: nessuno dei quattro riferimenti conteneva i passaggi riportati. Le sentenze — Cass. n. 1216/2000, n. 8379/2006, n. 14795/2003 e n. 4553/2004 — erano reali, ma i contenuti attribuiti loro dall’AI non lo erano. Una consultazione elementare delle fonti primarie avrebbe smascherato l’errore in pochi minuti.
Il principio: uso acritico dell’AI è colpa grave
Il giudice ha chiarito che i modelli linguistici di grandi dimensioni non sono banche dati giuridiche: non recuperano informazioni, ma producono testo statisticamente coerente con il contesto in cui operano. Chi si avvale di uno strumento del genere per redigere atti giudiziari senza verificare sistematicamente ogni output sulle fonti primarie non commette un errore scusabile, ma una negligenza qualificata. Allo stato attuale delle conoscenze tecnologiche, sostenere di non sapere che un LLM possa inventare sentenze non è più una difesa credibile — e il giudice lo ha detto esplicitamente.
La sanzione si articola su tre voci: oltre 14.000 euro di spese legali alla controparte, un importo equivalente a titolo di responsabilità aggravata ex art. 96, comma 3, c.p.c., e 2.000 euro alla Cassa delle Ammende per il danno arrecato all’amministrazione della giustizia.
Una giurisprudenza italiana in costruzione
Siracusa non è un caso isolato, è l’ultimo stadio di un orientamento che si sta consolidando con una coerenza difficile da ignorare. Il Tribunale di Torino aveva aperto la serie il 16 settembre 2025, censurando atti difensivi costruiti con il supporto dell’AI e caratterizzati da citazioni giurisprudenziali inconferenti prive di qualsiasi filo logico rispetto al caso concreto. Il Tribunale di Latina aveva replicato una settimana dopo, con due pronunce gemelle del 23 settembre 2025, sanzionando un difensore che aveva prodotto centinaia di ricorsi seriali evidentemente generati in modo automatizzato. Tre tribunali, quattro sentenze, un principio che converge: l’uso acritico dell’AI generativa nella redazione di atti giudiziari integra responsabilità processuale aggravata.
Il quadro normativo nel frattempo si è definito. Il Regolamento UE 2024/1689 e la legge italiana n. 132/2025 che ne ha disposto il recepimento introducono obblighi specifici per i professionisti intellettuali che utilizzano sistemi di intelligenza artificiale, tra cui l’obbligo di informare il cliente dell’impiego di tali strumenti. Una norma che, letta insieme alla giurisprudenza in esame, delinea un regime di responsabilità professionale sempre più preciso — e sempre meno eludibile.
Le implicazioni per la professione forense
L’uso dell’AI nella pratica legale non è il problema. Lo è la confusione tra due funzioni radicalmente diverse: il recupero di informazione verificata e la generazione di testo plausibile. Un sistema integrato con banche dati certificate può supportare la ricerca giurisprudenziale, l’analisi documentale, la strutturazione di argomenti difensivi. Un LLM generalista non fa nulla di tutto questo — produce sequenze linguistiche coerenti con il contesto, indipendentemente dalla loro corrispondenza alla realtà.
La firma in calce a un atto giudiziario non attesta solo la paternità del testo. Certifica che chi lo ha redatto si è assunto la responsabilità del suo contenuto — in fatto, in diritto, nelle citazioni. Quella responsabilità non si trasferisce allo strumento. La sentenza di Siracusa, insieme ai precedenti di Torino e Latina, sta traducendo in sanzioni concrete un principio che l’AI Act e la legge 132/2025 avevano già codificato: la supervisione umana sull’uso dell’intelligenza artificiale non è una raccomandazione. È un obbligo. E i tribunali italiani hanno iniziato a farlo rispettare.







