Il caso in sintesi
Il 17 febbraio 2026 il giudice Jed S. Rakoff del Southern District of New York ha depositato la propria opinione scritta in United States v. Heppner, dopo aver già pronunciato il dispositivo il 10 febbraio. Si tratta della prima decisione federale americana ad affrontare la questione se le conversazioni di un imputato con uno strumento di intelligenza artificiale generativa siano protette dal privilegio avvocato-cliente o dalla work product doctrine.
Bradley Heppner, dirigente finanziario di Dallas, era stato indagato e poi rinviato a giudizio per frode sui mercati finanziari e wire fraud. Dopo aver ricevuto una citazione del grand jury e aver ingaggiato un avvocato difensore, ma prima del proprio arresto, Heppner aveva usato di propria iniziativa — senza direzione del legale — la versione consumer di Claude, lo strumento AI sviluppato da Anthropic, per elaborare la propria strategia difensiva, analizzare la propria esposizione penale e preparare documenti da condividere con i propri avvocati.
L’FBI, nel corso della perquisizione domiciliare seguita all’arresto, aveva sequestrato 31 documenti contenenti questi scambi con Claude. La difesa aveva invocato il privilegio. Il governo aveva chiesto al giudice di dichiarare che quei documenti non erano protetti. Il giudice Rakoff ha accolto la richiesta del governo su tutti i punti.
Le tre ragioni del rigetto
Il giudice Rakoff ha identificato almeno due ragioni autonomamente sufficienti per negare il privilegio, a prescindere da ogni altra considerazione.
Prima: Claude non è un avvocato. Il privilegio avvocato-cliente protegge le comunicazioni tra un cliente e il proprio legale. Un sistema AI non è un avvocato, non ha un rapporto fiduciario con l’utente, non è iscritto a un albo e non è soggetto a deontologia professionale. Nessuna formulazione contrattuale può alterare questo dato strutturale.
Seconda: nessuna ragionevole aspettativa di riservatezza. I termini di servizio consumer di Anthropic — come quelli di tutti i principali provider — riservano il diritto di accedere ai prompt per finalità di training e di divulgarli alle autorità in risposta a richieste legali. Inserire informazioni riservate in un sistema con queste condizioni equivale, secondo il giudice, a discutere la propria strategia difensiva in un luogo pubblico.
Terza — la più insidiosa: la waiver. Heppner aveva inserito in Claude informazioni ricevute dal proprio avvocato difensore. Il giudice ha concordato con il governo che condividere comunicazioni privilegiate con una piattaforma AI terza può costituire rinuncia al privilegio sulle comunicazioni originarie con il legale. Traduzione pratica: non solo i documenti AI erano acquisibili dalla pubblica accusa. Potenzialmente anche le comunicazioni con l’avvocato da cui quelle informazioni provenivano.
Cosa cambia per gli avvocati
La sentenza Heppner introduce un obbligo di informativa che molti avvocati non hanno ancora formalizzato: il dovere di avvertire esplicitamente i propri clienti che qualsiasi informazione immessa in uno strumento AI consumer-grade è potenzialmente scopribile in sede di discovery e non è coperta dal segreto professionale. Questo avvertimento dovrebbe entrare nelle lettere di incarico e nei documenti di onboarding del cliente.
Il giudice Rakoff ha peraltro suggerito che il privilegio potrebbe resistere laddove l’uso dell’AI sia diretto dall’avvocato e condotto su piattaforme enterprise con garanzie contrattuali adeguate — a condizione che i termini di servizio escludano l’accesso ai dati per finalità di training e la loro divulgazione a terzi senza consenso. La distinzione tra versione consumer e versione enterprise dello stesso strumento diventa quindi giuridicamente rilevante.
Cosa cambia per le aziende
Il problema non riguarda solo gli avvocati esterni. Il legal counsel interno che usa ChatGPT, Claude o Gemini in versione consumer per analizzare una questione legale, elaborare una strategia o preparare una comunicazione riservata sta potenzialmente creando materiale discoverable in un futuro contenzioso. Le policy aziendali sull’uso dell’AI devono coprire esplicitamente questo scenario, distinguendo tra strumenti autorizzati con adeguate garanzie contrattuali e strumenti consumer non idonei al trattamento di informazioni riservate.
Vi è inoltre un profilo che la sentenza non affronta direttamente ma che rileva in modo autonomo: il segreto industriale. Secondo il D.Lgs. 63/2018 (di attuazione della direttiva Trade Secrets), la tutela del know-how riservato presuppone che il titolare abbia adottato misure ragionevoli per mantenerlo tale. Un’azienda che consente ai propri dipendenti di immettere informazioni strategiche in strumenti consumer senza policy adeguate non sta adottando alcuna misura — e quella tutela, in caso di contenzioso, rischia di non reggere.
La prospettiva europea
La sentenza Heppner è americana. Ma il principio sottostante — che condividere informazioni riservate con un provider AI terzo può costituire divulgazione non autorizzata — è pienamente compatibile con il quadro normativo europeo. Il GDPR impone che i dati personali siano trattati in modo da garantirne la riservatezza; i trasferimenti a provider extra-UE richiedono garanzie adeguate; gli avvocati italiani ed europei sono soggetti a obblighi deontologici di riservatezza che non si esauriscono con il rispetto della legge americana.
Chi opera esclusivamente in Europa e ritiene che il problema non lo riguardi si sbaglia. La questione non è di giurisdizione — è di principio. E il principio è lo stesso: ciò che viene condiviso con una piattaforma AI consumer non è riservato.







