La controversia tra il New York Times e OpenAI si colloca al centro di un dibattito globale sulle responsabilità legali e gli obblighi delle imprese che sviluppano intelligenza artificiale generativa.
Il procedimento giudiziario avviato nel dicembre 2023 presso la Corte Distrettuale di Manhattan, oltre ad affrontare il nodo della violazione del copyright, solleva rilevanti questioni legate alla privacy, alla concorrenza e al rapporto tra giurisdizioni internazionali.
Le origini della causa: l’uso non autorizzato dei contenuti giornalistici
Il New York Times ha citato in giudizio OpenAI accusandola di aver utilizzato milioni di articoli protetti da copyright per addestrare i modelli linguistici di ChatGPT, in assenza di una licenza, e quindi in violazione della proprietà intellettuale.
La difesa di OpenAI si è fondata sul concetto di fair use, sostenendo che l’uso fosse trasformativo e quindi legittimo secondo la giurisprudenza statunitense. Secondo l’azienda, le risposte di ChatGPT non copierebbero letteralmente gli articoli, ma ne rielaborerebbero i contenuti attraverso processi statistici.
Tuttavia, il Times ha presentato numerosi esempi di output del modello che riproducono interi articoli in modo quasi letterale, suggerendo un comportamento potenzialmente lesivo dei diritti di autore.
Il fondamento delle accuse e il tema del free riding
Il perimetro del processo, si concentra sulle presunte violazioni del diritto d’autore e sulla responsabilità indiretta delle piattaforme nel facilitare l’accesso a contenuti generati ma simili a quelli originali.
Fondamentale è la decisione del 26 marzo 2025 con cui il giudice federale Sidney Stein, ritenendo che le prove fornite dal New York Times fossero sufficienti per proseguire il giudizio, ha respinto la richiesta di archiviazione presentata da OpenAI, mentre ha accolto parzialmente la mozione della convenuta con riferimento a contestazioni minori di concorrenza sleale e interferenze contrattuali.
Le contestazioni minori fanno riferimento all’accusa di free riding mossa dal New York Times, che sostiene che OpenAI abbia costruito un prodotto commerciale competitivo, attraverso abbonamenti, integrazioni e prodotti business, sfruttando il lavoro giornalistico altrui, senza licenza.
Questa accusa è uno dei punti più sensibili, anche in vista di una possibile monetizzazione dell’IA basata su contenuti non retribuiti, e sta sollevando interrogativi sulla leale concorrenza, la sostenibilità del giornalismo e la necessità di nuovi modelli di redistribuzione del valore nell’ecosistema IA.
Alcune imprese, come OpenAI stessa, stanno già correndo ai ripari, stipulando accordi di licenza con editori globali (Associated Press, Axel Springer, Le Monde), ma resta aperta la questione di come regolamentare strutturalmente questo fenomeno.
L’ordine di conservazione dati: un rischio per la privacy globale
Un altro dei punti più sensibili della vicenda, riguarda l’ordine di preservation richiesto dal New York Times ed emesso il 13 maggio 2025 dal giudice Ona T. Wang, che obbliga OpenAI a non cancellare alcuna conversazione o contenuto generato da ChatGPT o tramite le sue API, nemmeno quelli già eliminati dagli utenti o che sarebbero stati automaticamente rimossi entro 30 giorni, come previsto dalla privacy policy.
L’ordine e si applica a tutti gli utenti globali, salvo eccezioni contrattuali come ChatGPT Enterprise o API con Zero Data Retention e ha effetto indefinito (“fino a nuovo ordine del tribunale”).
L’obiettivo è evitare che potenziali prove — come l’output generato da ChatGPT che riproduce articoli del Times — vengano accidentalmente o automaticamente eliminate prima della fine del processo.
Tutto ciò comporta che l’azienda dovrà conservare tutti i dati generati da ChatGPT e API, compresi quelli già eliminati, senza alcuna scadenza temporale predefinita.
OpenAI ha reagito duramente, definendo l’ordine:
- Invasivo della privacy degli utenti;
- Incompatibile con il GDPR, che impone la limitazione temporale nella conservazione dei dati personali (art. 5.1.e);
- In conflitto con gli impegni contrattuali e reputazionali dell’azienda verso i suoi clienti.
L’ordine è stato impugnato davanti alla Corte Distrettuale, ma resta al momento in vigore.
Riflessione in merito alle implicazioni europee.
L’ordine ha sollevato gravi criticità sul piano della protezione dei dati personali, specie per gli utenti europei tutelati dal GDPR.
In Europa, il GDPR e le direttive sul diritto d’autore (come la Direttiva Copyright 2019/790) pongono limiti precisi all’uso di dati personali e contenuti protetti per finalità di addestramento algoritmico.
Considerate le modalità, gli effetti e le finalità perseguite dall’ordine, rilevano alcune incompatibilità con la normativa europea:
- Durata indefinita e principio di limitazione della conservazione (art. 5.1.e GDPR): conservare dati a tempo indeterminato — anche se cancellati dagli utenti — viola il principio secondo cui i dati devono essere trattenuti solo per il tempo necessario alle finalità dichiarate;
- Base giuridica inadeguata (art. 6 GDPR): l’ordine statunitense non è automaticamente riconosciuto come valida base giuridica in Europa. Un procedimento civile in una giurisdizione extra-UE non giustifica da solo un trattamento invasivo di dati personali globali;
- Trasparenza e informazione (artt. 12-14 GDPR): gli utenti europei non sono stati informati in modo chiaro dell’esistenza di questa retention forzata, né delle modalità di conservazione a scopo giudiziario.
- Proporzionalità e minimizzazione (art. 5.1.c, art. 25 GDPR): l’ordine appare sproporzionato rispetto alla finalità perseguita.
Conclusioni e prospettive future.
Il caso New York Times vs OpenAI rappresenta un punto di svolta nel confronto tra tecnologia e diritti fondamentali. Non si tratta solo di stabilire se l’addestramento su contenuti protetti sia lecito, ma di ridefinire gli equilibri tra innovazione, proprietà intellettuale e tutela della persona. Il risultato potrebbe tracciare nuove linee guida globali per la governance dell’intelligenza artificiale generativa.
Mentre il contenzioso evolve, aziende e provider IA dovranno rafforzare la propria governance su copyright, data governance e compliance cross-border. Il rischio è che strumenti legali legittimi in un contesto locale abbiano impatti globali non proporzionati sul piano della privacy e dei diritti digitali.