A partire dal 10 ottobre 2025 entrerà in vigore la Legge 132/2025, che introduce nel codice penale italiano il reato di “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale” (art. 612-quater c.p.). Questa normativa nasce per rispondere alla crescente diffusione di contenuti falsificati con tecnologie di AI, come immagini, video e audio manipolati in modo estremamente realistico, i cosiddetti deepfake.
Il nuovo reato: cosa prevede la legge
Secondo l’articolo 612-quater c.p., chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o diffondendo senza consenso immagini, video o voci falsificati o alterati tramite sistemi di intelligenza artificiale e idonei a ingannare sulla loro genuinità, rischia la reclusione da uno a cinque anni. Il reato è procedibile a querela della persona offesa, salvo casi in cui si procede d’ufficio, come nel caso di vittime minorenni, incapaci o pubbliche autorità.
Questa normativa mira a tutelare la dignità, la privacy e i diritti fondamentali delle persone, proteggendole dall’uso illecito e dannoso dei deepfake.
Il deepfake non è sempre reato: il caso del consenso e altre eccezioni
Non tutti i deepfake sono penalmente rilevanti. Fondamentale è la presenza del consenso esplicito della persona ritratta. Ad esempio, l’uso di deepfake in contesti di intrattenimento, come i “cameo” — video o immagini create con il permesso dell’interessato per scopi satirici, pubblicitari o ludici — non configura reato.
Anche l’utilizzo di deepfake per scopi artistici, culturali o didattici, purché il contenuto sia chiaramente artificiale e non finalizzato a ingannare o a danneggiare, è generalmente legittimo. Un esempio sono i documentari storici che utilizzano la tecnologia per ricostruire volti e voci di personaggi del passato.
Infine, i deepfake usati in ambito strettamente privato, senza diffusione pubblica e senza arrecare danno a terzi, difficilmente si configurano come reato, a meno che non violino diritti specifici come la reputazione o la dignità.
Il caso “deep nude”: il Garante Privacy blocca Clothoff
Un esempio concreto dei rischi connessi ai deepfake è rappresentato dall’app Clothoff, verso cui a il Garante Privacy italiano ha recentemente imposto il blocco immediato. Questa app con sede alle Isole Vergini Britanniche, consentiva di generare immagini e video falsi di persone spogliate artificialmente grazie all’AI, senza alcun controllo sul consenso degli interessati e accessibile anche ai minorenni.
Il provvedimento urgente del Garante ha imposto il blocco immediato del trattamento dei dati degli utenti italiani di questa applicazione, sottolineando i gravi rischi per la dignità, la privacy e i diritti fondamentali, in particolare dei soggetti vulnerabili come i minorenni.
Il Garante ha avviato un’indagine più ampia su tutte le app che offrono servizi di “nudificazione” con intelligenza artificiale, sottolineando l’importanza di garantire adeguati controlli e limiti in ambito digitale.
Una normativa in evoluzione per stare al passo con la tecnologia
La legge 132/2025 rappresenta il primo passo del legislatore italiano per disciplinare le implicazioni penali dell’uso dell’intelligenza artificiale. Nonostante alcune criticità, come la necessità di chiarire meglio l’ambito di applicazione del dolo specifico e il ruolo del consenso, la normativa introduce anche una circostanza aggravante per l’uso di sistemi di IA come mezzi insidiosi per facilitare o aggravare reati.
Inoltre, il legislatore ha previsto deleghe al Governo per aggiornare e integrare la disciplina, con l’obiettivo di garantire una regolamentazione più completa e flessibile, in grado di adattarsi al rapido progresso tecnologico.