Un bug in Microsoft 365 Copilot ha consentito, per un periodo limitato, il bypass delle policy di Data Loss Prevention (DLP), permettendo al sistema di intelligenza artificiale integrato nella suite Microsoft 365 di riassumere e processare email etichettate come “confidenziali”.
Non si è trattato di un attacco esterno né di un data breach nel senso tradizionale del termine. Il punto critico è diverso: l’AI ha trattato contenuti che, secondo le policy aziendali e le etichette di sensibilità, non avrebbero dovuto essere oggetto di elaborazione automatizzata.
Il caso solleva un tema centrale di governance: quando l’AI è embedded nei processi aziendali, chi garantisce che rispetti effettivamente le policy di sicurezza e protezione dati già implementate?
AI Embedded e Compliance: il punto di frizione tra innovazione e obblighi regolatori
L’episodio si colloca in un momento normativo estremamente denso.
Il Regolamento (UE) 2016/679 impone al titolare del trattamento obblighi stringenti in materia di sicurezza (art. 32), accountability (art. 5.2) e protezione dei dati by design e by default (art. 25). Parallelamente, la Direttiva (UE) 2022/2555 rafforza i presidi di cybersecurity per soggetti essenziali e importanti, imponendo misure tecniche e organizzative adeguate e sistemi di gestione del rischio. A ciò si aggiunge il nuovo Regolamento (UE) 2024/1689, che introduce obblighi specifici di risk management e governance per i sistemi di IA, in particolare quelli integrati in contesti ad alto impatto.
Il punto di frizione è evidente: le architetture DLP tradizionali sono state progettate per prevenire l’esfiltrazione o la condivisione indebita di dati, non per governare il trattamento interno da parte di sistemi generativi embedded.
L’evento non è quindi solo tecnico. È un test di coerenza tra AI e compliance.
Profilo GDPR: sicurezza e accountability
Anche in assenza di accesso da parte di terzi non autorizzati, il trattamento di dati personali in violazione delle policy interne può configurare un problema di conformità.
Il GDPR impone che il trattamento sia:
- lecito, corretto e trasparente;
- limitato alle finalità;
- adeguatamente protetto mediante misure tecniche e organizzative appropriate.
Se un sistema AI elude le etichette di sensibilità e processa contenuti che l’organizzazione aveva classificato come non processabili, si pone un tema di:
- adeguatezza delle misure tecniche;
- effettiva implementazione del principio di privacy by design;
- tracciabilità e controllo del trattamento.
Il titolare resta responsabile. L’utilizzo di un vendor globale non attenua l’obbligo di accountability.
Profilo NIS2: gestione del rischio ICT
La NIS2 richiede un approccio strutturato alla gestione del rischio cyber. Questo include:
- analisi delle vulnerabilità;
- controllo della supply chain digitale;
- monitoraggio continuo.
Un bug che consente il bypass di controlli DLP rientra nella categoria di vulnerabilità sistemiche. Anche se corretto rapidamente dal fornitore, l’organizzazione deve dimostrare:
- di aver valutato il rischio;
- di aver monitorato l’incidente;
- di aver aggiornato le proprie misure di sicurezza.
Il tema qui è la maturità del framework di governance ICT.
Profilo AI Act: affidabilità e controllo
L’AI Act introduce un principio chiave: i sistemi di IA devono essere progettati e utilizzati in modo da garantire un livello elevato di protezione dei diritti fondamentali.
Tra gli elementi centrali:
- gestione del rischio;
- trasparenza;
- supervisione umana;
- robustezza e sicurezza tecnica.
Un sistema che ignora le policy di sensibilità solleva interrogativi sulla robustezza del controllo ex ante e sulla capacità dell’organizzazione di esercitare una supervisione effettiva.
L’AI embedded non è un semplice strumento. È un soggetto tecnologico che amplifica la superficie di rischio.
Riflessioni operative
Dal punto di vista della governance aziendale, il caso Copilot impone alcune riflessioni operative.
- Audit delle integrazioni AI
Non è sufficiente abilitare Copilot o strumenti analoghi. È necessario:
- mappare i flussi informativi accessibili all’AI;
- verificare l’effettivo rispetto delle sensitivity label;
- testare scenari di bypass.
La compliance deve essere verificabile, non presunta.
- Revisione dei contratti con i vendor
I contratti con fornitori di AI devono prevedere:
- obblighi di notifica tempestiva di vulnerabilità;
- SLA chiari sulle patch;
- clausole di responsabilità;
- accesso ai log per finalità di audit.
La supply chain digitale è parte integrante della governance.
- Logging e tracciabilità
Un’organizzazione audit-ready deve poter dimostrare:
- quali dati sono stati processati dall’AI;
- in quale contesto;
- con quali controlli attivi.
Senza logging avanzato, l’accountability è puramente teorica.
- DPIA e aggiornamento del risk register
Se l’AI è integrata in processi che coinvolgono dati personali, la Data Protection Impact Assessment deve essere aggiornata. Il risk register ICT deve includere:
- rischi di trattamento improprio interno;
- rischio reputazionale;
- rischio sanzionatorio.
L’assenza di data breach non equivale all’assenza di rischio.
Dalla produttività alla governance: l’AI come nuovo perimetro della responsabilità organizzativa
Il caso Copilot non dimostra che l’AI sia intrinsecamente insicura. Dimostra che l’integrazione dell’AI nei processi aziendali richiede un salto di paradigma nella governance.
Le architetture di sicurezza tradizionali non sono state progettate per sistemi generativi che:
- accedono a repository trasversali;
- sintetizzano informazioni;
- generano output autonomi.
La vera questione non è il bug in sé. È la capacità dell’organizzazione di dimostrare controllo.
In un contesto regolatorio sempre più stratificato – GDPR, NIS2, AI Act – la compliance non è un adempimento formale. È un framework dinamico di gestione del rischio tecnologico.
L’adozione dell’AI deve essere accompagnata da un modello di governance integrato, documentato e verificabile.
Non è più sufficiente chiedersi se l’AI migliori la produttività.
Occorre chiedersi se l’organizzazione è strutturalmente pronta a governarla.







