Il fenomeno dello Shadow AI descrive l’uso non autorizzato o non controllato di strumenti di intelligenza artificiale generativa da parte di dipendenti o reparti aziendali.
Si tratta di una derivazione diretta dello Shadow IT, ma con implicazioni più profonde: l’interazione con modelli linguistici può comportare la trasmissione di dati personali, informazioni riservate o segreti industriali a sistemi esterni non soggetti al controllo dell’organizzazione.
Lo Shadow AI rappresenta quindi un rischio emergente per la protezione dei dati, la cyber-resilienza e la governance tecnologica interna.
In un contesto normativo europeo sempre più stringente — dall’AI Act al Cyber Resilience Act — l’uso incontrollato di modelli di IA non è solo un rischio tecnico, ma una possibile violazione di obblighi giuridici e organizzativi.
- Contestualizzazione e Rilevanza
L’Unione Europea ha costruito negli ultimi anni un ecosistema normativo integrato che lega sicurezza, trasparenza e responsabilità nell’uso dell’intelligenza artificiale.
Il Regolamento (UE) 2024/1689 (AI Act) impone che lo sviluppo, la messa in servizio e l’uso dei sistemi di IA avvengano secondo criteri di risk management, accountability e tracciabilità dei processi decisionali.
Parallelamente, il GDPR (Reg. UE 2016/679) stabilisce il principio di liceità e minimizzazione del trattamento, richiedendo che ogni flusso di dati personali sia tracciabile e legittimo.
Lo Shadow AI viola entrambi i presupposti: i sistemi utilizzati senza autorizzazione sfuggono alla documentazione, rendendo impossibile garantire la base giuridica del trattamento o la valutazione d’impatto (DPIA).
Sul piano tecnico, le direttive NIS2 (UE 2022/2555) e il Cyber Resilience Act (UE 2024/2847) rafforzano l’obbligo di garantire la sicurezza dei sistemi digitali lungo tutta la catena del valore.
L’uso di un modello non valutato o di un servizio cloud esterno non conforme può quindi costituire una vulnerabilità critica in termini di resilienza informatica.
- I pericoli del fenomeno
- a) Il rischio di “invisibilità normativa”
Lo Shadow AI nasce dall’assenza di un controllo centralizzato sull’uso di strumenti di IA in azienda.
Questa “zona grigia” elude i principi di accountability previsti dal GDPR e di governance documentale previsti dall’AI Act, che richiedono la possibilità di dimostrare la conformità dei processi e la valutazione dei rischi.
Quando un dipendente utilizza un modello generativo per elaborare documenti o dati aziendali, l’organizzazione perde il controllo su dove i dati vengono trattati, come vengono conservati e con chi vengono condivisi.
- b) Impatto sulla sicurezza e sulla supply chain digitale
Sotto il profilo della cybersecurity, l’impiego di strumenti di IA non gestiti può comportare:
- Data leakage: esposizione di dati confidenziali in prompt o output.
- Data poisoning: manipolazione dei modelli tramite input malevoli.
- Loss of integrity: utilizzo di modelli non certificati o non aggiornati, in violazione dei requisiti di sicurezza by design e by default del Cyber Resilience Act.
Secondo la NIS2, le organizzazioni essenziali devono adottare misure tecniche e organizzative adeguate, incluse la gestione dei rischi, la segnalazione degli incidenti e la supervisione delle catene di fornitura. L’uso non tracciato di un sistema di IA mina ciascuno di questi obblighi.
- c) Intersezione con i framework di sicurezza informativa
La norma ISO/IEC 27001 stabilisce che ogni componente digitale debba rientrare nel perimetro del Information Security Management System (ISMS).
Lo Shadow AI crea un gap strutturale in questo perimetro, poiché introduce un asset tecnologico non inventariato né sottoposto a controllo degli accessi, audit o logging.
- Implicazioni Pratiche
Le implicazioni operative si possono articolare su tre livelli:
- Legali e di compliance:
- Violazione dei principi di privacy by design, accountability e data minimization.
- Mancata esecuzione della DPIA per sistemi di IA ad alto rischio.
- Potenziale trattamento illecito di dati personali e conseguenti sanzioni ai sensi degli articoli 83 e 84 del GDPR.
- Organizzative:
- Erosione della fiducia interna e perdita di controllo sulla catena di trattamento dati.
- Mancata conformità ai requisiti di sicurezza della NIS2 e del Cyber Resilience Act, con conseguenti esposizioni reputazionali e sanzionatorie.
- Tecniche:
- Introduzione di vulnerabilità non rilevate nel ciclo di vita IT.
- Rischio di compromissione di segreti aziendali e informazioni proprietarie.
Misure di mitigazione integrate:
- AI Policy interna: regolamentare l’uso degli strumenti di IA, indicando chiaramente i tool autorizzati e i casi d’uso ammessi.
- Inventario dei sistemi AI: mappare tutti i modelli in uso, incluse soluzioni SaaS esterne.
- DPIA e Audit periodici: valutare l’impatto privacy e sicurezza prima dell’adozione di ogni strumento.
- Controlli tecnici: autenticazione centralizzata, logging, filtri di accesso e classificazione dei dati sensibili.
- Formazione e cultura aziendale: rendere i dipendenti consapevoli dei rischi di leakage e dei limiti d’uso dei modelli generativi.
- Conclusione
Lo Shadow AI è il sintomo di un disequilibrio tra innovazione spontanea e governance istituzionalizzata.
Nel nuovo ecosistema regolatorio europeo, non è più sufficiente “vietare” o “monitorare”: occorre integrare la gestione dell’intelligenza artificiale nel sistema di controllo interno, al pari di qualsiasi altro asset critico.
La direzione strategica è chiara: dall’adozione reattiva alla gestione proattiva della tecnologia.
L’AI Act e la NIS2 convergono su un unico principio: la sicurezza e la compliance non sono vincoli, ma elementi strutturali di fiducia digitale.
Per le organizzazioni, ciò si traduce in un imperativo di governance: trasformare la gestione dell’IA in un processo documentato, sicuro e “auditabile” — unico antidoto reale allo Shadow AI.







