L’AI Act rappresenta un tassello fondamentale nella regolamentazione europea dell’intelligenza artificiale, con l’obiettivo di definire standard chiari e vincolanti per lo sviluppo e l’impiego responsabile delle tecnologie AI. La normativa, entrata formalmente in vigore il 1° agosto 2024, è destinata a incidere profondamente sui modelli di governance e compliance delle imprese che operano nel settore.
Tuttavia, a fronte di ritardi significativi nella definizione di strumenti tecnici essenziali e in un contesto di crescente pressione da parte degli stakeholder industriali e tecnologici, si sta concretizzando l’ipotesi di un rinvio dell’effettiva applicazione delle disposizioni normative.
Il calendario normativo: una roadmap impegnativa
Il quadro temporale originariamente delineato prevede un’entrata in vigore progressiva delle disposizioni:
- Dal 2 febbraio 2025, attuazione delle disposizioni relative ai divieti e ai requisiti di governance;
- Dal 2 agosto 2025, applicazione degli obblighi per i modelli generativi di AI (GPAI);
- Tra il 2 agosto 2026 e il 2 agosto 2027, estensione degli obblighi ai sistemi ad alto rischio, come definiti nell’Allegato III del regolamento.
Questa tabella di marcia, seppur ambiziosa, si fonda sull’imminente pubblicazione di linee guida tecniche e codici di condotta, ancora in fase di elaborazione da parte degli organismi di standardizzazione CEN-CENELEC e degli organi competenti della Commissione Europea.
Il contesto: tra attuazione graduale e sfide geopolitiche
Il contesto attuale è tutt’altro che semplice:
- A livello internazionale, l’Europa si muove in un panorama frammentato: mentre gli Stati Uniti puntano su un approccio più flessibile e orientato al mercato, la Cina rafforza il controllo statale e la regolazione algoritmica.
- Sul piano industriale, le aziende europee devono confrontarsi con pressioni competitive forti e con modelli di intelligenza artificiale prodotti all’estero, spesso già disponibili sul mercato.
- A livello tecnico, la mancanza (al momento) degli standard armonizzati crea incertezza su come dimostrare la conformità ai requisiti richiesti dall’AI Act.
Questo crea una situazione delicata, soprattutto per le imprese che stanno già investendo nell’implementazione di sistemi AI e nella preparazione agli obblighi del Regolamento.
Le ragioni del possibile rinvio
Il ritardo nella pubblicazione e adozione di tali strumenti tecnici, imprescindibili per garantire certezza e uniformità interpretativa, ha sollevato preoccupazioni tra le principali realtà industriali e tecnologiche. Grandi aziende del settore hanno sollecitato un differimento temporaneo dell’entrata in vigore dell’AI Act, evidenziando come l’assenza di un quadro operativo definito possa compromettere la competitività europea e ostacolare l’innovazione.
Parallelamente, la stessa Commissione Europea, tramite la vicepresidente digitale Henna Virkkunen, ha manifestato apertura alla possibilità di un “stop the clock”, ovvero di una sospensione temporanea dell’applicazione delle norme in attesa del completamento degli standard tecnici e delle linee guida.
La decisione definitiva su questa ipotesi è attesa nella prima metà di luglio 2025, quando Parlamento, Consiglio e Commissione europea dovranno raggiungere un accordo politico e giuridico in merito. In assenza di tale intesa, le scadenze previste rimarranno comunque operative.
Implicazioni per le imprese e raccomandazioni operative
Pur nella prospettiva di un potenziale rinvio, è imprescindibile che le imprese proseguano con determinazione nella fase preparatoria per la compliance. La normativa richiede un approccio sistematico che preveda:
- Mappatura dettagliata dei sistemi AI in uso;
- Valutazione accurata dei rischi associati;
- Redazione di documentazione tecnica conforme agli standard previsti;
- Implementazione di procedure di governance interna e formazione del personale dedicato.
Un eventuale differimento non deve essere interpretato come un’autorizzazione alla procrastinazione, bensì come un’opportunità per consolidare e perfezionare le strategie di adeguamento.
Conclusioni
Il quadro regolatorio sull’intelligenza artificiale in Europa è destinato a evolvere rapidamente e con grande impatto sui modelli di business e compliance. L’AI Act, pur in via di un possibile posticipo, rappresenta una sfida e al contempo un’opportunità per le imprese di elevare i propri standard in termini di sicurezza, trasparenza e responsabilità.