
La Federazione Italiana Editori Giornali (FIEG) ha recentemente presentato un reclamo formale ad Agcom contro il nuovo servizio AI Overviews di Google, chiedendo l’apertura di un’istruttoria e, in prospettiva, l’intervento della Commissione europea. La questione, tutt’altro che marginale, investe in pieno le nuove norme sui mercati digitali e interroga l’effettiva capacità del Digital Services Act (DSA) di garantire trasparenza, pluralismo e sostenibilità in un ecosistema informativo profondamente trasformato dall’intelligenza artificiale.
Il nodo centrale è questo: chi controlla la visibilità dei contenuti informativi nell’era dell’AI generativa? E, soprattutto, le piattaforme digitali possono continuare a sottrarsi alle responsabilità editoriali, pur esercitando di fatto un potere informativo sempre più pervasivo?
L’accusa: “Google è un traffic killer”
AI Overviews è una funzionalità di Google Search che, sfruttando l’intelligenza artificiale generativa (in particolare il modello Gemini), produce risposte sintetiche automatiche direttamente nei risultati della ricerca. Queste risposte – collocate nella parte alta della SERP – offrono una sintesi del tema cercato, riducendo significativamente la necessità per l’utente di cliccare sui link verso le fonti originali.
Secondo i dati allegati al reclamo, quando un Overview compare:
- la quota di clic verso i siti esterni può scendere anche sotto l’8% (dati Pew Research);
- le zero-click searches sono aumentate dal 56% al 69% in un anno (Similarweb);
- il CTR organico può crollare fino al 34% (Ahrefs).
La FIEG definisce questo meccanismo come una “forma di disintermediazione sistemica” che danneggia la sostenibilità economica del giornalismo, innescando una perdita diretta di visibilità, traffico e ricavi pubblicitari. Ma oltre al danno economico, la denuncia sottolinea una preoccupazione sistemica: il rischio che l’AI si sostituisca all’editoria professionale, erodendo la pluralità informativa e la trasparenza delle fonti.
I profili giuridici: trasparenza, non discriminazione e gestione del rischio
Sotto il profilo giuridico, il reclamo si fonda su possibili violazioni del Digital Services Act, che impone alle Very Large Online Platforms (VLOP), come Google, obblighi specifici:
- Obblighi di trasparenza algoritmica (Art. 27 DSA):
Le piattaforme devono rendere noti i criteri di ranking, selezione e presentazione dei contenuti. Nel caso di AI Overviews, la FIEG denuncia un deficit informativo circa il funzionamento del sistema di generazione delle risposte e la scelta delle fonti. - Divieto di discriminazione dei fornitori di contenuti (Art. 38):
La funzione “AI Mode” sposta i link originali in una colonna laterale, privilegiando il contenuto generato automaticamente. Ciò comporterebbe un trattamento non equo dei contenuti editoriali, che, peraltro, non possono essere esclusi dal sistema AI senza sacrificare l’indicizzazione tradizionale. - Valutazione e mitigazione del rischio sistemico (Art. 34):
Google è tenuta a valutare i rischi per la società e per i diritti fondamentali derivanti dai propri sistemi algoritmici. Il reclamo FIEG sottolinea l’assenza di misure efficaci per mitigare il rischio di perdita del pluralismo o di diffusione di disinformazione.
Infine, sotto il profilo antitrust, è stata segnalata una possibile pratica di auto-preferenziazione (self-preferencing), vietata dal Digital Markets Act per i gatekeeper digitali. Questo profilo è già oggetto di una denuncia parallela presso la Commissione europea da parte di un consorzio di editori indipendenti.
Il ruolo dell’Agcom e della Commissione UE
Agcom, in qualità di Coordinatore nazionale per i Servizi digitali, ha il potere di valutare l’ammissibilità del reclamo, avviare un’istruttoria preliminare e trasmettere la segnalazione al Digital Services Coordinator del Paese in cui il prestatore ha sede (in questo caso, l’Irlanda). Tuttavia, l’Agcom può continuare a partecipare al procedimento in qualità di autorità interessata, fornendo contributi, evidenze e pareri motivati.
In casi di rilevanza europea, come questo, Agcom può anche attivare il meccanismo di cooperazione previsto dal DSA, chiedendo direttamente alla Commissione europea l’apertura di un procedimento formale. In tal caso, le sanzioni previste possono raggiungere il 6% del fatturato globale annuo del soggetto responsabile.
È anche possibile – in presenza di un rischio imminente e grave – che l’Autorità adotti misure provvisorie d’urgenza, come una richiesta di sospensione delle funzionalità incriminate. Tuttavia, come segnalato anche da alcuni esperti, questa ipotesi appare al momento residuale, data la complessità e la novità della materia.
Le difese di Google
Google, dal canto suo, rigetta le accuse. L’azienda afferma che:
- AI Overviews aumenta l’utilizzo complessivo della ricerca;
- la piattaforma non copia testualmente i contenuti, ma produce sintesi originali;
- i contenuti editoriali continuano a ricevere miliardi di clic ogni giorno;
- i dati citati dai media sarebbero parziali, privi di controllo metodologico e non indicativi di un nesso causale diretto.
Inoltre, Google sostiene che le nuove funzionalità favoriscano l’approfondimento, offrendo all’utente più strumenti per esplorare contenuti in modo tematico, senza limitarsi ai soli link.
Un precedente critico per la governance dell’AI
Al di là delle singole posizioni, il caso FIEG-Google rappresenta un precedente importante per testare l’efficacia del DSA e per avviare una riflessione più ampia sulla governance delle AI integrate nei motori di ricerca.
Come ricordato da diversi studiosi, ci troviamo ormai oltre la semplice indicizzazione algoritmica: l’AI generativa non si limita a mostrare i contenuti, ma li rielabora, li filtra e li reinterpreta, generando una nuova forma di mediazione cognitiva, su cui manca ancora una regolamentazione organica.
Il rischio sistemico – concetto chiave del DSA – si manifesta qui in modo paradigmatico: il potere informativo si concentra nella piattaforma, la trasparenza delle fonti si indebolisce, e la stessa idea di pluralismo informativo rischia di essere erosa da un sistema in cui la fonte è invisibile e la sintesi è opaca.
Conclusione: visibilità, potere e responsabilità
Nel passaggio dal web aperto al web sintetico, chi decide cosa viene mostrato? Chi può accedere all’attenzione dell’utente? E chi tutela chi produce informazione di qualità, in un mercato in cui il valore si concentra sempre più nell’intermediazione algoritmica?
Il DSA ha il merito di porre queste domande.
Ora spetta alle autorità competenti dare concretezza ai suoi principi, garantendo che l’intelligenza artificiale non diventi un filtro informativo irresponsabile, ma uno strumento regolato, trasparente e compatibile con i valori fondamentali della nostra democrazia informativa.







