AGCOM ha annunciato l’intenzione di segnalare alla Commissione europea l’integrazione di sistemi di intelligenza artificiale generativa nel motore di ricerca di Google, con particolare riferimento all’utilizzo e alla rielaborazione dei contenuti giornalistici.
La questione non si esaurisce nel possibile impatto sul traffico verso i siti editoriali. Essa investe un profilo più profondo: la trasformazione della funzione stessa del motore di ricerca.
Se il modello tradizionale operava come infrastruttura di indicizzazione, mettendo in relazione utenti e fonti, la search generativa assume una funzione ulteriore di sintesi e mediazione attiva del contenuto. Il sistema non si limita più a ordinare informazioni prodotte da terzi, ma le seleziona, le riorganizza e le restituisce in forma unitaria.
In questo passaggio si concentra il nodo regolatorio: quando l’intermediazione tecnica si trasforma in rielaborazione sostanziale dell’informazione, il tema non è solo competitivo o economico, ma attiene direttamente all’equilibrio tra innovazione tecnologica, pluralismo informativo e tutela del discorso pubblico.
- Pluralismo sotto pressione: il quadro normativo europeo
Il pluralismo informativo non è un concetto astratto. È un principio che, nell’ecosistema digitale, si traduce nella possibilità effettiva di accedere a fonti diverse e confrontarle.
L’integrazione dell’AI nella ricerca interseca direttamente tre pilastri regolatori europei:
- Digital Services Act, che impone alle grandi piattaforme la gestione e mitigazione dei rischi sistemici, inclusi quelli che incidono sul pluralismo e sul discorso pubblico;
- Digital Markets Act, che disciplina i gatekeeper digitali e le pratiche idonee a rafforzare posizioni dominanti;
- AI Act, che introduce obblighi di trasparenza e accountability per i sistemi di intelligenza artificiale.
La segnalazione di AGCOM si colloca esattamente in questo perimetro: valutare se la modalità di search generativa produca effetti sistemici tali da alterare l’equilibrio informativo.
- L’AI come filtro epistemico: selezione, sintesi e potere narrativo
Un sistema generativo integrato nella ricerca compie tre operazioni decisive: seleziona le fonti, estrae le informazioni ritenute rilevanti e le riformula in forma sintetica.
Ognuna di queste fasi implica scelte algoritmiche.
Nel modello tradizionale, il ranking era già una forma di filtro, ma l’utente vedeva una pluralità di link. Con la sintesi AI, la pluralità rischia di diventare meno visibile: l’utente riceve una risposta unica, anche se costruita su più fonti.
Il rischio non è solo tecnico, ma epistemico: chi controlla la sintesi controlla la gerarchia delle informazioni.
Nel quadro del Digital Services Act, le Very Large Online Platforms devono valutare i rischi sistemici connessi al funzionamento dei loro sistemi. Se la search generativa incide sul pluralismo, la valutazione del rischio non può essere formale, ma sostanziale.
- Gatekeeper 2.0: concentrazione informativa e dipendenza degli editori
Il Digital Markets Act nasce per prevenire situazioni in cui un operatore controlla un accesso essenziale al mercato digitale.
Un motore di ricerca dominante che integra AI generativa può accentuare questa posizione, internalizzando l’esperienza informativa. Il contenuto resta prodotto dagli editori, ma la fruizione avviene sempre più all’interno della piattaforma.
Il rischio è duplice:
- concentrazione del potere di intermediazione;
- aumento della dipendenza strutturale degli editori.
Se il traffico organico diminuisce perché l’utente ottiene già una sintesi esaustiva nei risultati di ricerca, l’ecosistema dell’informazione può indebolirsi economicamente. E un ecosistema fragile è meno pluralista.
- Accountability algoritmica e governance dell’AI
L’AI Act introduce un principio chiave: accountability. I fornitori di sistemi AI devono essere in grado di dimostrare di aver identificato e mitigato i rischi per i diritti fondamentali.
La search generativa incide su diritti quali la libertà di informazione e di espressione. Anche se non classificata automaticamente come “alto rischio”, la sua dimensione sistemica impone una governance robusta che si basa su trasparenza sui criteri di selezione delle fonti, auditabilità dei sistemi, valutazioni di impatto credibili.
La questione sollevata da AGCOM non è una contrapposizione tra innovazione e regolazione, ma è una domanda di equilibrio sul come garantire che l’evoluzione tecnologica non si traduca in una concentrazione eccessiva del potere informativo.
Il pluralismo non è assicurato dalla mera esistenza di molte fonti online. È garantito dalla possibilità concreta di accedervi e confrontarle.
Se la sintesi algoritmica sostituisce il confronto diretto, il rischio è una concentrazione epistemica che l’ordinamento europeo non può ignorare.
La sfida, oggi, è governare l’AI non solo come tecnologia efficiente, ma come infrastruttura del discorso pubblico.







