La Svizzera ha annunciato il rilascio imminente di un modello linguistico di grandi dimensioni (LLM) completamente open source e sviluppato su infrastrutture pubbliche. L’iniziativa, promossa dalla sinergia del Politecnico di Zurigo (ETH), il Politecnico di Losanna (EPFL) e il Centro Svizzero di Supercalcolo (CSCS), rappresenta un punto di svolta non solo tecnologico, ma anche politico e culturale.
Trasparenza come principio fondante
L’obiettivo del progetto è la diffusione di un’intelligenza artificiale trasparente, sostenibile e accessibile, con la possibilità di essere adottata, adattata e potenziata da enti pubblici, università, startup e imprese. Il modello, infatti, sarà interamente open source, distribuito sotto licenza Apache 2.0.
L’architettura del progetto è pensata per:
- essere personalizzata su scala nazionale o settoriale;
- integrare moduli specifici (es. legali, medici, amministrativi);
- favorire il riuso e il fine-tuning da parte di enti pubblici, imprese, università e startup.
A garanzia di ciò, saranno resi disponibili il codice sorgente, i pesi e i dati di addestramento saranno trasparenti e producibili.
Una scelta che non solo promuove l’innovazione, ma facilita la conformità normativa, in particolare nel rispetto al nuovo AI Act europeo.
Conformità integrata: privacy, copyright e AI Act
Concepito fin dall’inizio per garantire una piena conformità con le normative europee e svizzere: L’LLM è stato sviluppato nel rispetto delle leggi svizzere sulla protezione dei dati previsti, del diritto d’autore e degli obblighi di trasparenza previsti dall’AI Act dell’UE.
L’addestramento del modello si basa su un approccio metodico alla raccolta dei dati che assicura conformità e affidabilità, con l’esclusione di contenuti protetti da copyright, rafforzando così la legittimità di un approccio “etico by design”.
Multilinguismo e inclusione.
Rispetto ai modelli già presenti sul mercato, incentrati sulla lingua inglese, L’LLM elvetico presenta una nota caratterizzante basata sul multilinguismo, con una padronanza di più di 1500 lingue, compresi idiomi comunitari
Non si tratta solo di una scelta tecnica, ma di un elemento di inclusione culturale e accesso equo alla tecnologia: aprendo la strada anche agli scenari più remoti dove l’accesso alle tecnologie di frontiera è ancora limitato.
Come avviene l’addestramento?
Il modello sarà rilasciato in due versioni:
- da 8 miliardi di parametri (uso standard e sperimentazione)
- da 70 miliardi di parametri, tra i più potenti modelli open al mondo
Il training è stato eseguito sul supercumputer “Alps” del Centro Svizzero di Supercalcolo, una delle piattaforme AI più potenti al mondo, su oltre 15.000 miliardi di token di qualità (unità che rappresentano una parola o una parte di essa), consentendo un’eccellente comprensione linguistica e vari usi del modello.
Si tratta di un progetto perseguito nel corso di 15 anni, frutto di una collaborazione pubblico-privata con NVIDIA e HPE/Cray, garantendo così l’alta prestazione e il pre-training di LLM complessi.
Inoltre “Alps” è alimentato al 100% da energia rinnovabile e dotato di oltre 10.000 NVIDIA Grace Hopper Superchips, rendendo così L’ LLM svizzero un modello alternativo e sostenibile di sviluppo dell’intelligenza artificiale.
Conclusioni: un nuovo modello di riferimento per l’IA in Europa
La pubblicazione sarà accompagnata da una documentazione completa che illustrerà nel dettaglio l’architettura del modello, i metodi di formazione e le raccomandazioni d’uso per consentire un riutilizzo trasparente e uno sviluppo continuo.
In un contesto dominato da tecnologie opache, sviluppate in contesti geopolitici centralizzati, questa iniziativa fornisce una prova concreta che un’altra IA è possibile.
Per le aziende, le istituzioni pubbliche e i professionisti del settore legale e tecnologico, si tratta di una piattaforma strategica su cui costruire soluzioni affidabili, perfettamente allineate con i futuri obblighi normativi europei.