Dopo oltre 5 anni di chiusura, OpenAI ha scelto di fare un passo significativo verso l’apertura. Lo scorso 5 agosto, l’azienda guidata da Sam Altman ha annunciato il rilascio dei suoi primi modelli linguistici open-weight: gpt-oss-120b e gpt-oss-20b. Una mossa che segna un’inversione di rotta rispetto al modello proprietario e centralizzato seguito con GPT-3 e GPT-4, accessibili solo via cloud e API.
La notizia ha avuto grande risonanza non solo nel mondo tech, ma anche in quello legale e aziendale, perché apre la strada a un’adozione più libera dell’intelligenza artificiale, con ricadute pratiche, normative e strategiche che meritano un’analisi attenta.
Dal cloud al controllo locale: cosa cambia
Con questo rilascio, OpenAI mette a disposizione due modelli linguistici di grandi dimensioni – 120 e 20 miliardi di parametri – che possono essere scaricati ed eseguiti localmente. Significa che sviluppatori, imprese, centri di ricerca o startup potranno utilizzare l’intelligenza artificiale senza passare per le infrastrutture cloud di OpenAI.
Ciò però non va a discapito delle prestazioni: Il modello gpt-oss-120b raggiunge prestazioni quasi equivalenti a OpenAI o4-mini nei principali benchmark di ragionamento, garantendo un’esecuzione efficiente su una singola GPU da 80. Il loro addestramento si basa su un mix di apprendimento per rinforzo e tecniche informate dai modelli interni più avanzati di OpenAI, tra cui o3.
Non è un ritorno completo all’open source nel senso classico del termine: i modelli sono “open-weight”, ovvero con pesi accessibili ma con licenze d’uso specifiche. Il rilascio sotto la licenza permissiva Apache 2.0 ne consente l’ampio utilizzo commerciale, la modifica e la ridistribuzione. La portata della decisione è comunque significativa. Si tratta di un gesto che va nella direzione di una maggiore trasparenza, autonomia e controllo da parte degli utenti, in un contesto sempre più attento alla governance e alla sovranità tecnologica.
Un’apertura che sa di strategia
Per capire il peso di questa scelta, basta ricordare che OpenAI aveva interrotto la pubblicazione dei modelli open dopo GPT-2, nel 2019, citando rischi di abuso e necessità di controllo. Ora, con gpt-oss, l’azienda sembra voler rispondere a più spinte contemporaneamente: la pressione della comunità open source, l’ascesa di concorrenti più “aperti” (come Meta, DeepSeek, Alibaba), e una crescente richiesta di trasparenza anche da parte dei legislatori.
Il contesto geopolitico non è secondario. L’AI è oggi terreno di confronto tra modelli politici ed economici diversi. E che le scelte tecniche hanno, inevitabilmente, anche implicazioni culturali, industriali e regolatorie.
Opportunità concrete per aziende e sviluppatori
Sul piano pratico, i vantaggi sono evidenti. Avere un modello potente che può girare localmente consente di sviluppare:
- soluzioni AI on-premise, ideali per settori sensibili o regolati (sanità, legale, finance);
- applicazioni che rispettano il principio della privacy-by-design, trattando i dati direttamente sul dispositivo;
- strumenti capaci di funzionare anche offline, ad esempio in ambienti ad alta sicurezza o a connettività limitata;
- sistemi completamente personalizzabili, tramite tecniche di fine-tuning, per rispondere a esigenze molto specifiche.
Questi scenari, finora possibili solo con tool open source di terze parti o con forti compromessi prestazionali, diventano ora accessibili anche con modelli del calibro di quelli sviluppati da OpenAI.
Ma cosa comporta tutto questo dal punto di vista legale?
La maggiore libertà tecnica porta con sé nuove responsabilità giuridiche. L’esecuzione e la modifica di modelli AI su sistemi locali richiede attenzione su più livelli: responsabilità degli output, gestione dei dati personali, conformità alle licenze, sicurezza operativa.
Controllo significa responsabilità
Se con i modelli in cloud l’onere della sicurezza e della qualità è in parte delegato al fornitore (OpenAI, in questo caso), l’esecuzione locale ribalta la prospettiva. Chi scarica e utilizza un modello gpt-oss diventa il principale responsabile degli usi, degli abusi e delle conseguenze dei suoi output.
Questo implica la necessità di:
- implementare meccanismi di monitoraggio e auditing degli output generati;
- stabilire chi controlla e verifica i prompt, soprattutto in ambito aziendale;
- gestire il rischio di “allucinazioni” o risposte scorrette in contesti professionali o regolati.
Nel quadro del nuovo AI Act europeo, i modelli general purpose ad alto impatto – anche se open-weight – potrebbero comunque essere soggetti a obblighi di trasparenza, documentazione tecnica e governance.
Dati personali e trattamento locale: più sicuro, ma non esente da rischi
Il fatto che un modello venga eseguito in locale non esclude affatto gli obblighi imposti dal GDPR. Anzi, in certi casi, li amplifica.
Qualsiasi trattamento di dati personali, anche tramite AI offline, richiede:
- una valutazione di impatto (DPIA) se c’è un rischio elevato per i diritti degli interessati;
- misure tecniche e organizzative adeguate (inclusa la pseudonimizzazione o l’anonimizzazione);
- una base giuridica chiara per il trattamento, soprattutto se l’AI analizza documenti, email, conversazioni o altri contenuti personali.
L’autonomia tecnica non esonera dalla responsabilità normativa.
Attenzione alle licenze: non tutto è concesso
OpenAI ha scelto di rilasciare i modelli gpt-oss con licenze proprie, diverse da quelle OSI o Creative Commons. Questo significa che, prima di integrarli in un prodotto o servizio, è necessario:
- leggere attentamente le clausole sulle limitazioni d’uso (es. restrizioni per armi, frodi, disinformazione);
- verificare i diritti di riutilizzo e redistribuzione;
- valutare le condizioni relative alla modifica e al fine-tuning del modello.
La mancata compliance con le licenze può comportare rischi legali concreti, anche in termini di responsabilità contrattuale o di violazione della proprietà intellettuale.
Verso un’AI più accessibile, ma anche più complessa da gestire
L’apertura dei modelli gpt-oss rappresenta una nuova fase nel rapporto tra imprese, AI e diritto. Più potere decisionale (e operativo) agli utenti significa anche più attenzione ai temi di compliance, sicurezza e responsabilità.
In questo scenario, le organizzazioni devono dotarsi di strumenti adeguati: policy interne sull’uso dell’AI, procedure di valutazione del rischio, audit regolari, formazione per i team legali e tecnici.
In conclusione
Il rilascio dei modelli open-weight da parte di OpenAI è una notizia positiva per l’ecosistema dell’intelligenza artificiale: una maggiore apertura, flessibilità e spazio per l’innovazione, a cui però corrisponde un’esigenza a trattare l’AI con consapevolezza legale e strategica.
I modelli verranno condivisi su Hugging Face e su altre piattaforme, con il report tecnico, il documento sulla sicurezza, la scheda di sistema e le guide per gli sviluppatori per effettuare il fine-tuning in modo responsabile.