Il 9 marzo 2026 Microsoft ha annunciato Copilot Cowork: uno strumento integrato in Microsoft 365 che consente di delegare all’AI l’esecuzione di task complessi — organizzare il calendario, preparare materiali per riunioni, condurre ricerche, costruire piani commerciali. Un agente che agisce: accetta meeting, modifica file, invia comunicazioni. Queste azioni producono effetti giuridicamente rilevanti. Il blog post ufficiale, comprensibilmente, non si sofferma su chi risponde quando qualcosa va storto.
Sul piano contrattuale, l’utente che delega un task risponde delle sue conseguenze verso i terzi, esattamente come risponderebbe se avesse agito direttamente. L’AI non è un soggetto giuridico: chi autorizza l’azione ne è responsabile.
Sul piano regolatorio, l’AI Act — pienamente applicabile da agosto 2026 — introduce la figura del deployer: l’organizzazione che adotta il sistema AI in un contesto specifico. In ambito enterprise, il deployer non è Microsoft, ma l’impresa che usa Cowork. Con obblighi propri di valutazione del rischio, supervisione umana e documentazione della conformità.
Cowork accede a email, file, riunioni e messaggi per eseguire i task assegnati. Microsoft garantisce che il sistema opera all’interno dei perimetri di sicurezza di Microsoft 365. Ma questo non chiude le questioni di data protection.
Quando l’AI elabora le email di un utente per preparare un briefing su un cliente, sta trattando dati personali di terzi. Qual è la base giuridica? Se tra quei dati figurano informazioni sensibili, si applica l’art. 9 GDPR. E se le azioni prodotte dal sistema hanno effetti significativi su persone fisiche, entra in gioco l’art. 22 sul divieto di decisioni basate esclusivamente su trattamento automatizzato.
Il meccanismo di approvazione umana dichiarato da Microsoft è rilevante, ma deve essere sostanziale — non solo formale — per escludere il carattere pienamente automatizzato del trattamento.
Microsoft dichiara di aver integrato la tecnologia di Anthropic (Claude) in Cowork, scegliendo il modello più adatto al compito tra provider diversi. In una supply chain AI con più fornitori, la responsabilità tende a concentrarsi sul deployer finale — qui Microsoft — salvo rivalsa contrattuale verso i provider dei modelli sottostanti. È un profilo che il quadro regolatorio europeo non ha ancora risolto in modo granulare, ma i termini del problema sono già definiti.
Cosa bisognerà fare prima del deploy di tale soluzione:
- Condurre una DPIA sull’uso di Cowork, con focus sull’elaborazione automatizzata di dati personali in email e file.
- Verificare i Data Processing Agreement con Microsoft e accertarsi che l’elaborazione da parte di modelli di provider terzi sia contrattualmente regolata.
- Definire policy interne su quali categorie di dati possono essere trattate da sistemi automatizzati e quali restano fuori perimetro.
- Garantire che i checkpoint di approvazione umana siano effettivi e tracciabili, non solo formali.
Cowork è uno strumento potente. Ma nell’ecosistema regolatorio europeo, adottarlo significa assumere il ruolo di deployer — con responsabilità che non si esauriscono nell’accettare i termini di servizio di Microsoft.







