Il 23 marzo 2026 Anthropic ha annunciato una delle funzionalità più ambiziose mai rilasciate per Claude: la possibilità di controllare il computer dell’utente in modo autonomo, eseguendo compiti in sua assenza. Disponibile in research preview per i sottoscrittori dei piani Claude Pro e Max, la funzione si integra con Dispatch, lo strumento mobile lanciato la settimana precedente che consente di assegnare compiti a Claude direttamente dallo smartphone. Il risultato è un sistema in cui l’utente parte, lascia un’istruzione, e trova il lavoro fatto al ritorno.
Come funziona
Quando Claude riceve un compito da eseguire, verifica innanzitutto se dispone dei connettori necessari per completarlo — ad esempio Google Calendar o Slack. Se non li ha, passa al controllo diretto del computer, navigando lo schermo come farebbe un essere umano. Può aprire applicazioni, navigare il browser, compilare fogli di calcolo e gestire file complessi, il tutto senza alcuna configurazione preliminare da parte dell’utente.
Il caso dimostrativo scelto da Anthropic è eloquente: un utente in ritardo per una riunione chiede a Claude di esportare un pitch deck in PDF e allegarlo all’invito del calendario. Claude esegue il compito autonomamente, senza che l’utente tocchi il computer. Non è fantascienza: è una research preview disponibile oggi, anche se per ora limitata ai computer Mac, con Windows e Linux non ancora supportati.
Il contesto competitivo: la corsa agli agenti AI
L’annuncio arriva in un momento in cui la competizione nel settore degli agenti AI si è intensificata dopo la rapida ascesa di OpenClaw, che ha attirato l’attenzione del settore per funzionalità simili. OpenClaw consente agli utenti di inviare istruzioni tramite WhatsApp o Telegram per eseguire compiti sul computer locale. Il CEO di Nvidia Jensen Huang lo ha definito la prossima grande evoluzione dopo ChatGPT, mentre OpenAI ha assunto il suo creatore, Peter Steinberger, per accelerare il lavoro sugli agenti personali.
La versione di Anthropic è più controllata rispetto a OpenClaw: adotta un approccio permission-first, richiedendo l’autorizzazione dell’utente prima di accedere a una nuova applicazione, e per ora è disponibile solo su Mac. La scelta di un approccio più cauto è coerente con il posizionamento di Anthropic come azienda orientata alla sicurezza dell’AI — ma in un mercato in cui la velocità di adozione conta, la prudenza ha anche un costo competitivo.
I profili di rischio
Anthropic non nasconde i limiti della funzione. “Il computer use è ancora in una fase iniziale rispetto alla capacità di Claude di programmare o interagire con il testo”, ha dichiarato la società. “Claude può commettere errori, e mentre continuiamo a migliorare le nostre misure di sicurezza, le minacce continuano a evolversi.”
Dal punto di vista della sicurezza informatica e della protezione dei dati, le implicazioni sono rilevanti. Un agente AI che controlla il computer ha accesso potenzialmente illimitato a file, applicazioni e dati personali. Anthropic ha implementato misure per bloccare azioni non autorizzate come l’accesso a siti bancari o l’inserimento di credenziali sensibili, e raccomanda di monitorare l’attività del dispositivo per rilevare accessi non autorizzati. Resta però aperta la questione di come questi sistemi si collochino rispetto al GDPR: un agente AI che processa documenti, naviga applicazioni e interagisce con servizi di terze parti sul computer di un dipendente è, a tutti gli effetti, uno strumento di trattamento di dati personali. Chi è il titolare del trattamento? Quali dati vengono trasmessi ai server di Anthropic durante l’esecuzione dei compiti? Le risposte non sono ancora nella documentazione pubblica.
Conclusioni
Il “computer use” di Claude segna un passaggio qualitativo nel panorama degli assistenti AI: da strumenti che rispondono a strumenti che agiscono. Anche altre aziende stanno percorrendo questa strada, come dimostra la spinta di Microsoft su Copilot, ma Anthropic è tra le prime a portare questa capacità in un prodotto consumer con un approccio strutturato alla sicurezza. Per gli utenti, la promessa è concreta: delegare a Claude compiti ripetitivi e recuperare tempo. Per le aziende e i professionisti che trattano dati sensibili, la domanda da porsi prima di abilitare la funzione è altrettanto concreta: siamo sicuri di sapere cosa vede Claude mentre lavora per noi?







