Introduzione
L’intelligenza artificiale (IA) è entrata nel vocabolario delle professioni intellettuali: promesse di efficienza, automazione, “supporto intelligente” sono ormai tangibili. Tuttavia, un uso superficiale o sprovveduto può tradursi in errori, disinformazione, perdita di fiducia.
Proprio a questo proposito, la Legge 132/2025, con il suo art. 13, introduce regole precise per regolare l’uso dell’IA da parte dei professionisti: non come un mero optional tecnologico, ma come uno strumento da governare con responsabilità. Omettere trasparenza o lasciare che l’IA operi indisturbata, senza una corretta supervisione umana, rischia non soltanto un errore tecnico, ma una frattura nel rapporto fiduciario con il cliente, con conseguenze reputazionali ed economiche.
Il caso Deloitte Australia — in cui un documento istituzionale, commissionato dal governo, ha riportato citazioni inventate generate da un modello di IA — rappresenta un esempio emblematico delle conseguenze a cui si può andare incontro se non si mantiene un controllo rigoroso e una trasparente rendicontazione sull’uso dell’intelligenza artificiale. Questo episodio evidenzia come l’assenza di supervisione umana possa compromettere la credibilità e l’affidabilità di elaborati di rilevanza pubblica, con impatti concreti sulla fiducia nei professionisti e nelle istituzioni.
Trasparenza e Responsabilità: non basta “fidarsi”, serve mettere a fuoco
Quando un cliente riceve un elaborato, ha diritto di sapere: “Questo pezzo l’ha scritto una macchina? In che misura? Con quali limiti?”
La trasparenza non è un’opzione retorica: è il dovere minimo per evitare che l’IA diventi un’ombra opaca dietro cui nascondersi. Comunicare con chiarezza, in linguaggio comprensibile, quali strumenti sono impiegati, per cosa e con quali cautele, è il primo passo per mantenere la relazione basata sulla fiducia.
La trasparenza non deve essere solo dichiarativa. È indispensabile che sia accompagnata da una supervisione umana attiva e consapevole. L’intelligenza artificiale, per quanto sofisticata, può generare errori, distorsioni o contenuti impropri. Per questo motivo, il professionista ha il compito di valutare criticamente ogni output prodotto dall’AI, correggerlo e integrarlo con il proprio giudizio esperto prima di consegnarlo al cliente. Solo in questo modo si garantisce la qualità, l’accuratezza e la responsabilità che sono pilastri del lavoro intellettuale.
Il caso Deloitte Australia: quando la trasparenza salta e la responsabilità cede
Immaginate un rapporto ufficiale destinato a un ministero, con cifre, raccomandazioni, riferimenti accademici: un documento autorevole nel quale si confida. Ora pensatelo con citazioni mai esistite. È quello che è accaduto.
Deloitte ha prodotto un report governativo australiano in cui una parte del contenuto era stata generata da un’IA (GPT-4o) — ma senza dichiararlo. In esso sono state inserite citazioni attribuite a studiosi reali su pubblicazioni mai esistite, e riferimenti a decisioni giudiziarie false.
Quando la manipolazione è stata portata alla luce da esperti esterni, la reazione non è stata delle migliori: correzioni al rapporto e un rimborso parziale al committente. Tuttavia, il danno alla reputazione era ormai evidente, compromettendo la credibilità sia del documento sia del prestigioso nome ad esso associato.
Se un professionista italiano avesse agito così, avrebbe violato i nuovi vincoli dell’art. 13 L. 132/2025, tradendo la fiducia del cliente, esponendosi a responsabilità deontologiche e legali, e provocando una falla reputazionale difficilmente sanabile.
Nuovi obblighi normativi e responsabilità condivisa
La legge 132/2025, all’articolo 13, ribadisce questo principio normativo, stabilendo che l’uso di sistemi di AI nelle professioni intellettuali deve limitarsi ad attività strumentali e di supporto, con prevalenza del lavoro umano. Inoltre, impone l’obbligo di informare il cliente in modo chiaro e comprensibile sull’impiego dell’AI, garantendo così trasparenza e tutela del rapporto fiduciario.
L’inserimento esplicito dell’obbligo di trasparenza non può essere visto come un mero adempimento burocratico, ma come una vera e propria leva di responsabilizzazione. Proprio per questo, la norma sottolinea implicitamente la necessità di una supervisione umana rigorosa: la trasparenza deve essere supportata da una costante verifica e controllo dei risultati forniti dall’AI.
Linee operative per il professionista consapevole
Per un’applicazione consapevole e responsabile della trasparenza, è opportuno seguire i seguenti principi:
- Disclosure trasparente all’inizio
Spiega subito al cliente se e come l’IA sarà utilizzata nella prestazione. Inserisci una clausola esplicita nella lettera di incarico. - Ruolo dell’IA: supporto, non sostituto
L’IA può aiutare, suggerire, velocizzare. Ma il risultato finale deve emergere dall’intelletto del professionista. - Verifica rigida e contestualizzazione
Qualsiasi contenuto generato richiede un filtro umano: controllo delle fonti, verifica dei dati, valutazione critica. - Registro e tracciamento dei processi AI
Conserva prompt, versioni intermedie, commenti: tutto deve essere ricostruibile, in caso di audit o controversie. - Mantenere la responsabilità giuridica e deontologica
Non delegare la responsabilità alla macchina: è il professionista che firma il lavoro, non l’algoritmo. - Aggiornamento continuo e consapevolezza normativa
Le leggi, le linee guida e le buone pratiche sull’IA evolvono rapidamente: il professionista deve restare al passo.
Conclusione: il confine è il livello umano
Anche nei casi più avanzati, l’IA deve restare un assistente, non un sostituto. È il professionista che deve assumersi la responsabilità ultima dei contenuti, verificare, correggere, contestualizzare. L’errore dell’IA non può diventare un alibi.
Il professionista — e non la macchina — deve essere responsabile del risultato finale: questa è la differenza tra strumento e supplente.
Un sistema intelligente non basta: serve un professionista integrale. La trasparenza e la responsabilità non sono optional nel rapporto cliente-professionista: sono le colonne su cui costruire una convivenza sicura con l’intelligenza artificiale.
In tema di responsabilità resta difficile spacchettare il confine tra uomo e macchina, ma chi rimane al timone è sempre il professionista: il caso Deloitte Australia è una lezione concreta di come un errore di trasparenza può trasformarsi in falla irreparabile.







