La sezione imprese del Tribunale ordinario di Firenze, con ordinanza emessa il 13 marzo 2025, riflette sul corretto utilizzo degli strumenti di IA nel procedimento giurisdizionale e sull’inquadramento giuridico di comportamenti difensivi privi di valido fondamento giuridico, come nel caso delle cc.dd. “allucinazioni “risultato dei sistemi di IA generativa.
Il procedimento trae origine da un reclamo presentato contro il sequestro di merce contraffatta, in cui il reclamante aveva richiesto la condanna della controparte per responsabilità aggravata, sostenendo che quest’ultima avesse riportato, nella propria difesa, estremi di sentenze della Corte di Cassazione risultati del tutto inventati o comunque non coerenti con il contenuto dell’atto; tali riferimenti sarebbero stati inseriti per errore da una collaboratrice dello studio, che avrebbe condotto la ricerca tramite ChatGPT, senza che il patrocinatore in mandato fosse – asseritamente – all’oscuro di tale metodologia.
L’intelligenza artificiale avrebbe generato decisioni apparentemente pertinenti ma in realtà inesistenti, fenomeno noto in letteratura tecnica come “hallucination”, e confermato dal Collegio stesso per il caso di specie: “si verifica allorché l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri. In questo caso, lo strumento di intelligenza artificiale avrebbe inventato dei numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta il cui contenuto, invece, non ha nulla a che vedere con tale argomento”.
Il Tribunale, pur riconoscendo la gravità dell’omessa verifica e la potenziale pericolosità di un comportamento difensivo fondato su riferimenti giurisprudenziali manifestamente errati, ha tuttavia escluso la sussistenza dei presupposti per l’accoglimento della domanda di condanna per responsabilità aggravata ai sensi dell’art. 96 c.p.c., ritenendo non integrato né il requisito soggettivo della mala fede o della colpa grave previsto dal comma 3, né quello oggettivo del danno, anche solo genericamente allegato, richiesto dal comma 1.
In tale prospettiva, pur stigmatizzando la leggerezza dell’approccio difensivo, il collegio ha concluso per l’inconfigurabilità della responsabilità processuale aggravata, in difetto sia di un comportamento abusivo o strumentale, sia di un pregiudizio concretamente ascrivibile alla condotta censurata.
Infatti, nella motivazione, il Tribunale evidenzia come la parte reclamante non abbia allegato né tantomeno quantificato alcun pregiudizio direttamente ricollegabile all’inserimento delle sentenze inesistenti e come, in ogni caso, la strategia difensiva adottata dalla resistente – incentrata sull’asserita assenza di consapevolezza nella commercializzazione dei prodotti contraffatti – fosse già stata esplicitata nella comparsa di costituzione e risultasse coerente con quanto precedentemente valutato in sede cautelare, rivelandosi pertanto priva di quella connotazione strumentale o mistificatoria necessaria a configurare un abuso del processo. Il collegio ha così escluso l’applicabilità dell’art. 96 c.p.c., riaffermando che tale norma non può essere invocata per sanzionare genericamente errori, omissioni o negligenze difensive, ma solo in presenza di condotte processuali caratterizzate da mala fede manifesta o da una grave scorrettezza incompatibile con la lealtà del contraddittorio.
Al di là dei profili strettamente processuali affrontati nel caso in esame, l’accaduto rileva anche in chiave di data protection in relazione all’AI Act secondo cui sono attribuiti specifici obblighi in capo agli utilizzatori professionali di sistemi di IA (Art 28) imponendo un utilizzo consapevole, informato e tecnicamente sorvegliato delle tecnologie adottate, che in ambito giudiziario, si traduce, in un preciso dovere di diligenza nella comprensione dei limiti strutturali dello strumento impiegato e nella verifica preventiva dell’attendibilità degli output prodotti (tanto più quando vengono impiegati all’interno di atti processuali).
Tali obblighi, appaiono in linea con lo stesso GDPR, che pur non disciplinando direttamente l’uso dell’IA in ambito forense, rimanda ai principi di liceità, correttezza, trasparenza e accountability.
In questo contesto, la mancata validazione dei contenuti generati da un sistema di IA, ove utilizzati in un atto giudiziario, non si traduce solo in una scelta metodologica discutibile, ma rischia di costituire una violazione di quei canoni di affidabilità, antropocentrismo e integrità della funzione difensiva che si intendono rafforzare attraverso le normative di settore.