Il Tribunale di Verona sanziona l’uso non controllato dell’intelligenza artificiale nella redazione di atti processuali e conia il concetto di “obbligo di controllo rafforzato”.
A pagina quattro di un atto giudiziario, tra le argomentazioni difensive, c’era ancora scritto: «Se vuoi, posso proseguire con l’inserimento di questa parte in un atto completo di atto di citazione in opposizione ex art. 615 c.p.c. o in comparsa conclusionale. Fammi sapere.» Era il testo di un chatbot di intelligenza artificiale che nessuno aveva rimosso prima di depositare l’atto in tribunale. Il giudice lo ha letto, e ha risposto per iscritto con una condanna da 2.800 euro. La sentenza n. 4203/2025, pronunciata il 10 febbraio 2026 dal Tribunale di Verona, affronta per la prima volta in modo diretto il problema dell’uso non controllato dell’intelligenza artificiale nella redazione di atti processuali, introducendo un principio destinato a fare scuola: chi usa strumenti di IA per scrivere atti giudiziari ha un obbligo di controllo rafforzato su quello che firma, e il mancato adempimento di questo obbligo è colpa grave.
La causa e il prompt dimenticato
La vicenda riguardava un giovane veronese che aveva proposto opposizione a precetto contro una società con sede in provincia di Belluno, contestando di dover rispondere come erede di un terzo per un debito di oltre 25.000 euro. L’opposizione è stata rigettata nel merito: il titolo esecutivo azionato aveva già condannato l’opponente nella qualità di erede, e quella qualità non era mai stata contestata nel precedente giudizio davanti alla Corte d’Appello di Venezia.
Fin qui, una normale sconfitta processuale. Quello che ha trasformato questa sconfitta in un precedente giurisprudenziale è quello che il giudice Pier Paolo Lanni ha trovato a pagina quattro dell’atto introduttivo: un segmento di testo non cancellato, residuo della lavorazione con un assistente di intelligenza artificiale generativa. Non tra virgolette, non segnalato come nota tecnica, semplicemente lì, come se fosse parte dell’atto. Il giudice lo ha usato come prova dell’uso non sufficientemente controllato di un sistema di IA nella redazione dell’atto. Una prova a carico del difensore. Una prova di colpa grave per omesso controllo.
La condanna per lite temeraria
Per capire il peso della sentenza di Verona, bisogna capire lo strumento che il giudice ha usato. L’articolo 96 cod. proc. civ. si chiama responsabilità aggravata e permette al giudice di condannare la parte soccombente non solo al pagamento delle spese di lite, ma a qualcosa di più.
Il primo comma disciplina la lite temeraria: chi agisce o resiste in giudizio con dolo o colpa grave, sapendo di avere torto, paga i danni alla controparte. Richiede la prova del danno e l’istanza di parte: per decenni è rimasto uno strumento poco usato perché gravoso da attivare.
Il terzo comma, introdotto dalla legge n. 69/2009, ha cambiato il quadro: in ogni caso, quando pronuncia sulle spese, il giudice può anche d’ufficio, senza istanza di parte e senza obbligo di provare un danno specifico, condannare la parte soccombente al pagamento di una somma equitativamente determinata. I commentatori del 2009 lo avevano definito mal scritto e lacunoso. Quella vaghezza è diventata però uno strumento potente: i giudici hanno scoperto che potevano sanzionare l’abuso processuale senza doversi impiccare a dimostrare ogni singola voce di danno.
Il quarto comma, aggiunto dalla riforma Cartabia del 2022, ha completato il sistema: oltre alla condanna in favore della controparte, il giudice condanna la parte al pagamento di una somma tra 500 e 5.000 euro alla Cassa delle ammende. Una pena pecuniaria pubblica, un contributo dovuto alla collettività per aver sprecato risorse del sistema giudiziario.
Nel caso di Verona, il giudice ha applicato sia il terzo che il quarto comma: 1.800 euro alla controparte, 1.000 euro alla Cassa delle ammende. Totale 2.800 euro per aver dimenticato di leggere quello che si firma.
La natura doppia della condanna: sanzione e risarcimento insieme
La dottrina processualistica italiana discute da quindici anni se la condanna ex articolo 96 sia risarcitoria o sanzionatoria. La risposta è entrambe le cose, e questa duplicità non è un difetto del sistema ma una scelta deliberata.
Il Tribunale di Varese, già nel 2012, aveva parlato di natura anfibologica: lo Stato sanziona, mentre il giudice risarcisce. La Cassazione, con la sentenza n. 24410/2017, ha chiarito che la condanna ex articolo 96, comma 3, ha natura sanzionatoria e officiosa, persegue interessi pubblici come il buon funzionamento della giustizia e la ragionevole durata del processo, e scoraggia le cause pretestuose. Non è quindi un rimedio esclusivo per la parte vittoriosa: è una misura a tutela del sistema.
La Corte Costituzionale ha confermato la legittimità della norma nel 2019 con la sentenza n. 139, rigettando la questione di incostituzionalità. Con la sentenza n. 2822/2023, la Cassazione ha ulteriormente abbassato la soglia di accesso: la condanna può essere irrogata anche in caso di abuso del processo, con ricorso a motivi palesemente inconsistenti, senza richiedere necessariamente la prova del dolo o della colpa grave.
L’obbligo di controllo rafforzato: il principio nuovo
Il cuore concettuale della sentenza veronese è la formula che il giudice introduce e che è destinata a diventare un riferimento: obbligo di controllo rafforzato per l’avvocato che usa strumenti di intelligenza artificiale generativa.
Il punto di partenza è chiaro: usare ChatGPT, Claude, Gemini o qualsiasi altro sistema di IA per redigere atti processuali non è vietato. Non esiste nell’ordinamento italiano una norma che lo proibisca, né un obbligo di informare il giudice o la controparte dell’uso di questi strumenti.
Quello che esiste, e che è sempre esistito, è il dovere di diligenza qualificata del difensore. L’articolo 1176, comma 2, cod. civ. richiede che chi esercita un’attività professionale si comporti con la diligenza del buon professionista. Per l’avvocato, questa diligenza include il controllo di ciò che firma. Non è un concetto nuovo: è il fondamento della responsabilità professionale forense.
Quello che cambia con l’IA generativa è l’intensità del controllo richiesto. Quando si usa un assistente che produce output autonomi, output che possono contenere errori, bias, allucinazioni o istruzioni di sistema non rimosse, la diligenza ordinaria non è più sufficiente. Occorre un controllo rafforzato. E il mancato adempimento di questo obbligo è classificato come colpa grave. La logica è precisa: più potente è lo strumento, più alta è la responsabilità di chi lo usa. Chi delega a un sistema autonomo la produzione di documenti che poi firma come propri assume su di sé tutti i rischi di quell’output.
I precedenti: una giurisprudenza in costruzione senza aspettare il legislatore
La sentenza di Verona non è isolata. Si inserisce in un filone che si sta rapidamente consolidando attraverso le prassi dei tribunali, senza coordinamento esplicito.
Nell’ottobre del 2025, un tribunale aveva sanzionato il cosiddetto ricorso a stampone: un atto giudiziario con struttura seriale generata automaticamente, applicata al caso concreto senza personalizzazione, firmata come se fosse frutto di lavoro intellettuale specifico. Nel marzo del 2025, una pronuncia aveva stabilito un confine importante: citare sentenze…
#Adessonews seleziona nella rete articoli di particolare interesse.
Se vuoi leggere l’articolo completo clicca sul seguente link
Angelo Greco
Source link


