ABUSO DEL PROCESSO PER IL RICORSO, PIENO DI RIFERIMENTI SBAGLIATI, REDATTO CON INTELLIGENZA ARTIFICIALE. TRIB. TORINO N. 2120/2025

22.09.2025
disclaimer: l'immagine è puramente illustrativa
disclaimer: l'immagine è puramente illustrativa

A CURA DELL'AVV.MICHELEALFREDO CHIARIELLO

TAGS: ⚖️ #Diritto #ProcessoCivile #Art96cpc #ResponsabilitàAggravata #Giurisprudenza #IA #IntelligenzaArtificiale #AllucinazioniIA 🤖 #Avvocati #Forense #AbusodelProcesso 🚨 #SentenzaTorino #SentenzaFirenze #LegalTech #EticaProfessionale 📚 #Avvocatura #CongressoForense #InnovazioneGiuridica #GiustiziaDigitale ⚡

INDICE

1) INTRODUZIONE;

2) L'ART. 96, COMMA 3, DEL CODICE DI PROCEDURA CIVILE;

3) LA SENTENZA DEL TRIBUNALE DI TORINO;

4) IL PRECEDENTE DEL TRIBUNALE DI FIRENZE;

5) COSA SONO LE ALLUCINAZIONI DELL'INTELLIGENZA ARTIFICIALE;

6) CONCLUSIONI.-

Hai fretta? Andiamo dritti al sodo:

1️⃣ La novità giurisprudenziale – Il Tribunale di Torino (sent. n. 2120/2025) ha condannato per responsabilità aggravata ex art. 96, comma 3, c.p.c. un ricorso redatto con l'ausilio dell'IA, ritenuto un abuso del processo a causa di citazioni inconferenti e "allucinate".

2️⃣ Il confronto con Firenze – Diversamente, il Tribunale di Firenze (ord. 14 marzo 2025) aveva escluso la sanzione, valorizzando la trasparenza del difensore che aveva segnalato l'errore dell'IA e chiesto lo stralcio delle citazioni inventate.

3️⃣ Il nodo centrale – Non è l'uso dell'IA a essere vietato, ma la mancata verifica critica dei risultati: l'avvocato che presenta atti con riferimenti falsi o infondati rischia conseguenze processuali (sanzioni ex art. 96 c.p.c.) e disciplinari.

1. INTRODUZIONE

Proprio nei giorni in cui il dibattito sull'impatto dell'intelligenza artificiale entra ufficialmente nell'agenda del XXXVI Congresso Nazionale Forense, in programma a Torino dal 16 al 18 ottobre 2025, lo stesso Tribunale della città piemontese ha emesso una decisione che tocca da vicino, l'attualissimo, tema.-

Con la sentenza n. 2120/2025, infatti, è stata pronunciata una condanna per responsabilità aggravata ex art. 96, comma 3, c.p.c., in relazione ad un atto processuale redatto con il supporto dell'IA e caratterizzato da citazioni inconferenti (le c.d. "allucinazioni").-

Si tratta di una questione giuridica, ma anche sociale, che rende ancora più urgente interrogarsi sul rapporto tra professione forense e nuove tecnologia.-

2. L'ART. 96, COMMA 3, DEL CODICE DI PROCEDURA CIVILE

L'art. 96, comma 3, c.p.c. configura una responsabilità aggravata a carattere sanzionatorio, che il giudice può applicare anche d'ufficio, condannando la parte soccombente al pagamento di una somma equitativamente determinata a favore della controparte. Diversamente dai commi 1 e 2 dello stesso articolo, che presuppongono la prova del dolo o della colpa grave e di un danno effettivo subito dalla parte vittoriosa, il terzo comma opera in via autonoma: non è necessaria né la domanda di parte né la dimostrazione di un pregiudizio concreto. La sua funzione non è meramente risarcitoria, bensì eminentemente punitiva e dissuasiva, volta a scoraggiare comportamenti processuali scorretti, conosciuti come abuso del processo, come la proposizione di domande palesemente infondate, la reiterazione di azioni già rigettate.-

3. LA SENTENZA DEL TRIBUNALE DI TORINO

Nel caso di specie, la Giudice Roberta Pastore ha rigettato un ricorso definito come "redatto col supporto dell'intelligenza artificiale, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate".-

Il Tribunale ha ritenuto che l'atto, così predisposto, integrasse un abuso del processo e ha condannato il ricorrente al pagamento di una somma equitativa in applicazione dell'art. 96, comma 3, c.p.c., rilevando la sussistenza di malafede o colpa grave.-

4. IL PRECEDENTE DEL TRIBUNALE DI FIRENZE

Qualche mese fa, il Tribunale ordinario di Firenze (sezione imprese, ordinanza del 14 marzo 2025) aveva affrontato un caso analogo, giungendo però a una conclusione differente.-

In quell'occasione, l'utilizzo di richiami giurisprudenziali inventati dall'intelligenza artificiale non era stato ritenuto sufficiente a integrare la responsabilità aggravata ex art. 96 c.p.c., poiché le citazioni «erano destinate ad ulteriore conferma della linea difensiva già esposta» e non a sostenere la lite in malafede.-

Anzi, lo stesso difensore aveva riconosciuto – scoperto - l'uso dell'IA, spiegando che i riferimenti erano stati prodotti da una collaboratrice e chiedendone lo stralcio.-

La trasparenza processuale, in quel caso, aveva avuto un ruolo fondamentale nell'escludere l'abuso, nonostante l'uso non corretto.-

5. COSA SONO LE ALLUCINAZIONI DELL'INTELLIGENZA ARTIFICIALE

Le allucinazioni dell'intelligenza artificiale sono errori generati dai modelli quando producono informazioni false o inesistenti, ma presentate come se fossero vere e attendibili. Si tratta di un fenomeno tipico dell'intelligenza artificiale generativa: il modello, anziché dire "non so", costruisce risposte plausibili basandosi su associazioni statistiche, arrivando così a "inventare" dati, citazioni, sentenze o riferimenti che in realtà non esistono.-

In ambito giuridico, ad esempio, come abbiamo visto, può accadere che vengano fornite sentenze mai pronunciate, numeri di provvedimenti inventati o principi di diritto inesatti.-

6. CONCLUSIONI

In attesa del Congresso Forense – e con l'auspicio che anche altri Ordini adottino protocolli simili alla "Carta dei Principi" del COA di Milano per un uso consapevole dell'IA in ambito forense – emerge con chiarezza che l'intelligenza artificiale rappresenta una straordinaria opportunità per l'avvocatura.-

Strumenti capaci di velocizzare le ricerche, organizzare grandi quantità di dati e persino supportare la redazione di atti possono costituire un vantaggio competitivo enorme.-

Tuttavia, come dimostrano le opposte pronunce di Torino e Firenze, il confine tra ausilio e abuso è sottile; se utilizzata in modo acritico o senza verifiche, l'IA rischia di produrre allucinazioni che possono dar luogo a conseguenze processuali gravi, fino alla condanna per responsabilità aggravata. E non vanno esclusi nemmeno i possibili riflessi deontologici: l'avvocato che presenti atti con riferimenti falsi o non verificati espone sé stesso a rilievi disciplinari.-

L'IA non sostituirà mai l'avvocato, ma impone all'avvocato una nuova sfida: quella di distinguere tra strumento e scorciatoia, tra innovazione e abuso del processo.-

Si deve evidenziare, in conclusione, un profilo: la parte (di fatto l'avvocato) non è stato sanzionato per aver utilizzato l'intelligenza artificiale – non vi è nessuna norma che lo vieti – ma per non aver verificato la veridicità di quanto espresso dal modello e di averlo utilizzato non correttamente, per sostenere delle tesi già oggetto di rigetto, oltre che palesemente non fondate.-

Dal box qui a destra puoi scaricare direttamente l'articolo in formato pdf, ma ricorda di indicare la fonte (titolo, autore, link diretto)


HAI BISOGNO DI CONSULENZA SU QUESTO ARGOMENTO? CONTATTAMI

Ricevo online ed in presenza.
Scrivimi direttamente su WhatsApp!

💬 Scrivimi su WhatsApp: 338 189 3997