Affidarsi ciecamente all’AI nei tribunali non solo può compromettere la qualità della difesa, ma ora comporta anche conseguenze concrete. Come dimostra il caso di un avvocato di Latina, condannato dal giudice per aver affidato la stesura di un ricorso a Chat Gpt, senza controllare il risultato finale (con evidenti pecche).
Dal 10 ottobre 2025, con l’entrata in vigore della legge nazionale che regolamenta l’uso dell’intelligenza artificiale, i professionisti dovranno fare i conti con regole stringenti, che mirano a garantire trasparenza e a ribadire un principio fondamentale: l’intelligenza artificiale può assistere, ma non sostituire, l’intelligenza dell’uomo.
Avvocato fa scrivere il ricorso all’intelligenza artificiale: il giudice se ne accorge
Un avvocato finisce sotto i riflettori per aver presentato un ricorso redatto con l’aiuto dell’intelligenza artificiale.
È accaduto a Latina, nella sezione lavoro del Tribunale, dove il giudice Valentina Avarello – con una sentenza depositata il 23 settembre 2025 – ha rigettato le istanze del ricorrente e condannato la parte per lite temeraria ai sensi dell’articolo 96 del codice di procedura civile.
Secondo il magistrato, gli atti difensivi erano caratterizzati da errori, incoerenze e citazioni normative fuori contesto, al punto da far emergere chiaramente l’uso disinvolto di strumenti di AI.
“Gli scritti difensivi – si legge nel provvedimento – risultano un coacervo di citazioni astratte, prive di ordine logico e manifestamente inconferenti rispetto alla causa”.
Non solo: il giudice ha ritenuto che l’azione fosse stata introdotta con negligenza e malafede, tanto da imporre al legale il pagamento di somme sia in favore della controparte che della Cassa delle ammende. Il caso riguardava un ricorso relativo a un credito contributivo derivante da un avviso di addebito dell’Inps, ma il nodo centrale è stato proprio il modo in cui l’avvocato ha fatto ricorso all’intelligenza artificiale.
Non è un episodio isolato: già a Firenze, Torino e Brescia si erano registrati provvedimenti analoghi. Ma questa decisione del Tribunale di Latina rischia di diventare un precedente pesante, soprattutto perché arriva in concomitanza con una svolta normativa.
LEGGI ANCHE: Altro che Perry Mason! Si fa difendere in Tribunale da ChatGpt e vince la causa
Dal 10 ottobre in vigore la legge italiana sull’IA
Il 10 ottobre 2025 entrerà in vigore la legge n. 132/2025, la prima normativa organica italiana sull’intelligenza artificiale, approvata lo scorso 23 settembre e pubblicata in Gazzetta Ufficiale pochi giorni fa.
Si tratta di un passaggio storico: la legge definisce principi, obblighi e limiti per l’uso dell’AI, con particolare attenzione alle professioni intellettuali. Per avvocati e consulenti, l’articolo 13 stabilisce che l’intelligenza artificiale potrà essere utilizzata solo come strumento di supporto e mai come sostituto del lavoro umano. Inoltre, il professionista sarà tenuto a informare i clienti – con linguaggio chiaro e trasparente – se farà uso di sistemi di AI nella propria attività.
Come ha spiegato Antonino La Lumia, presidente dell’Ordine degli Avvocati di Milano, “per la prima volta il Parlamento ha fissato un quadro chiaro, riconoscendo l’IA come risorsa, ma anche come materia che tocca diritti, libertà e giurisdizione. È una scelta di civiltà giuridica che pone la persona al centro”.
In pratica, gli algoritmi potranno affiancare gli avvocati nell’attività strumentale (ricerche, organizzazione dei documenti, predisposizione di bozze), ma la responsabilità delle argomentazioni e delle decisioni resterà sempre umana.
L’AI come opportunità e rischio
Il ministro della Giustizia Carlo Nordio, intervenuto di recente a un convegno, ha ricordato che la tecnologia può essere una risorsa straordinaria ma anche una potenziale minaccia:
“È la mente e la morale umana che devono guidarne l’uso, altrimenti si rischia di perdere la dignità stessa dell’uomo”.
Parole che riflettono il cuore della nuova normativa: l’intelligenza artificiale non scriverà il futuro della giustizia, ma potrà esserne un alleato, a patto che resti sotto il controllo della responsabilità professionale e del giudizio umano.