Anno: XXVI - Numero 98    
Lunedì 19 Maggio 2025 ore 13:45
Resta aggiornato:

Home » Come possono (e non possono) usare l’intelligenza artificiale avvocati e giudici

Come possono (e non possono) usare l'intelligenza artificiale avvocati e giudici

L’Italia ha finalmente approvato una legge che consente l’uso dell’AI in ambito legale solo come supporto, vietando sostituzioni umane.

Come possono (e non possono) usare l'intelligenza artificiale avvocati e giudici

Ecco i dettagli analizzati da un’esperta intelligenza artificiale nellattività forense e giudiziaria

L’Italia ha finalmente approvato una legge che consente l’uso dell’AI in ambito legale solo come supporto, vietando sostituzioni umane Thapana Onphalai

L’intelligenza artificiale entra (davvero) nel diritto. Ma non senza regole. Dopo l’approvazione dell’AI Act a livello europeo, l’Italia muove il primo passo verso una disciplina nazionale dell’intelligenza artificiale nell’attività giudiziaria e forense, con un disegno di legge che pone paletti chiari: niente giudici-robot, né avvocati algoritmici. Solo supporto, mai sostituzione.

E le prime pronunce della giurisprudenza non si fanno attendere: a Firenze, ChatGPT finisce sul banco degli imputati per ‘allucinazioni’ giuridiche. Il futuro è arrivato e la norma cerca di tenerne il passo. Il 20 marzo 2025 il Senato ha approvato il disegno di legge in materia di intelligenza artificiale (Ddl AI), con l’obiettivo di armonizzare la normativa nazionale alle disposizioni del Regolamento (Ue) 2024/1689 (AI Act).

Tra le novità più rilevanti, si segnalano le disposizioni che regolano l’utilizzo dell’AI nei settori delle professioni intellettuali, l’intelligenza artificiale potrà essere impiegata solo come supporto all’attività del professionista, senza mai sostituirne il contributo umano. Per i professionisti, fra cui anche gli avvocati, l’impiego di sistemi di intelligenza artificiale è consentito esclusivamente nell’ambito di attività strumentali e di supporto alla prestazione professionale, con la necessaria prevalenza dell’apporto intellettuale umano quale elemento caratterizzante dell’opera.

Tale principio rispecchia l’esigenza di garantire che l’attività professionale non venga automatizzata in modo tale da comprometterne l’autonomia, la responsabilità e la qualità, in conformità ai doveri deontologici e ai canoni etici della professione. Inoltre, è previsto in capo al professionista l’obbligo di informare preventivamente il cliente circa l’utilizzo, le funzionalità e le implicazioni dei sistemi di intelligenza artificiale eventualmente impiegati nello svolgimento dell’incarico. Si tratta di un obbligo di trasparenza già fatto proprio da diverse linee guida emanate dagli ordini professionali, tra cui merita menzione il punto 3 della “Carta dei principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense”, adottata dall’Ordine degli Avvocati di Milano, che sottolinea la necessità di preservare la consapevolezza e la fiducia del cliente nell’attività difensiva.

Analogo principio si applica all’attività giudiziaria: i sistemi di AI potranno affiancare il lavoro del giudice e dell’avvocato, ma senza mai compromettere l’autonomia della valutazione umana, poiché i sistemi di intelligenza artificiale saranno consentiti solo per attività strumentali e di supporto all’attività della magistratura. In questo contesto si inserisce una recente ordinanza del Tribunale di Firenze (13 marzo 2025), che ha affrontato, seppur incidentalmente, l’uso dell’AI negli atti difensivi. Il caso riguarda l’impiego improprio di ChatGPT da parte di un legale, con riferimento alla possibile responsabilità aggravata per lite temeraria (ex art. 96 del codice di procedura civile). Al centro della vicenda, il fenomeno delle cosiddette “allucinazioni” dell’AI: la generazione di riferimenti giuridici del tutto inventati, ma presentati come attendibili.

Il rischio che l’intelligenza artificiale produca contenuti fittizi e che questi vengano utilizzati nei procedimenti giudiziari o nelle attività dei professionisti, senza un controllo critico da parte dell’operatore umano, solleva interrogativi importanti, non solo per l’attività forense ma anche per quella giudiziaria. Questo fenomeno può rappresentare un pericolo non solo per l’attività forense ma anche per l’attività giudiziarie, poiché l’avvocato o il giudice che anche solo si affidino esclusivamente alle ricerche condotte dall’AI rischiano di incorrere in gravi errori. Ciò solo considerando l’uso di sistemi di intelligenza artificiale quale supporto all’attività del legale o del giudice, senza indagare nell’ambito di utilizzo di sistemi AI per la cosiddetta “giustizia predittiva”, cioè l’utilizzo di AI (ad esempio analisi di dati) per prevedere comportamenti o esiti giudiziari futuri, con l’obiettivo di supportare le decisioni nel sistema giudiziario.

Vi è ora da chiedersi come sarà possibile accertare l’utilizzo di strumenti di intelligenza artificiale al di fuori dei limiti consentiti dalla legge e quali conseguenze potranno derivarne in caso di uso non conforme. Sul piano pratico, l’accertamento di un eventuale utilizzo improprio dell’AI da parte di un professionista del diritto appare al momento problematico. È infatti principio ormai consolidato che la responsabilità degli atti redatti, anche con il supporto di sistemi di intelligenza artificiale, ricada integralmente sul soggetto umano che ne dispone l’uso e sottoscrive il documento finale. In assenza di elementi macroscopici, quali errori evidenti o contenuti generati in modo incongruo (le cosiddette “allucinazioni”), difficilmente l’impiego dell’AI potrà essere rilevato.

Va altresì precisato che un atto redatto in violazione delle disposizioni vigenti sull’uso dell’intelligenza artificiale non è, di per sé, affetto da nullità o inefficacia giuridica, in virtù della sottoscrizione e dell’assunzione di responsabilità da parte del professionista che lo ha prodotto. Le conseguenze, pertanto, non investiranno la validità processuale dell’atto, bensì potranno manifestarsi sotto il profilo deontologico o disciplinare, nell’ambito dei codici di condotta professionale applicabili. L’impatto dell’AI sul fenomeno giuridico presenta così due volti: da un lato essa investe il modo in cui il diritto è creato, gestito e applicato, dall’altro, il rapido sviluppo delle nuove tecnologie richiede un adattamento delle norme esistenti in specifici ambiti.

Wired

© Riproduzione riservata

Iscriviti alla newsletter!Ricevi gli aggiornamenti settimanali delle notizie più importanti tra cui: articoli, video, eventi, corsi di formazione e libri inerenti la tua professione.

ISCRIVITI

Altre Notizie della sezione

Archivio sezione

Commenti


×

Informativa

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy.
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.