Anno: XXV - Numero 73    
Lunedì 29 Aprile 2024 ore 13:00
Resta aggiornato:

Home » Prosegue il confronto delle delegazioni delle rappresentanze forensi dei paesi del g7

Prosegue il confronto delle delegazioni delle rappresentanze forensi dei paesi del g7

Ieri è stato un pomeriggio di dibattiti e approfondimenti al G7 delle Avvocature presieduto dal Cnf che si sta tenendo a Roma presso l’Aula Magna della Pontificia Università della Santa Croce.

Prosegue il confronto delle delegazioni delle rappresentanze forensi dei paesi del g7

I lavori sono iniziati con la seconda sessione moderata da Isidoro Trovato, giornalista del Corriere della Sera. Il dott. Francesco Contini, dirigente di ricerca Istituto di Informatica Giuridica e Sistemi Giudiziari – Consiglio Nazionale delle Ricerche, ha aperto la discussione con la relazione “Il giusto processo tra intelligenza artificiale generativa e giustizia predittiva”. «Il concetto di “giustizia predittiva” ha attirato attenzioni, speranze e risorse – spiega Contini – i progetti per implementare sistemi di giustizia predittiva sono fioriti a livello nazionale e in Europa, ma i risultati sono per ora modesti sia per disponibilità di dati su cui addestrare i sistemi sia per i tempi e i costi necessari per l’estrazione di concetti dal testo e la creazione di relazioni tra queste annotazioni. Poi è arrivata l’IA generativa con l’aspettativa di trasformare le professioni legali, anche se il suo uso pone problemi di riservatezza e data protection. In ambito legale questo ne ostacola un uso su casi reali perché si rischia di compromettere riservatezza delle informazioni confidenziali. Inoltre, poiché questi sistemi non sono specializzati, possono dare risposte errate perché addestrati su dati non pertinenti».

Quindi la parola è andata al dott. Jean Lassègue, ricercatore senior del Centre National de la Recherche Scientifique e direttore del Centre Georg Simmel (École des Hautes Études Sciences Sociales di Parigi), con la relazione “Trasformazioni delle prove nell’era digitale”. «Ci sono due problemi principali con i Large Language Model (tecnologia di IA incentrata su comprensione e analisi del testo) – ha spiegato il ricercatore – un problema teorico: gli LLM dovrebbero essere non specializzati e in grado di generare risposte a qualsiasi richiesta, ma non possono farlo. Poi c’è il problema legale. Come sottolinea il linguista Noam Chomsky, gli LLM non ci consentono di distinguere tra affermazioni corrette e errate, poiché si limitano a identificare tendenze statistiche. Ma nel caso delle norme legali dobbiamo essere capaci di distinguere tra affermazioni sbagliate e corrette in relazione alla norma. È quindi l’idea stessa di prova che qui subisce un cambiamento importante, poiché l’uso delle reti neurali offusca la distinzione tra fatto e norma presentando il livello della norma come la somma di casi individuali, cosa che non è. Ciò ovviamente non significa che questi LLM siano inutili o pericolosi, ma che la loro funzione è limitata da una norma, sia matematica che giuridica, che essi stessi non possono produrre».

Ha concluso la sessione il prof. Avv. Filippo Donati, ordinario di diritto costituzionale presso l’Università degli studi di Firenze, parlando di “Intelligenza artificiale e giustizia alla luce del nuovo regolamento”. «Il nuovo regolamento in procinto di essere pubblicato (l’IA Act) classifica i sistemi di Intelligenza Artificiale in base al rischio collegato all’utilizzo – dice Donati – è in questo contesto che deve essere valutato l’impiego dell’IA nell’ambito della giustizia. L’IA può offrire un supporto per superare i maggiori problemi che affliggono i sistemi giudiziari: tempi di giudizio, certezza del diritto e prevedibilità delle decisioni. Allo stesso tempo, però, l’impiego dell’IA richiede cautela, perché errori di progettazione, addestramento o funzionamento possono condurre a decisioni discriminatorie o comunque lesive dei diritti della persona. Il sistema di governance adottato a livello dell’Unione e nazionale sarà determinante per l’applicazione virtuosa della nuova disciplina dell’AI Act. Soltanto l’autonomia, l’indipendenza e la preparazione tecnica delle persone chiamate ad assicurare l’osservanza dell’IA Act potranno garantire lo sviluppo e l’utilizzo di sistemi di intelligenza artificiale nel rispetto dei diritti della persona e dei principi democratici».

Terminata la sessione si sono tenute le Lectio Magistralis della prof.ssa Avv. Paola Severino, emerita di diritto penale presso l’Università degli studi di Roma “Luiss Guido Carli” dal titolo “Intelligenza artificiale e giustizia penale: alla ricerca di un equilibrio tra prospettive di innovazione e rispetto dei diritti fondamentali” e del prof. Avv. Guido Alpa, emerito di diritto civile presso l’Università degli studi di Roma “Sapienza”.

SCHEDA STRALCI DICHIARAZIONI DELEGAZIONI DEL 16 POMERIGGIO

 

 

© Riproduzione riservata

Iscriviti alla newsletter!Ricevi gli aggiornamenti settimanali delle notizie più importanti tra cui: articoli, video, eventi, corsi di formazione e libri inerenti la tua professione.

ISCRIVITI

Altre Notizie della sezione

Archivio sezione

Commenti


×

Informativa

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy.
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.