Pubblicato il: 15/10/2025

Il largo utilizzo di soluzioni di intelligenza artificiale, oltre a offrire una serie di opportunità, ha aperto un dibattito sui rischi che derivano dal suo impiego e sulle nuove sfide, etiche e giuridiche, che esso pone.
A tal fine il regolamento del Parlamento europeo e del Consiglio UE n. 1689 del 2024, c.d. “AI Act”, si caratterizza per un approccio basato sulla definizione di diversi livelli di rischio delle applicazioni di IA.
In tale contesto, i sistemi di intelligenza artificiale destinati all’amministrazione della giustizia sono riconosciuti come “ad alto rischio” giacché incidono sugli ambiti più sensibili del diritto, nei quali occorre minimizzare i “rischi di potenziali distorsioni, errori e opacità”, tenendone distinte le “attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l’assegnazione delle risorse”, alle quali non si ritiene opportuno estendere la classificazione di rischio elevato.

Sul piano giuridico nazionale, la formulazione dell’articolo 15 della L. 132/2025, legge quadro sull’intelligenza artificiale, è volta a delimitare in maniera precisa gli ambiti dell’attività giudiziaria propriamente detta, nei quali l’impiego di sistemi di intelligenza artificiale è consentito.

Innanzitutto, il comma 1 stabilisce che, in caso di utilizzo dei sistemi di intelligenza artificiale, sono sempre riservate al magistrato le decisioni concernenti:

  • l’interpretazione e l’applicazione della legge;
  • la valutazione dei fatti e delle prove;
  • l’adozione dei provvedimenti.

Per le decisioni sopra elencate, che costituiscono il nucleo fondamentale e più sensibile nell’esercizio della giurisdizione, viene esclusa pertanto qualsiasi possibilità di fare ricorso all’intelligenza artificiale. La disposizione, dunque, non consentirebbe l’impiego dei sistemi di AI riconducibili alla c.d. “giustizia predittiva”, ovvero di sistemi che, sulla base di un modello statistico elaborato in maniera autonoma dal sistema stesso a seguito dell’analisi di una mole significativa di atti giuridici, sono in grado di formulare una previsione che può giungere fino al possibile esito di un giudizio.
In riferimento ad altri ambiti – quali l’organizzazione dei servizi relativi alla giustizia, la semplificazione del lavoro giudiziario, le attività amministrative accessorie – , la disciplina puntuale per l’impiego dei sistemi di intelligenza artificiale è demandata al Ministro della Giustizia.
La disposizione in commento risulta altresì in linea con la Carta etica per l’uso dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla Commissione europea per l’efficienza della giustizia (CEPEJ) nel dicembre del 2018, dove, in particolare, si stabilisce che il giudice dovrebbe poter controllare in qualsiasi momento le decisioni giudiziarie e i dati utilizzati per produrre una decisione.

Adesso, nell’ultimo plenum dell’organo di autogoverno dei giudici, si è decisa la stretta: la proposta elaborata dalla settima Commissione, relatori Marco Bisogni e la presidente Maria Vittoria Marchianò, prevede che software come ChatGPT o software generativi simili come Chatbot, Copilot, Gemini, Perplexity sono fuorilegge.

In particolare, nella deliberazione plenaria dello scorso 8 ottobre sono stati ribaditi i seguenti punti:

  • i sistemi di intelligenza artificiale possono essere utilizzati per supportare – e non sostituire – alcune fasi preparatorie dell'attività decisionale, offrendo sintesi, suggerimenti o correlazioni informative che affiancano il ragionamento umano senza determinarne gli esiti;
  • l'introduzione di sistemi di intelligenza artificiale in ambito giudiziario può essere considerata compatibile con la funzione giurisdizionale soltanto nella misura in cui tali strumenti siano integrati nel rispetto dei principi fondamentali del diritto processuale;
  • devono essere garantiti la trasparenza dell'elaborazione algoritmica, la possibilità di verifica e contestazione degli output, la subordinazione all'autonomia valutativa del giudice e la parità informativa tra le parti;
  • solo un utilizzo conforme a tali requisiti potrà risultare coerente con i principi di legalità, giusto processo e tutela effettiva, su cui si fonda la giurisdizione in uno Stato di diritto.

Vai alla Fonte