L’uso dell’intelligenza artificiale (IA) sta progressivamente interessando anche l’attività giudiziaria, sia nella redazione degli atti da parte dei difensori, sia nella preparazione dei provvedimenti giudiziari.
Due recenti sentenze – la n. 34481 del 22 ottobre 2025 della Corte di Cassazione, Sez. III penale, e la pronuncia del TAR Lombardia n. 3348 del 21 ottobre 2025 – hanno affrontato le implicazioni giuridiche e deontologiche dell’impiego di strumenti di IA nel processo.
Nella sentenza n. 34481/2025, la Corte di Cassazione si è pronunciata rispetto a un’ordinanza cautelare contestata per mancanza di autonoma valutazione da parte del giudice per le indagini preliminari.
Nel decidere sul ricorso, la Corte ha esaminato il tema della motivazione “per relationem” e della tecnica del “copia-incolla”, evidenziando i rischi connessi all’utilizzo di strumenti informatici e, in particolare, di intelligenza artificiale nella redazione dei provvedimenti giudiziari.
Pur non censurando espressamente l’uso di sistemi di IA, la Corte ha colto l’occasione per esprimere una riflessione di principio sul ruolo delle tecnologie nel lavoro giudiziario.
La Suprema Corte ha riconosciuto che gli strumenti informatici possono agevolare la redazione dei provvedimenti, ma ha evidenziato come il loro utilizzo comporti un rischio crescente di perdita di autonomia decisionale.
Nel passaggio più rilevante si legge:
“L’uso di strumenti informatici agevola, sul piano pratico, la redazione dei provvedimenti giudiziari, ma al contempo aumenta il rischio — oggi esponenzialmente incrementato dall’irrompere sulla scena dell’intelligenza artificiale — che il giudice attinga aliunde gli argomenti del suo decidere, abdicando al dovere di apportare il suo ineliminabile ed insostituibile momento valutativo e facendo venir meno l’in sé del suo essere terzo ed imparziale.”
La Suprema Corte ha quindi chiarito che la funzione giurisdizionale non può essere in alcun modo automatizzata o delegata: la decisione deve sempre essere espressione di un ragionamento umano, critico e personale, frutto della valutazione autonoma del giudice.
Diverso il contesto, ma analogo il principio, nella pronuncia del TAR Lombardia n. 3348/2025, che ha riguardato l’uso dell’intelligenza artificiale da parte di un avvocato nella redazione di un ricorso amministrativo.
In questo caso, il difensore aveva depositato un atto contenente citazioni giurisprudenziali inesistenti e riferimenti privi di riscontro, prodotti mediante uno strumento di IA generativa.
Il TAR ha ritenuto la condotta incompatibile con i doveri di diligenza, lealtà e correttezza professionale, rigettando il ricorso e disponendo la trasmissione degli atti al Consiglio dell’Ordine per le valutazioni disciplinari.
Il Tribunale amministativo ha precisato che l’intelligenza artificiale può essere impiegata solo come supporto tecnico, ma non può sostituire la verifica e l’attività intellettuale del difensore, il quale resta sempre responsabile della correttezza e della veridicità delle argomentazioni presentate in giudizio.
Le due pronunce — Cassazione penale e TAR Lombardia — si collocano su fronti differenti, ma convergono su un principio univoco e fondamentale: l’intelligenza artificiale può essere un ausilio, ma mai un sostituto del giudizio umano.
Per la Cassazione, l’uso di IA da parte del magistrato deve limitarsi a strumenti di supporto tecnico o redazionale, con obbligo di mantenere il controllo critico e personale sulla decisione.
Secondo il TAR Lombardia, l’avvocato che si affida a sistemi di IA senza verifica viola i principi di diligenza, lealtà e correttezza professionale, esponendosi a responsabilità disciplinare.
Queste due decisioni delineano, in via giurisprudenziale, un modello di uso responsabile dell’IA nella giustizia, fondato su tre direttrici:
Tali principi anticipano l’approccio previsto dal Regolamento (UE) 2024/1689 – AI Act, che classifica l’utilizzo di sistemi di IA nella giustizia come “ad alto rischio”, imponendo obblighi di supervisione umana costante, trasparenza algoritmica e tracciabilità delle decisioni.
| Corte di Cassazione n. 34481/2025 | |
|---|---|
| Sintesi del caso | Ricorso contro ordinanza cautelare per asserita mancanza di autonoma valutazione da parte del G.I.P.; nel provvedimento impugnato erano state ampiamente riportate le informative della Guardia di Finanza con tecnica “per relationem” e “copia-incolla”. |
| Questione dibattuta | Se l’utilizzo di strumenti informatici e tecniche automatizzate (inclusa l’intelligenza artificiale) nella redazione dei provvedimenti giudiziari possa compromettere l’autonomia valutativa del giudice e rendere la motivazione meramente apparente. |
| Soluzione della Corte | La Corte ha ritenuto legittima la motivazione “per relationem” solo se il giudice mantiene il controllo critico sul contenuto richiamato. Ha ammonito che l’uso dell’intelligenza artificiale, pur utile sul piano operativo, non deve mai sostituire l’attività valutativa e personale del magistrato, pena la compromissione della sua imparzialità. |
| Principio affermato | L’intelligenza artificiale può essere uno strumento di supporto, ma il giudice deve conservare il suo momento valutativo umano e insostituibile. L’automazione non può sostituire la motivazione logico-giuridica personale. |
| TAR Lombardia n. 3348/2025 | |
|---|---|
| Sintesi del caso | Un avvocato ha utilizzato un sistema di intelligenza artificiale generativa per redigere un ricorso amministrativo, che conteneva riferimenti giurisprudenziali inesistenti e argomentazioni non verificabili. |
| Questione dibattuta | Se l’uso di IA da parte del difensore, senza adeguato controllo umano, violi i doveri di correttezza e diligenza professionale e incida sulla validità dell’atto processuale. |
| Soluzione del TAR | Il TAR ha dichiarato il ricorso infondato, ritenendo la condotta del difensore incompatibile con i doveri deontologici e ha disposto la trasmissione degli atti al Consiglio dell’Ordine per le valutazioni disciplinari. L’IA può essere impiegata solo come strumento di supporto, con pieno controllo umano sul contenuto generato. |
| Principio affermato | L’avvocato resta responsabile in via esclusiva del contenuto dell’atto processuale, anche se redatto con l’ausilio di IA. L’automazione non può sostituire la verifica, l’analisi e la responsabilità personale del professionista. |
Ai sensi dell'individuazione delle modalità semplificate per l'informativa e l'acquisizione del consenso per l'uso dei dati personali - Regolamento (UE) n.2016/679 (GDPR)
Questo sito non utilizza alcun cookie di profilazione. Sono invece utilizzati cookie di terze parti legati alla presenza dei "social plugin".