La bilancia algoritmica: intelligenza artificiale e trasformazione della giustizia

Nel marzo 2025, quando il Consiglio Superiore della Magistratura italiano ha emesso le prime linee guida sull’uso dell’intelligenza artificiale nei tribunali, pochi avvocati si sarebbero aspettati di trovarsi a discutere di apprendimento automatico durante le udienze. Eppure, tra normative europee e modelli algoritmici sempre più sofisticati, la giustizia sta attraversando una trasformazione che mette in discussione le basi stesse del ragionamento giuridico: l’automazione delle decisioni giuridiche non rappresenta più una prospettiva lontana, ma una realtà che impone risposte urgenti su trasparenza, responsabilità e controllo umano.

L’algoritmo entra in aula

La prima applicazione sistematica di strumenti di intelligenza artificiale nei sistemi giudiziari moderni risale alla diffusione di software come COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) negli Stati Uniti. Secondo una inchiesta di ProPublica nel 2016, questo sistema utilizzato in 46 stati americani per valutare il rischio di recidiva ha mostrato bias sistematici: gli imputati neri venivano classificati come ad alto rischio con il doppio della frequenza rispetto agli imputati bianchi, anche quando alla fine non commettevano reati successivi.

L’analisi rivelò un problema più profondo di quello che sembrava. Northpointe, l’azienda che sviluppò COMPAS, difese l’algoritmo sostenendo che funzionava esattamente come previsto; il problema, spiegarono, risiedeva nei dati di addestramento che riflettevano disparità razziali preesistenti nel sistema di polizia e di giustizia americano. Come osserva Lily Hu, ricercatrice di Harvard, in un’analisi su Massive Science, l’uso di algoritmi in contesti sociali caratterizzati da discriminazione sistemica è un “problema politico, non tecnologico”, dove anche un algoritmo perfettamente accurato finisce per perpetuare pregiudizi strutturali.

Questo scenario non è confinato agli Stati Uniti. In Italia, la Legge n. 132 del 2025 e il Regolamento UE 2024/1689 (AI Act) pongono l’amministrazione della giustizia nella categoria dei sistemi di intelligenza artificiale “ad alto rischio”, imponendo rigorosi requisiti di trasparenza, spiegabilità e sorveglianza umana.

Le fondamenta giuridiche in gioco

L’integrazione dell’intelligenza artificiale negli ambiti giudiziari solleva questioni che toccano i principi costituzionali fondamentali. L’articolo 101 della Costituzione italiana stabilisce che l’esercizio della giurisdizione è funzione fondamentale dello Stato svolta dalla magistratura, un’attività che combina conoscenza normativa ed interpretazione alla luce dell’evoluzione giurisprudenziale. Come evidenzia un’analisi su Agenda Digitale, tale attività “non può essere delegata a strumenti opachi, ancorché di tipo specialistico, pensati per soddisfare logiche di mercato”.

Il cuore del problema risiede nella tensione tra due dimensioni apparentemente inconciliabili: da un lato, la promessa di efficienza e calcolabilità che l’automazione algoritmica sembra offrire per alleggerire i tempi dei processi; dall’altro, la natura inclusivamente umana, dialettica e garantista dell’accertamento giuridico. La giustizia richiede interpretazione, valutazione delle circostanze concrete, ascolto della voce delle parti. Elementi difficilmente riducibili a pattern computazionali.

Un aspetto particolarmente delicato riguarda la riserva di umanità nella decisione. L’AI Act richiede che i sistemi di intelligenza artificiale per l’amministrazione della giustizia siano soggetti a “controllo umano significativo”, vietando che decisioni che producono effetti giuridici rilevanti siano affidate esclusivamente a sistemi automatizzati. Questo principio, ribadito dall’articolo 15 della Legge italiana n. 132/2025, impone che l’intelligenza artificiale possa essere utilizzata solo per finalità strumentali, mai come sostituto del ragionamento del professionista.

Il paradosso della trasparenza

Uno degli ostacoli maggiori nell’adozione di strumenti di intelligenza artificiale nella giustizia risiede nella cosiddetta “scatola nera” algoritmica. Molti sistemi di machine learning, in particolare quelli basati su reti neurali profonde, operano come sistemi opachi anche per i loro stessi sviluppatori: forniscono output senza poter spiegare completamente il percorso logico seguito per arrivarvi.

Questa opacità entra in conflitto diretto con il principio di motivazione delle decisioni giudiziarie. L’articolo 111 della Costituzione richiede che tutti i provedimenti giurisdizionali siano motivati; un giudice che si basasse su un algoritmo incomprensibile violerebbe questo principio, privando le parti della possibilità di comprendere e, eventualmente, impugnare la logica sottostante la decisione.

La questione non è puramente teorica. Lo studio dell’Agenzia per i Diritti Fondamentali dell’UE, pubblicato nel novembre 2025, ha analizzato 31 strumenti digitali in sette paesi membri, evidenziando rischi significativi per vittime, querelanti e imputati. Le aziende sviluppatrici di software giudiziari spesso rivendicano la proprietà intellettuale dei loro algoritmi, oppongendosi alla divulgazione del codice sorgente e ostacolando così qualsiasi verifica indipendente di correttezza e assenza di bias.

Il futuro dell’avvocato e del giudice

Non tutte le applicazioni dell’intelligenza artificiale nella giustizia sollevano problemi così profondi. L’uso di strumenti di analisi documentale per la revisione di fascicoli, la ricerca di precedenti giurisprudenziali, la gestione amministrativa dei processi rappresenta un’area dove gli algoritmi possono effettivamente liberare professionisti da compiti ripetitivi, permettendo loro di concentrarsi sulle attività a maggior valore cognitivo.

Questa trasformazione porta a emergere la figura dell'”avvocato aumentato”: un professionista che, secondo Agenda Digitale, è “capace di delegare attività ripetitive e analisi documentali noiose a copiloti digitali per concentrarsi sulla strategia difensiva”. Tale evoluzione richiede però nuove competenze: la comprensione dei limiti e dei rischi degli strumenti algoritmici diventa parte essenziale della formazione giuridica.

Per il giudice, la sfida è ancora più complessa. La Carta Etica della CEPEJ del 2018 ha sancito che l’intelligenza artificiale deve rimanere un ausilio per migliorare l’efficacia della giurisdizione senza lederne l’indipendenza. La delibera del Consiglio Superiore della Magistratura dell’8 ottobre 2025 ha fornito raccomandazioni operative, ponendo l’accento sulla necessità di un approccio critico e consapevole all’uso di strumenti automatici.

Oltre la retorica tecnologica

La discussione sull’intelligenza artificiale nella giustizia rischia spesso di essere polarizzata tra entusiasti incorreggibili, che vedono negli algoritmi la soluzione definitiva per l’inefficienza del sistema giudiziario, e scettici radicali, che rifiutano qualsiasi forma di automazione. Entrambe le posizioni perdono di vista la complessità della sfida.

La verità, come spesso accade, si colloca in una zona intermedia. L’intelligenza artificiale nella giustizia non è né panacea né minaccia esistenziale: è uno strumento che, come tutti gli strumenti tecnologici, necessita di un inquadramento normativo chiaro, di meccanismi di verifica e accountability effettivi, e di una cultura professionale consapevole dei suoi limiti. L’obiettivo non deve essere la sostituzione del giudizio umano, ma il suo potenziamento.

Gli algoritmi eccellono nella gestione di grandi quantità di dati e nell’individuazione di pattern; il diritto e la giustia richiedono invece valutazione di merito, bilanciamento di interessi, comprensione del contesto storico-sociale, capacità di empatia e compassione. Queste dimensioni restano irriducibilmente umane, e ogni tentativo di delegarle completamente a sistemi artificiali finisce per svuotare di significato la stessa idea di giustizia.

Come evidenziato dalla ricerca di ProPublica, anche algoritmi tecnicamente sofisticati possono perpetuare ingiustizie se non inseriti in un quadro di governance adequato. La strada per una giustizia digitale responsabile passa attraverso la trasparenza radicale, il controllo democratico, la formazione continua e la resistenza culturale contro la tentazione di demandare al machine learning decisioni che richiedono la piena assunzione di responsabilità umana.

Domande aperte

L’ingresso dell’intelligenza artificiale nei tribunali solleva interrogativi che non troveremo risposte definitive nei manuali tecnici, ma che richiedono un dialogo continuo tra tecnici, giuristi e società civile.

Quando un algoritmo può essere considerato sufficientemente spiegabile per supportare una decisione giuridica? Chi è responsabile quando un sistema automatizzato produce un errore che ledere i diritti di un cittadino? Come possiamo garantire che i dati storici utilizzati per addestrare questi sistemi non ripetano e amplifichino discontinuità già esistenti nel sistema giuridico?

La Legge n. 132/2025 e l’AI Act rappresentano passi significativi verso un quadro normativo robusto, ma la loro efficacia dipenderà dall’interpretazione che magistrati e avvocati sapranno darne nelle aule di giustizia. L’algoritmo, alla fine, è solo uno strumento; spetta ancora agli esseri umani decidere che tipo di giustizia vogliamo costruire nell’era digitale.

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo