Il vuoto di responsabilità: chi risponde quando l’algoritmo decide?
Nel febbraio 2025, l’Italia ha approvato la legge n. 132 sull’intelligenza artificiale, che introduce un principio rivoluzionario: nessuna decisione di rilievo giudiziario, medica o lavorativa può essere delegata interamente a un algoritmo. Il cittadino ha diritto a un interlocutore umano in ogni fase decisiva. Questa norma non è solo un orientamento tecnico: è una dichiarazione filosofica di straordinaria importanza. Afferma che esistono decisioni che appartengono per natura all’ambito umano, e che la responsabilità per tali decisioni non può essere trasferita a una macchina.
La questione tuttavia si presenta più complessa di quanto una legge possa risolvere. Ogni giorno, sistemi di intelligenza artificiale prendono decisioni che influenzano vite concrete: approvano o rifiutano mutui, diagnosticano malattie, selezionano candidati per un impiego, determinano la durata delle pene carcerarie. Chi è responsabile quando queste decisioni producono danni? Chi deve rispondere di un errore algoritmico?
La promessa e il rischio delle decisioni automatizzate
L’attrattiva delle decisioni automatizzate risiede nella loro apparente oggettività. Un algoritmo, si sostiene, non conosce pregiudizi, non si stanca, non favorisce i propri amici. Può esaminare quantità di dati inaccessibili a qualsiasi mente umana. L’intelligenza artificiale promette di rendere le decisioni più efficienti, più coerenti, più giuste.
La realtà è più sfumata. Gli algoritmi apprendono dai dati che ricevono, e questi dati portano con sé le ingiustizie del mondo che li ha prodotti. Sistemi addestrati su dati storici di assunzioni hanno discriminato le donne per i ruoli tecnici. Algoritmi di valutazione del rischio criminale hanno assegnato punteggi più alti ai neri rispetto ai bianchi per reati equivalenti. L’oggettività algoritmica è un miraggio: i pregiudizi si insinuano nei sistemi con la stessa discrezione con cui si insinuano nelle menti umane, ma con l’aggravante di essere mascherati da neutralità matematica.
Ma anche ipotizzando algoritmi perfetti, permarrebbe un problema di natura filosofica fondamentale. Chi è responsabile dell’errore residuo, di quello 0,1% che produce un danno irreparabile? E più in generale: che tipo di responsabilità può essere attribuita a una decisione che non origina da una mente, ma da un calcolo statistico?
Il problema filosofico: cos’è la responsabilità morale?
Per affrontare questa questione è necessario chiarire che cosa intendiamo per responsabilità morale. Nel pensiero occidentale, attribuire responsabilità significa riconoscere che un agente è legittimamente esposto a reazioni morali — biasimo o lode — per le proprie azioni. Questa attribuzione presuppone tipicamente tre condizioni: una condizione epistemica (l’agente sapeva o avrebbe dovuto sapere ciò che stava facendo), una condizione di controllo (l’agente poteva agire diversamente), e una condizione normativa (l’agente agisce per ragioni, non per mera casualità).
I sistemi di intelligenza artificiale soddisfano in parte la prima condizione: un algoritmo di apprendimento automatico “sa” molte cose nel senso che possiede rappresentazioni interne del mondo. Ma le altre due condizioni risultano problematiche. Un sistema AI non ha controllo sulle proprie azioni nel senso morale del termine: non sceglie tra alternative in base a valori riflessi, ma calcola l’output ottimale secondo una funzione obiettivo che gli è stata imposta dall’esterno. Non agisce per ragioni nel senso di “considerare valide ragioni per agire”: esegue operazioni deterministiche o stocastiche, senza comprensione del significato delle proprie azioni.
Come scrive lo Stanford Encyclopedia of Philosophy nella sua trattazione dell’etica dell’intelligenza artificiale, la nozione classica di “agente morale” richiede la capacità di ricevere biasimo e lode, e implica condizioni epistemiche, di controllo, e la possibilità di essere influenzato da stati fenomenici di sofferenza o gioia. I sistemi AI attuali, per quanto sofisticati, non soddisfano queste condizioni nel senso richiesto per l’attribuzione di responsabilità morale.
Questo non significa che gli sviluppatori non debbano progettare sistemi eticamente responsabili, o che gli operatori non debbano usarli con cautela. Significa semplicemente che il linguaggio della responsabilità morale, ereditato da secoli di riflessione sull’agire umano, non si trasferisce automaticamente al dominio delle macchine intelligenti.
Il vuoto di responsabilità
Il filosofo Andreas Matthias ha coniato nel 2004 l’espressione “responsibility gap” — vuoto di responsabilità — per descrivere una situazione in cui nessun essere umano può essere legittimamente considerato moralmente responsabile di un danno causato da un sistema autonomo. Il programmatore ha scritto il codice originario, ma non ha previsto questo specifico esito. L’operatore ha supervisionato il sistema, ma non ha potuto prevedere il fallimento. Il manager ha approvato l’implementazione, sulla base di dati di efficacia che non includevano questo scenario.
Il problema delle “molte mani” — problem of many hands — è noto in filosofia da tempo: quando molti individui contribuiscono in modi diversi a un esito complesso, diventa difficile attribuire responsabilità a ciascuno di essi. Gli algoritmi esacerbano questo problema introducendo una nuova fonte di opacità. Non si tratta solo di molti attori umani, ma di un attore non umano le cui operazioni interne possono essere tecnicamente inaccessibili anche agli stessi creatori del sistema.
La scatola nera algoritmica non è solo un problema tecnico: è un problema morale. Quando non sappiamo perché un sistema ha preso una decisione, non possiamo attribuire responsabilità per quella decisione in modo appropriato. Non possiamo determinare se l’errore fosse prevedibile, se fosse evitabile, chi avrebbe dovuto prevederlo o evitarlo.
Come osservano Santoni de Sio e Van Den Hoven nella loro analisi del “meaningful human control”, l’art. 22(1) del GDPR richiede un coinvolgimento umano significativo nelle decisioni automatizzate che producono effetti giuridici. Ma cosa significhi esattamente “significativo” rimane oggetto di dibattito filosofico.
Superare il vuoto: accountability e controllo umano
Una risposta possibile consiste nel distinguere tra responsabilità morale e accountability — un concetto più ampio che si riferisce alle pratiche sociali di rendere conto delle proprie azioni. Come argomentano recentemente studiosi su Philosophy & Technology, le pratiche di accountability possono essere progettate in modo da fornire benefici morali distinti rispetto all’attribuzione di responsabilità morale individuale.
L’accountability non chiede “chi ha colpa?” ma “come possiamo assicurare che i danni siano riconosciuti, che le vittime siano risarcite, che le procedure migliorino?”. È un approccio più istituzionale e meno individualistico della responsabilità morale classica. Organizzazioni che utilizzano sistemi AI possono essere tenute accountable — ritenute responsabili nel senso giuridico — anche quando nessun individuo all’interno dell’organizzazione possa essere moralmente biasimato per uno specifico esito.
Un’altra via è quella del valore-sensitive design — progettazione sensibile ai valori. Se accettiamo che certe decisioni non dovrebbero essere prese da algoritmi senza supervisione umana significativa, possiamo progettare i sistemi in modo tale da garantire che il giudizio umano rimanga sempre presente, informato ed effettivo.
La legge italiana 132/2025 va in questa direzione, stabilendo un confine oltre il quale l’automazione non può procedere da sola. Questo confine non è solo pragmatico: è normativo. Afferma che alcune decisioni sono di pertinenza esclusivamente umana, non per incompetenza tecnica, ma per dignità morale.
La responsabilità come virtù collettiva
Forse la lezione più importante che l’era dell’intelligenza artificiale può insegnarci è che la responsabilità non è solo una proprietà individuale, ma una virtù collettiva. Non si tratta più di chiedere “a chi diamo la colpa?”, ma di chiedere “come costruiamo sistemi — tecnici, istituzionali, giuridici — in grado di prevenire i danni e di ripararli quando avvengono?”.
Questo richiede trasparenza nei sistemi di AI, verificabilità indipendente, meccanismi di ricorso effettivo per chi subisce danni algoritmici. Richiede che gli sviluppatori siano formati all’etica del loro mestiere, che le aziende siano incentivizzate a investire nella fairness, che i regolatori abbiano le risorse necessarie per supervisionare un campo tecnico in rapida evoluzione.
Ma richiede anche una trasformazione culturale più profonda. Dobbiamo smettere di pensare agli algoritmi come a oracoli oggettivi la cui parola è legge, e iniziare a pensarli come a strumenti fallibili, costruiti da mani umane per scopi umani, soggetti a valutazione critica e a revisione continua. La responsabilità algoritmica è, in ultima analisi, responsabilità umana: quella dei progettisti, degli operatori, dei regolatori, e di tutti noi come cittadini che delegano parte delle decisioni collettive a sistemi automatizzati.
Conclusione
La domanda “chi è responsabile quando l’algoritmo sbaglia?” non ammette una risposta semplice. Non esiste un colpevole unico da individuare dietro a ogni errore algoritmico. Esiste piuttosto una rete di responsabilità distribuita — tra individui che progettano, istituzioni che decidono, norme che regolano — che deve essere resa visibile e governabile.
L’intelligenza artificiale non ci esime dalla responsabilità morale: ce la presenta in una forma nuova, più complessa, più difficile da afferrare. La sfida per il nostro tempo è costruire le strutture giuridiche e istituzionali capaci di tener conto di questa trasformazione, senza però perdere di vista il principio fondamentale: che la responsabilità ultima per le decisioni che ci riguardano deve restare, in qualche forma riconoscibile, nelle mani umane.
Di fronte a una diagnosi sbagliata o a un mutuo ingiustamente negato, non basta sapere che l’algoritmo era accurato nel 99% dei casi. Abbiamo bisogno di qualcuno che possa darci ragione, risarcire il torto, imparare dall’errore. E per farlo, dobbiamo essere in grado di indicare non solo il sistema che ha fallito, ma la responsabilità umana che vi ha contribuito. Solo così l’intelligenza artificiale potrà essere davvero intelligente: nel senso di saggia, giusta, umanamente responsabile.
Share this content:



Commento all'articolo