Anthropic e il controllo umano nell’AI militare: un’analisi etica

Nel panorama dell’intelligenza artificiale contemporanea, pochi temi sollevano interrogativi etici più profondi della cosiddetta “responsabilizzazione algoritmica” nel contesto militare. Anthropic, uno dei principali laboratori di ricerca sull’AI, ha avanzato una posizione netta: l’obbligo di includere sempre l’essere umano nel ciclo decisionale (human in the loop), specialmente quando si tratta di applicazioni destinate o potenzialmente utilizzabili in ambito bellico. Questa scelta non è meramente tecnica, ma risponde a una visione filosofica profondamente radicata del rapporto tra tecnologia, responsabilità morale e dignità umana.

Il tema del controllo umano significativo (meaningful human control) rappresenta uno snodo cruciale nella filosofia dell’etica applicata all’intelligenza artificiale. Coniato nel contesto del dibattito sulle armi autonome letali (Lethal Autonomous Weapons Systems, LAWS), il concetto richiede che decisioni che coinvolgono l’uso della forza letale siano sempre soggette a supervisione, giudizio e consenso umano. Questa esigenza non è semplicemente prammatica: essa tocca il cuore stesso della nostra concezione di agenzia morale, responsabilità e giustizia.

La posizione di Anthropic: controllo umano come principio costituzionale

Anthropic ha integrato il principio del controllo umano significativo nella sua “Costituzione AI” — un insieme di valori e regole che guidano lo sviluppo e il comportamento dei suoi modelli linguistici. A differenza di molti competitor che trattano l’etica come un problema di compliance o di mitigazione del rischio reputazionale, Anthropic ha teorizzato il ruolo dell’essere umano come componente strutturale del sistema decisionale.

La scelta di mantenere l’uomo nel ciclo decisionale in ambiti sensibili, e in particolare nel contesto militare, risponde a una logica che va oltre il mero timore di malfunzionamenti tecnici. Come evidenziano i teorici dell’etica applicata, la presenza umana nel loop decisionale serve a garantire che le scelte che riguardano la vita e la morte siano operate da agenti morali dotati di senso della responsabilità, capaci di intendere e volere, e soggetti a valutazione etica. Un sistema automatizzato, per quanto sofisticato, manca di quegli attributi che rendono possibile l’attribuzione di responsabilità morale e giuridica.

Riferimenti dilosofici: dalla just war theory all’accountability algoritmica

La riflessione di Anthropic trova radici profonde nella tradizione della filosofia politica e morale occidentale. La Just War Theory sviluppata da Agostino, Tommaso d’Aquino e successivamente codificata da Grocio e Vattel pone al centro della legittimità del conflitto armato la nozione di “intenzione giusta” (right intention) e l’autorità legittima (legitimate authority). Come osserva la Stanford Encyclopedia of Philosophy, questi principi non ammettono delega a sistemi privi di coscienza morale: la decisione di ricorrere alla forza letale deve essere frutto di un giudizio umano consapevole, situato in un contesto di responsabilità morale.

Tommaso d’Aquino, nel De Regno e nella Summa Theologiae, distingueva chiaramente tra il giudizio sulla liceità della guerra (jus ad bellum) e la condotta nel suo svolgimento (jus in bello). Entrambi i livelli richiedono la presenza di un soggetto morale dotato di ragione pratica e capacità di discernimento etico. L’automazione completa delle decisioni belliche disgregerebbe questo nesso fondamentale tra agenzia e responsabilità, creando un vuoto etico che nessuna struttura istituzionale potrebbe colmare.

La posizione di Anthropic riecheggia inoltre le tesi del filosofo contemporaneo Luciano Floridi sulla responsibility nell’era digitale. Secondo Floridi, la diffusione di sistemi autonomi non può comportare una “diffusione della responsabilità” che finisca per annullarla. Al contrario, è necessario che ogni decisione algoritmica rilevante sia riconducibile a un soggetto umano iattamente responsabile. Questo principio, noto come accountability by design, richiede che i sistemi di AI siano progettati in modo da garantire tracciabilità e attribuzione delle decisioni.

Il principio di discernimento: civili vs combattenti

Un aspetto particolarmente rilevante del controllo umano nel loop militare riguarda il principio di discriminazione, uno dei pilastri del jus in bello. Come documenta l’Internet Encyclopedia of Philosophy, la distinzione tra combattenti e civili non-combattenti non è semplicemente una convenzione di convenienza, ma riflette una concezione profonda del valore della vita umana e della dignità della persona.

Nella tradizione della Just War Theory, solo coloro che assumono un ruolo attivo nel conflitto — indossando l’uniforme, portando le armi, assumendo la funzione combattente — perdono l’immunità dalla forza letale diretta. I civili, per definizione, rimangono al di fuori del campo di battaglia etico proprio perché non hanno rinunciato al loro diritto fondamentale alla vita attraverso un atto di scelta libera.

Un sistema AI completamente autonomo, anche se tecnicamente capace di distinguere tra obiettivi militari legittimi e presunti civili, mancherebbe della capacità morale di comprendere il significato etico di questa distinzione. La discriminazione, come sottolinea Michael Walzer in Just and Unjust Wars (1977), richiede non solo capacità percettiva ma anche giudizio morale contestuale — la capacità di valutare le circostanze particulari, di riconoscere casi limite, di applicare il principio di proporzionalità con senso di umanità.

Il problema della proporzionalità e della necessità

Oltre alla discriminazione, il jus in bello richiede che ogni azione militare soddisfi i criteri di proporzionalità e necessità. La proporzionalità non è un calcolo puramente matematico: essa richiede di pesare le sofferenze inflitte contro i benefici ottenuti in termini di obiettivi militari legittimi, tenendo conto di fattori quali l’incertezza, il rischio di effetti collaterali e il valore morale dei diversi tipi di danni.

Come evidenziano i teorici contemporanei della Just War Theory, la valutazione di proporzionalità deve essere modellata sull’incertezza dell’agente (expected harms e expected threats) e ponderata in base alla responsabilità diretta dell’agente per i danni causati. Questo tipo di giudizio pratico — che richiede non solo calcolo ma anche comprensione morale delle conseguenze — è intrinsecamente umano.

La necessità (necessity), come riconosciuto da Aquino e sviluppato nei trattati internazionali moderni, richiede che vengano utilizzati i mezzi meno dannosi tra quelli disponibili per raggiungere l’obiettivo militare. Qui ancora, la valutazione richiede una comprensione contestuale che va oltre la capacità algoritmica di ottimizzazione: richiede empatia, comprensione delle dinamiche sociali, riconoscimento della dignità dell’avversario anche in situazioni di conflitto.

La questione dell’autorità legittima e della responsabilità

La tradizione della Just War Theory ha sempre sottolineato l’importanza dell’autorità legittima (legitimate authority) come condizione necessaria per la liceità del ricorso alla guerra. Questa esigenza non è semplicemente formale: essa collega l’atto della guerra a una struttura di responsabilità politica e morale che garantisce che le decisioni siano prese in nome della comunità e siano soggette a una forma di controllo democratico o almeno rappresentativo.

Quando deleghiamo decisioni a sistemi automatizzati, priviamo questa struttura di responsabilità del suo elemento costitutivo: il soggetto umano che può essere chiamato a rispondere delle proprie azioni. Come osserva la letteratura etica contemporanea, questo crea un problema di “responsabilità diluita” (accountability gap): laddove nessun essere umano specifico può essere ritenuto moralmente responsabile per una decisione algoritmica, la possibilità stessa di giustizia viene meno.

Questo problema assume dimensioni particolarmente gravi nel contesto militare, dove le decisioni hanno conseguenze irreversibili sulla vita umana. Come osserva la letteratura sul jus in bello, il principio di responsabilità richiede che gli agenti di guerra siano tenuti responsabili delle proprie azioni — non solo per garantire la giustizia nei confronti delle vittime, ma anche per preservare l’integrità morale dei combattenti stessi, che devono poter tornare alla vita civile con la coscienza pulita.

La posizione di Anthropic nel contesto delle LAWS

La posizione di Anthropic si colloca nel più ampio dibattito sulle Armi Autonome Letali (Lethal Autonomous Weapons Systems, LAWS) che vede contrapposte diverse visioni etiche e geopolitiche. L’azienda californiana si allinea a quegli studiosi e attivisti che sostengono l’opportunità di un trattato internazionale che vieti lo sviluppo e l’impiego di sistemi d’arma completamente autonomi.

Questa posizione non è meramente tecnica, ma riflette una concezione antropologica fondamentale: l’essere umano non è solo un agente calcolatore di conseguenze, ma un soggetto morale dotato di dignità intrinseca, la cui presenza nel ciclo decisionale serve a garantire non solo l’efficacia ma anche la legittimità morale delle azioni compiute. Come sottolinea Michael Walzer, l’umanità nel giudizio bellico non è un optional, ma un requisito essenziale della stessa moralità della guerra.

La scelta di Anthropic di rifiutare contratti militari che comportino decisioni letali autonome rappresenta quindi un atto di resistenza etica significativo in un mercato dove le pressioni economiche e competitive spingono spesso verso la rimozione di “ostacoli” procedurali all’efficienza operativa.

Verso un’etica dell’accountability AI?

L’impegno di Anthropic per il mantenimento del controllo umano significativo nelle applicazioni militari dell’AI rappresenta un contributo importante al dibattito etico contemporaneo. Questa posizione, radicata nella tradizione della Just War Theory e sviluppata attraverso le idee contemporanee di accountability algoritmica, offre un modello per come le aziende tecnologiche possano assumere responsabilità morali che vanno oltre la mera compliance legale.

La questione fondamentale non è se l’intelligenza artificiale possa tecnicamente sostituire l’essere umano nel processo decisionale militare, ma se una tale sostituzione sia moralmente lecita e desiderabile. La risposta offerta dalla tradizione filosofica occidentale, e raffermata da Anthropic, è chiara: l’umanità non è un bug da correggere, ma una caratteristica essenziale del giudizio morale su questioni che riguardano la vita e la morte.

Nel momento in cui le nazazioni confrontano la tentazione di delegare a sistemi automatizzati decisioni sempre più critiche, la posizione di Anthropic ci ricorda che la tecnologia deve rimanere strumento del giudizio umano, non suo sostituto. Solo preservando questo nesso tra decisione e responsabilità, tra azione e giudizio morale, possiamo sperare di mantenere vivo il progetto di una guerra — quando inevitabile — almeno minimamente giusta.


Fonti consultate: Stanford Encyclopedia of Philosophy (“War”), Internet Encyclopedia of Philosophy (“Just War Theory”), Michael Walzer Just and Unjust Wars (1977), Luciano Floridi The Ethics of Artificial Intelligence.

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo