L’intelligenza artificiale e il futuro della democrazia: tra rappresentanza e partecipazione

Nel febbraio del 2025, mentre i leader mondiali si riunivano al Grand Palais di Parigi per il primo AI Action Summit co-presieduto da Emmanuel Macron e Narendra Modi, un dato passò inosservato tra le dichiarazioni programmatiche: secondo l’ultimo rapporto del V-Dem Institute, il livello di democrazia goduto dalla persona media nel mondo era tornato a livelli del 1985. Per la prima volta in vent’anni, i paesi democratici nel mondo erano diventati meno di quelli autocratici. Parallelamente, un esperimento condotto da ricercatori di Yale e del MIT dimostrava che l’intelligenza artificiale, opportunamente addestrata, poteva facilitare processi deliberativi che coinvolgevano migliaia di cittadini contemporaneamente, riducendo il tempo necessario da mesi a settimane, senza compromettere la qualità epistemica delle decisioni prodotte.

Queste due notizie apparentemente contraddittorie ci introducono al cuore di uno dei dilemmi più pressanti della nostra epoca: tra crisi democratica e rivoluzione tecnologica, l’intelligenza artificiale può rappresentare una risposta al declino della partecipazione civica, o ne accelera irrimediabilmente la disgregazione?

Il paradosso della democrazia contemporanea

La democrazia rappresentativa classica sta attraversando una crisi di legittimità multidimensionale. Da un lato, il divario tra istituzioni e cittadini si è ampliato: decisioni sempre più tecniche richiedono competenze specializzate che sfuggono alla maggioranza, mentre i meccanismi partecipativi tradizionali — consultazioni pubbliche, referendum, udienze — risultano sovente formali e inefficaci. Dall’altro, le piattaforme digitali hanno trasformato il dibattito pubblico in un arena di polarizzazione incessante, dove l’indignazione premia più della comprensione.

Come osserva Hélène Landemore, politologa a Yale, il problema centrale della democrazia deliberativa contemporanea risiede in una tensione apparentemente insanabile: da un lato, la deliberazione di qualità richiede numero ristretto di partecipanti; dall’altro, la legittimità democratica richiede la massa. Le assemblee cittadine sorteggiate (i cosiddetti mini-publics) si sono rivelate strumenti efficaci per produrre decisioni informate e ragionevoli, ma rimangono limitate a pochi centinaia di individui. L’ambizione di coinvolgere milioni di cittadini in processi autenticamente deliberativi è sempre apparsa utopistica, finché l’intelligenza artificiale non ha aperto scenari inediti.

Le tre promesse dell’AI per la democrazia

L’integrazione dell’intelligenza artificiale nei processi democratici presenta tre ambiti di applicazione distinti ma interconnessi, come documentato nel rapporto dell’OECD Governing with Artificial Intelligence pubblicato nel 2025.

Aumentare la scala della deliberazione. Piattaforme come Pol.is, sviluppata dalla Computational Democracy Project, utilizzano algoritmi di apprendimento automatico per analizzare posizioni di migliaia di partecipanti, identificare consensi emergenti e visualizzare divisioni in modo non polarizzante. A Taiwan, questa tecnologia ha consentito di coinvolgere 12 milioni di persone — quasi la metà della popolazione — in consultazioni su temi urbanistici e politiche pubbliche. Il sistema, adottato dal ministro digitale Audrey Tang, produce mappe interattive dove i cittadini possono esplorare aree di accordo con chi la pensa diversamente, trasformando il conflitto in opportunità di comprensione.

Rendere trasparente l’amministrazione. L’AI può ridurre drasticamente le barriere all’accesso informativo. Il governo statunitense sta sperimentando strumenti di intelligenza artificiale per revisionare documenti classificati in ottica di futura disclosure sotto il Freedom of Information Act. In Estonia, l’algoritmo “Bürokratt” semplifica l’interazione con la pubblica amministrazione: i cittadini possono ricevere informazioni personalizzate su servizi, agevolazioni e scadenze attraverso conversazioni naturali, eliminando la burocrazia come barriera alla partecipazione.

Facilitare il dibattito qualificato. Modelli linguistici avanzati possono svolgere funzioni di moderazione, sintesi e mediazione in discussioni di grande volume. Un esperimento condotto da ricercatori di Stanford ha dimostrato che l’AI, opportunamente configurata, può riassumere posizioni diverse rispettando le sfumature, identificare disinformazione in tempo reale e proporre domande che approfondiscono il dibattito anziché appiattirlo su slogan polarizzanti.

I rischi nel mirror: quando la tecnologia sostituisce la politica

Le promesse, tuttavia, celano insidie che ricordano i moniti di Evgeny Morozov sul “tecnosoluzionismo”: la pretesa che problemi politici complessi possano essere “risolti” attraverso strumenti tecnici. In questo caso specifico, l’adozione acritica dell’AI nella governance democratica presenta rischi almeno tre.

La deriva meritocratica. Se l’intelligenza artificiale seleziona argomenti, ordina priorità e filtra contributi in base a criteri algoritmici, chi definisce questi criteri? La ricerca pubblicata sul Journal of Deliberative Democracy nel 2025 evidenzia che molte piattaforme incorporate nei processi partecipativi contengono assunti impliciti che privilegiano certi tipi di discorso rispetto ad altri — tipicamente quello tecnico, neutrale, depoliticizzato — escludendo voci essenziali per la democrazia.

La fabbricazione del consenso. L’esperimento del “Grande Dibattito Nazionale” francese del 2019, analizzato da Landemore nella raccolta Conversations in Philosophy, Law, and Politics (Oxford University Press, 2024), dimostra i limiti della partecipazione digitale di massa. Benché avesse coinvolto due milioni di cittadini, il processo ha prodotto contributi così frammentati e contraddittori da risultare politicamente inutilizzabili. L’AI che sintetizza posizioni rischia di appianare dissensi sostanziali in apparenti consensi tecnici, normalizzando scelte che nascondono distribuzioni di potere.

L’effetto di esclusione. Come documenta lo studio pubblicato su Government Information Quarterly nel settembre 2025, l’informazione che un processo decisionale è mediato da intelligenza artificiale riduce la volontà di partecipazione di circa il 15%, generando una “penalità AI” che colpisce soprattutto gruppi vulnerabili. Se l’algoritmo appare come un attore autonomo con capacità epistemiche superiori, i cittadini comuni si sentono privi di competenze rilevanti, ritirandosi dal confronto pubblico.

Due visioni per un futuro democratico

Di fronte a questa complessità, la letteratura accademica ha proposto due modelli distinti per integrare l’AI nella democrazia deliberativa.

Il primo, denominato Mass Online Deliberation (MOD), immagina piattaforme pubbliche dove milioni di cittadini possono deliberare simultaneamente, con algoritmi che moderano, sintetizzano e strutturano il flusso informativo. Questa visione ha ispirato l’iniziativa “Democratic Inputs to AI” promossa da OpenAI nel 2023, che ha finanziato dieci team internazionali per sviluppare algoritmi che servano la deliberazione umana. I rapporti intermedi pubblicati nel 2024 mostrano risultati promettenti ma anche sfide tecniche e normative considerevoli: come garantire che la sintesi algoritmica non traduca i contenuti? come prevenire la manipolazione attraverso prompt engineering di massa?

Il secondo modello, proposto sempre da Landemore e denominato Many Rotating Mini-publics (MRM), prevede molteplici assemblee cittadine sorteggiate che si susseguono nel tempo, ciascuna affiancata da strumenti di AI che facilitano la preparazione, la discussione interna e la connessione con le assemblee precedenti. A differenza del MOD, questo approccio preserva l’intimità della deliberazione faccia a faccia — dimostrata empiricamente superiore per la formazione di giudizi ponderati — mentre l’AI gestisce la logistica, la traduzione tra gruppi linguistici, la sintesi di posizioni convergenti e la memoria istituzionale tra cicli assembleari successivi.

Il primo modello privilegia la scala, il secondo la qualità. Entrambi presentano compromessi irriducibili: il MOD rischia la superficialità, i MRM l’esclusività. La scelta tra i due — o la loro integrazione — è politica, non tecnica.

Come ricorda lo studio dell’Institution for Social and Policy Studies di Yale, condotto nell’aprile 2025, il successo di queste innovazioni dipende criticamente dalla percezione pubblica di legittimità. Se i cittadini percepiscono l’AI come un attore esterno che impone logiche opache, la fiducia si disgrega. Se invece la tecnologia viene incardinata in processi trasparenti, auditabili e sotto controllo democratico, può diventare un infrastruttura pubblica al pari delle strade o delle biblioteche.

Oltre la democrazia di consumo: verso la governance partecipativa algoritmica

La California, nel febbraio 2025, ha annunciato un nuovo programma di democrazia deliberativa alimentato da piattaforme digitali. Il caso è emblematico: lo stato più popoloso degli Stati Uniti, tradizionalmente avanguardia nelle sperimentazioni di democrazia diretta attraverso i referendum, riconosce l’insufficienza di meccanismi semplicemente aggregativi. La sfida del futuro prossimo non è solo votare più spesso, ma deliberare meglio.

Questa evoluzione ci conduce a interrogare una distinzione fondamentale spesso offuscata nell’entusiasmo tecnofilo: la differenza tra partecipazione e deliberazione. La partecipazione può essere quantitativa — più persone coinvolte — senza essere qualitativa. Le consultazioni online che raccolgono migliaia di contributi non producono automaticamente deliberazione: richiedono strutture che favoriscano l’ascolto reciproco, la revisione delle proprie posizioni alla luce di argomenti altrui, la ricerca di soluzioni che accettino compromessi ragionevoli.

In Italia, si segnalano esperienze significative che anticipano questo paradigma. L’Assemblea Permanente dei Cittadini sul Clima del Comune di Milano, attiva dal 2022, ha iniziato a sperimentare strumenti digitali per ampliare la portata delle sue consultazioni pur mantenendo la dimensione faccia a faccia del confronto. A Trento, il MUSE ha condotto nel 2024 una simulazione di assemblea cittadina con cinquanta partecipanti sorteggiati, dimostrando che processi curati di selezione demografica possono produrre microcosmi rappresentativi della popolazione. Il Piano Triennale per l’Informatica nella Pubblica Amministrazione italiana, aggiornato al 2025, include esplicitamente tra i suoi target l’identificazione di soluzioni nazionali fondate sull’intelligenza artificiale per migliorare l’interazione tra cittadini e istituzioni.

Tuttavia, questi esperimenti rimangono frammenti rispetto alla necessità di riconfigurare sistematicamente i rapporti tra potere e società. La sfida non è tecnica ma culturale: richiede che le amministrazioni pubbliche riconoscano la legittimità epistemica dei cittadini comuni, che non possiedono competenze tecniche specifiche ma detengono la conoscenza situata dei propri bisogni e dei valori che guidano le loro scelte. Solo una democrazia che accetta di apprendere dall’esperienza quotidiana delle persone può integrare l’IA senza subirla.

L’intelligenza artificiale, in questo senso, è uno strumento di secondo ordine. Può facilitare la deliberazione, ma non può sostituirla. Non può ancor meno definire i criteri di cosa sia ragionevole, giusto o legittimo. Quella rimane prerogativa del giudizio umano, collettivo, situato nella storia e nei conflitti della società.

Domande per il presente che arriva

Quando contempliamo il futuro della democrazia all’ombra dell’intelligenza artificiale, emergono interrogativi che richiedono risposte non meramente tecniche.

Come possiamo garantire che l’AI nella governance democratica non divenga uno strumento di “participation-washing” — come ha coniato l’attivista civico, una legitimitazione formale di decisioni già prese? Chi possiede i dati e gli algoritmi che mediano la nostra partecipazione politica? Quando una piattaforma privata gestisce la consultazione pubblica, chi controlla i confini del dibattito ammissibile?

E soprattutto: siamo disposti a riconoscere che la democrazia richiede tempo, impegno, conflitto? L’illusione che l’AI possa “risolvere” la politica risolve in realtà qualcos’altro: la stessa possibilità del dissenso legittimo, della diversità di visioni, della trasformazione radicale attraverso il confronto pubblico.

L’intelligenza artificiale non è né tabula rasa né destino inesorabile. È una costruzione sociale che riflette scelte di potere. Se vogliamo che contribuiga al rinsaldamento democratico anziché alla sua erosione, dobbiamo chiedere non se l’AI possa rendere la democrazia più efficiente, ma se possa renderla più autentica — più capace di esprimere la pluralità dei modi di vivere che la compongono, più attenta alle voci che la tecnica tradizionale ha escluso, più fedele all’idea che il potere legittimo scaturisce dal consenso di chi lo subisce.

La risposta non si troverà nei laboratori di machine learning, ma nelle piazze, nelle aule, nelle assemblee dove i cittadini ancora si incontrano per discutere il loro futuro comune. L’AI può aiutare a portare quelle voci più lontano, più in alto, più dentro le istituzioni. Ma non può sostituirle. La democrazia, anche nell’era algoritmica, resta un’arte che si impara praticandola insieme.

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo