L’occhio algoritmico: sorveglianza, privacy e i confini della libertà nell’era dell’intelligenza artificiale

Nel febbraio del 2026, il Garante per la protezione dei dati personali di Amburgo ha comminato una sanzione di 492.000 euro a un istituto di credito per aver rifiutato automaticamente richieste di carta di credito basandosi esclusivamente su algoritmi, senza supervisione umana né spiegazioni adeguate. Questo episodio non è un incidente isolato, ma l’epifania di una trasformazione più profonda: l’intelligenza artificiale sta ridefinendo i confini tra sicurezza e sorveglianza, tra efficienza algoritmica e dignità umana. In un mondo dove ogni clic, ogni passo, ogni espressione facciale può essere catturato, analizzato e monetizzato, la privacy non è più una conquista acquisita, ma un territorio in continua riconquista.

Il capitalismo della sorveglianza: l’economia dell’esperienza umana

Per comprendere la natura dello scontro contemporaneo, è necessario richiamare il concetto di “capitalismo della sorveglianza” formulato dalla studiosa di Harvard Shoshana Zuboff. In contrapposizione al capitalismo industriale, che sfruttava la natura come materia prima, il capitalismo della sorveglianza reclama unilateralmente l’esperienza umana privata per tradurla in dati comportamentali. Ogni interazione digitale diviene materia estrattiva, ogni preferenza un bene commerciabile, ogni emozione una variabile predittiva.

L’intelligenza artificiale rappresenta l’evoluzione naturale di questo paradigma. Se i primi algoritmi di raccomandazione si limitavano a suggerire prodotti, i sistemi attuali modellano comportamenti, condizionano scelte e modificano preferenze attraverso architetture di modifica comportamentale su scala planetaria. Come osserva Zuboff, le poste in gioco non potrebbero essere più alte: un’architettura globale di manipolazione comportamentale minaccia la natura umana nel XXI secolo, così come il capitalismo industriale deturpava quella naturale nel XX.

La sorveglianza algoritmica non richiede più lo stato autoritario degli stereotipi distopici. L’analisi condotta dal ricercatore Francesco Macri evidenzia come, quando la conoscenza operativa del nemico passa attraverso sistemi capaci di integrare su larga scala dati commerciali, digitali e comportamentali, la distinzione tra sicurezza esterna e controllo interno si assottiglia. Non serve un progetto autoritario esplicito: la sorveglianza può emergere come effetto tecnico della correlazione algoritmica delle informazioni disponibili.

AI Act e GDPR: due regimi in tensione

La risposta normativa europea si articola principalmente attraverso due strumenti: il Regolamento Generale sulla Protezione dei Dati (GDPR), vigente dal 2018, e il Regolamento sull’Intelligenza Artificiale (AI Act), entrato in vigore nell’agosto del 2024. Se il primo stabilisce i principi fondamentali di trasparenza, correttezza e limitazione del trattamento automatizzato, il secondo introduce una tassonomia basata sul rischio e meccanismi di governance specifici per i sistemi di intelligenza artificiale.

Tuttavia, come documenta uno studio del Think Tank del Parlamento Europeo, emerge un’aperta tensione tra i due regimi. L’AI Act consente il trattamento di “categorie particolari di dati personali” per identificare e contrastare discriminazioni algoritmiche, basandosi su condizioni specifiche come le misure di preservazione della privacy. Il GDPR, al contrario, appare più restrittivo in questo ambito, specialmente per quanto concerne i dati sensibili. L’incertezza giuridica che ne deriva potrebbe richiedere riforme legislative o orientamenti interpretativi aggiuntivi.

La normativa italiana ha tentato di armonizzare questi imperativi attraverso la Legge 132/2025, che introduce il principio di “AI privacy by design”. Si profila così un diritto alla “portabilità algoritmica” che va oltre la semplice esportazione di dati, estendendo la valutazione d’impatto sulla protezione dei dati (DPIA) per includere rischi specifici dell’intelligenza artificiale. Le nuove Linee Guida del Ministero del Lavoro, adottate con decreto del dicembre 2025, impongono trasparenza, controllo umano e limiti alla sorveglianza nei rapporti di lavoro, riconoscendo che l’automazione dei processi decisionali non può erodere diritti fondamentali dei lavoratori.

La multa di Amburgo rappresenta un precedente significativo: essa sancisce che decisioni algoritmiche discriminatorie, anche quando mascherate da neutralità tecnica, incontrano la piena applicazione delle sanzioni previste dal GDPR. La trasparenza algoritmica non è più un’opzione etica, ma un obbligo giuridico.

Riconoscimento facciale: il volto come password

Il riconoscimento facciale rappresenta forse l’applicazione più visibile e allo stesso tempo più controversa dell’intelligenza artificiale nella sorveglianza contemporanea. Una ricerca pubblicata su Frontiers in Big Data descrive questa tecnologia come una “spada a doppio taglio”: offre benefici significativi in termini di sicurezza ed efficienza operativa, ma solleva questioni complesse riguardanti privacy, libertà civili ed etica.

L’adozione rapida di sistemi di riconoscimento facciale da parte delle forze dell’ordine ha generato controversie legali in molti paesi democratici. In Ungheria, ad esempio, il riconoscimento facciale è stato utilizzato per monitorare attivisti durante manifestazioni, sollevando interrogativi sulla compatibilità con le tutele europee per la libertà di espressione. Anche le aziende private hanno attirato critiche per l’estrazione non consensuale di dati biometrici: il caso di Clearview AI, che ha raccolto miliardi di immagini dai social media per costruire un database massiccio, esemplifica i rischi dell’uso commerciale non regolamentato.

Gli studiosi di etica hanno argomentato che i diritti alla privacy biometrica sono importanti proprio in virtù della loro stretta connessione con l’autonomia individuale. Sebbene questi diritti possano essere limitati in circostanze specifiche, come indagini delle forze dell’ordine su crimini gravi, esiste un confine oltre cui le intrusioni diventano eccessive e ingiustificate. Una banca dati nazionale biometrica per uso investigativo, soggetta a meccanismi di accountability appropriati, può essere accettabile; l’utilizzo di miliardi di immagini dai social media per sanzionare infrazioni minori, o peggio per istituire uno stato di sorveglianza, oltrepassa qualsiasi principio democratico di proporzionalità.

Oltre la sorveglianza: punteggi algoritmici e governance predittiva

La frontiera successiva della sorveglianza algoritmica si colloca nella governance predittiva e nei sistemi di credito sociale. Se il sistema cinese di social credit è spesso citato come caso estremo, analisi recenti suggeriscono che forme analoghe di punteggiatura algoritmica stanno emergendo anche in contesti democratici attraverso meccanismi più sottili. I sistemi di approvazione creditizia integrano ormai non solo dati finanziari tradizionali, ma anche parametri comportamentali ricavati dall’attività online, creando profili di rischio che influenzano accesso a finanziamenti, abitazioni e persino trattamenti sanitari.

Come evidenzia un’analisi pubblicata su Sage Journals riguardo al sistema cinese, i cittadini con punteggio inferiore a 599 diventano bersaglio di sorveglianza da parte delle forze dell’ordine e vengono privati di diritti a onori sociali come quello di “modello dipendente”. Il meccanismo non richiede una volontà totalitaria esplicita: emerge organicamente dalla correlazione algoritmica di dati eterogenei, dalle transazioni commerciali alle interazioni sociali.

Gli strumenti di moderazione algoritmica determinano quali opinioni sono accettabili online, modellando il discorso pubblico attraverso criteri opachi di classificazione. Se lasciati privi di controllo democratico, i modelli di credito sociale futuri potrebbero estendersi a relazioni personali, accesso alla sanità e partecipazione civica, erodendo quegli spazi di autonomia che definiscono la dignità umana.

Conclusione: la privacy come bene comune democratico

La sfida contemporanea non consiste nel rifiutare tout court l’intelligenza artificiale, ma nel definire i confini entro cui essa può operare senza compromettere i fondamenti della società aperta. La privacy, lungi dall’essere un privilegio individualistico o un lusso per pochi, rappresenta una condizione strutturale della democrazia: garantisce lo spazio per la dissidenza, protegge la formazione del pensiero critico, preserva la pluralità delle opinioni.

L’AI Act e il GDPR offrono un primo quadro normativo, ma la loro efficacia dipenderà dalla vigilanza democratica e dalla capacità delle istituzioni di adattarsi alla velocità dell’innovazione tecnologica. La multa di Amburgo dimostra che l’applicazione rigorosa delle norme esistente può fungere da deterrente, ma è solo un primo passo verso una governance algoritmica effettivamente democratica.

Di fronte all’occhio algoritmico che osserva, classifica e giudica ogni aspetto della nostra esistenza, emerge una domanda ineludibile: siamo disposti a barattare la convenienza dell’efficienza algoritmica con il prezzo della nostra autonomia, o lasceremo che sia la tecnologia a ridefinire i confini stessi di ciò che significa essere liberi?

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo