L’occhio algoritmico: privacy e sorveglianza nell’era dell’intelligenza artificiale

Nel febbraio del 2024, il Parlamento europeo ha approvato definitivamente l’AI Act‘, il primo regolamento globale sui sistemi di intelligenza artificiale. Tra le sue disposizioni più rigorose spicca il divieto assoluto di sviluppare o espandere database di riconoscimento facciale attraverso lo scraping non mirato di immagini da internet o da telecamere di sorveglianza. Questa misura, come evidenzia l’International Association of Privacy Professionals‘, rappresenta un punto di svolta nella regolamentazione delle tecnologie biometriche a livello mondiale.

La decisione europea arriva in un momento in cui l’intelligenza artificiale‘ sta trasformando radicalmente il panorama della sorveglianza. Secondo un’analisi di ImpACT International, senza quadri normativi adeguati, l’AI rischia di diventare uno strumento di “autoritarismo digitale”, minando la democrazia, indebolendo le libertà civili ed erodendo la fiducia sociale.

Ma questo scenario non è del tutto nuovo. Le dinamiche di controllo che oggi vediamo implementate attraverso algoritmi trovano radici profonde nella storia del pensiero occidentale.

La cattedrale di vetro: dal Panopticon al panoptismo digitale

Nella seconda metà del XVIII secolo, il filosofo Jeremy Bentham progettò il Panopticon: un edificio carcerario circolare che permetteva ai guardiani di vedere tutti i prigionieri senza essere visti. L’architettura stessa produceva una forma di autocontrollo.

Michel Foucault, in Sorvegliare e punire (1975), analizzò come il potere moderno operi attraverso la visibilità. Oggi, come osservano i ricercatori, il Panopticon si è trasformato in un ecosistema digitale che induce negli individui una forma di auto-addomesticamento.

La novità sta nell’asimmetria estrema tra chi osserva e chi è osservato. Nell’era algoritmica gli individui spesso ignorano completamente di essere tracciati, profilati e analizzati.

Il capitalismo della sorveglianza

La studiosa Shoshana Zuboff nel suo saggio Il capitalismo della sorveglianza (2019) sostiene che stiamo assistendo a una “nuova mutazione economica”. Le aziende estraggono valore dai dati comportamentali senza consenso informato.

Secondo Zuboff, Google ha svolto un ruolo pionieristico. Oggi il sistema è guidato da cinque multinazionali: Alphabet/Google, Apple, Meta/Facebook, Amazon e Microsoft. Il capitalismo della sorveglianza rappresenta una “minaccia esistenziale all’autonomia umana”.

Predizione e pregiudizio: il predictive policing

La polizia predittiva utilizza algoritmi per analizzare dati storici sui crimini. Tende a perpetuare i pregiudizi razziali esistenti nei dati storici, generando un circolo vizioso di auto-realizzazione.

La mancanza di trasparenza sui criteri decisionali rende impossibile contestare decisioni algoritmiche che possono cambiare radicalmente il destino degli individui.

L’AI Act come baluardo normativo

L’AI Act classifica i sistemi AI per livello di rischio. La legge italiana 132/2025 vieta algoritmi discriminatori. Il divieto di scraping di dati biometrici è assoluto. L’identificazione biometrica remota in tempo reale è vietata salvo eccezioni strette.

Il Garante per la protezione dei dati personali italiano ha richiamato che l’AI Act si fonda sull’articolo 16 del Trattato UE, la stessa base giuridica del GDPR.

Conclusione

L’intelligenza artificiale ci presenta una scelta fondamentale. Possiamo permettere che il Panopticon digitale si espanda senza controllo, o possiamo imporre limiti democratici alla sorveglianza algoritmica?

Come scrive Zuboff, siamo di fronte a una “battaglia per il futuro umano”. La posta in gioco non è solo la privacy, ma l’autonomia individuale, la dignità e la possibilità stessa di una società democratica.

La risposta europea con l’AI Act offre un modello alternativo al laissez-fare americano e al controllo autoritario cinese. Ma le norme da sole non bastano. Serve una cultura digitale consapevole, capace di riconoscere che il progresso tecnologico non è neutrale — porta sempre con sé scelte politiche e morali. E sta a noi decidere quale futuro vogliamo abitare.

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo