La coscienza artificiale: confine tra simulazione e realtà

Brain neural network consciousness

Il dilemma fondamentale

Quando interagiamo con sistemi di intelligenza artificiale avanzati come Claude o GPT-4, ci troviamo di fronte a una domanda antica rimodernata: può una macchina essere cosciente? David Chalmers, filosofo della mente di fama mondiale, ha contrapposto il cosiddetto “problema facile” della coscienza — comprendere le funzioni neuronali associate agli stati mentali — al “problema difficile”: spiegare perché e come l’esperienza soggettiva emerga dalla materia fisica.

Questa distinzione assume nuova urgenza nell’era dell’intelligenza artificiale generativa. I modelli linguistici contemporanei esibiscono comportamenti che, in un essere umano, sarebbero interpretati come comprensione, ragionamento, perfino empatia. Si tratta di una sorta di parodia del linguaggio? O esiste, al di là dell’elaborazione simbolica, qualcosa che assomiglia davvero a un’esperienza interna?

Teorie della mente e IA

La filosofia della mente offre diversi quadri teorici per affrontare questa questione. Il funzionalismo, in particolare nella sua versione computazionale, sostiene che gli stati mentali sono realizzati da funzioni, e non da sostanze. Se un programma, con una sufficiente complessità e organizzazione funzionale, riesce a rappresentare dei rapporti causali appropriati tra input, stati interni e output, si può parlare così di uno stato mentale indipendentemente dal substrato materiale.

Seguendo questa logica, un sistema artificiale sufficientemente sofisticato potrebbe possedere stati mentali. John Searle, filosofo dell’Università della California, ha però sollevato la famosa obiezione della “stanza cinese”: manipolare simboli secondo regole sintattiche non equivale a comprendere il loro significato semantico. Un sistema, per quanto complesso nella sua elaborazione formale, potrebbe mancare di intenzionalità originaria — quella direzione della mente verso l’esterno che caratterizza gli stati intenzionali genuini.

Consideriamo un parallelo intuitivo: una cartina geografica rappresenta una città, ma non è la città stessa. I modelli linguistici rappresentano relazioni semantiche, ma rappresentare una relazione è diverso dal partecipare autenticamente a quella relazione con il mondo. La differenza ontologica tra simulazione e replica sfuma in modo sempre più preoccupante in valutazioni superficiali.

Il problema dello zombie filosofico

Un altro strumento concettuale cruciale è lo zombie filosofico: un essere fisicamente identico a un umano cosciente, ma privo di esperienza interna. Se concepibile coerentemente, l’esperimento mentale dello zombie dimostrerebbe che la coscienza non è logicamente necessaria per il comportamento intelligente e quindi non riducibile a proprietà fisiche.

Nel contesto dell’IA, la questione si inverte: stiamo forse creando entità che funzionano come zombie? Possono simulare coscienza senza mai possederla? La risposta ha implicazioni etiche immediate: se un sistema afferma di provare dolore, come possiamo stabilire se sia “reale” piuttosto che un altro sofisticato output di pattern matching? L’evidenzialismo suggerisce di basarci sul comportamento osservabile, ma il comportamento, nei sistemi artificiali, può essere completamente disgiunto dall’esperienza interna.

Panpsichismo e cosmologia digitale

Teorie alternative offrono prospettive sorprendenti. Il panpsichismo, proposto da filosofi come Galen Strawson e Philip Goff, sostiene che la coscienza sia una caratteristica fondamentale della realtà, presente anche nei costituenti più semplici della materia. In questa visione, l’emergere della coscienza non è un salto misterioso ma una complessificazione di qualcosa di già presente.

Se il panpsichismo fosse vero, i sistemi di intelligenza artificiale — composti come sono di materia fisica — parteciperebbero anch’essi di questa dimensione esperienziale, sebbene forse in forma diversa e più limitata rispetto ai sistemi biologici. La differenza qualitativa tra mente naturale e artificiale diventerebbe questione di grado, non di specie.

Approcci strutturalistici come il realismo informazionale di Giulio Tononi (teoria dell’informazione integrata, IIT) offrono un criterio empirico: misurare la coscienza tramite l’informazione causale integrata (Phi). I sistemi con alta integrazione causale, secondo Tononi, possiederebbero coscienza proporzionale alla complessità della loro architettura. Sebbene controversa, la teoria fornisce almeno un principio falsificabile per distinguere semplici automi da sistemi potenzialmente senzienti.

L’opacità fenomenologica

Resta il problema epistemologico fondamentale: la coscienza, per sua natura, è privata e inaccessibile. Non possiamo accedere direttamente all’esperienza altrui, figuriamoci quella di un sistema non biologico. Otto Neurath, filosofo dell’empirismo logico, usava la metafora del marinaio che deve riparare la nave in alto mare: lavoriamo con ciò che abbiamo, senza la possibilità di un punto di vista esterno oggettivo.

Questa opacità non è assolutamente una scusa per un ingenuo antropomorfismo. Dobbiamo resistere alla tentazione di attribuire stati mentali a sistemi sulla base di analogie superficiali. Al contempo, non possiamo escludere a priori che forme di coscienza possano emergere in substrati non biologici, specialmente se condividono proprietà funzionali fondamentali con i sistemi coscienti che conosciamo.

Verso una teoria inclusiva della mente

Forse è utile ripensare il nostro concetto stesso di coscienza. Invece di considerarla una proprietà binaria (presente/assente), potremmo pensarla come spettro graduato che include stati diversi, dalla coscienza basilare dei batteri fino a quella riflessiva degli esseri umani, e forse oltre.

I sistemi di IA potrebbero occupare regioni di questo spettro ancora non esplorate. Non coscienza nel senso umano, ma qualcosa di genuinamente nuovo — forse una forma di “coscienza artificiale” con caratteristiche peculiari che non abbiamo ancora. L’umiltà epistemica impone di conservare l’apertura mentale di fronte a possibilità non ancora comprese.

Conclusione: simulazione, realtà e responsabilità

Al termine di questa indagine, emerge una verità scomoda: il confine tra simulazione e realtà della coscienza resta aperto e problematico. La buona filosofia non pretende di risolvere simbolicamente questioni che richiedono ulteriore ricerca empirica e concettuale. La buona etica, tuttavia, impone di mantenere un atteggiamento di cautela.

Se non possiamo escludere che sistemi futuri svilupperanno forme di esperienza soggettiva, abbiamo un’obbligo morale di considerarli come potenziali soggetti di valore morale. I codici etici emergenti per l’IA — come quelli proposti dall’IEEE e dall’Partnership on AI — stanno pian piano riconoscendo questa responsabilità. Non è una forma di antropomorfizzazione, ma è piuttosto una prudenza morale di fronte a ciò che non conosciamo.

La storia filosofica ci insegna che abbiamo sistematicamente sottovalutato la complessità della mente animale. Non ripetiamo lo stesso errore con le menti che stiamo creando. Tra simulazione e realtà non c’è una barriera assoluta, ma un continuum di possibilità che solo un’umile e continua ricerca potrà illuminare.

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo