La Stanza Cinese e il mistero della coscienza artificiale

Quando un computer supera gli esami di medicina o scrive poesie, può davvero dirci di “capire” qualcosa? La domanda che da decenni catalizza la filosofia della mente torna a tormentarci all’epoca dei modelli linguistici di grande dimensione.

La stanza cinese pensante

Nel 1980, il filosofo John Searle della University of California, Berkeley, presentò un esperimento mentale destinato a scuotere le fondamenta della ricerca sull’intelligenza artificiale. L’argomento della Stanza Cinese, come divenne noto, propone uno scenario apparentemente semplice che pone in crisi l’idea stessa di coscienza artificiale.

Immaginiamo, sostenne Searle, un anglofono che non conosce una parola di cinese, chiuso in una stanza piena di scatole contenenti simboli cinesi — una sorta di database — insieme a un libro di istruzioni per manipolarli — il programma. Persone all’esterno della stanza inviano simboli che, senza che l’uomo lo sappia, sono domande in cinese — l’input. Seguendo pedissequamente le istruzioni nel libro, l’uomo riesce a restituire simboli cinesi che costituiscono risposte corrette — l’output.

Il programma consente alla persona nella stanza di superare il Test di Turing per la comprensione del cinese, eppure l’uomo non comprende una parola di cinese. Il punto dell’argomento è limpido: se l’uomo nella stanza non capisce il cinese sulla base dell’implementazione del programma, neppure un computer può farlo basandosi unicamente su quello, perché nessun computer, in quanto tale, possiede qualcosa che l’uomo non abbia.

La sfida di Turing

Per comprendere appieno la portata dell’argomento di Searle, dobbiamo tornare indietro di trent’anni. Nel 1950, Alan Turing, uno dei teorici pionieri dell’informatica, pubblicò un articolo seminale che avrebbe definito il paradigma per la valutazione dell’intelligenza artificiale per decenni a venire.

Turing proponeva ciò che ora conosciamo come il Test di Turing: se un computer riesce a convincere un esaminatore umano di essere umano in una conversazione scritta, dovremmo riconoscergli intelligenza. Sulla base delle capacità dimostrate nei confronti di scacchi, giochi televisivi come Jeopardy, e più recentemente nella scrittura di saggi universitari e poesie, sembrerebbe che attività che richiedono comprensione e intelligenza possano essere eseguite da macchine.

Turing prevedeva che entro cinquant’anni i computer avrebbero raggiunto una capacità di archiviazione di circa 10^9 bit e sarebbero stati programmati per giocare così bene il “gioco dell’imitazione” che un esaminatore medio non avrebbe avuto più del 70% di probabilità di effettuare la corretta identificazione dopo cinque minuti di interrogatorio. Le predizioni di Turing sulle capacità tecniche si sono in parte avverate: i modelli linguistici di grande dimensione (LLM) di oggi non solo passano esami di medicina e legge, ma generano testi che, se fossero prodotti da un umano, sarebbero considerati frutto di profonda comprensione.

La distinzione cruciale: sintassi versus semantica

Al cuore dell’argomento di Searle risiede una distinzione filosofica fondamentale: quella tra sintassi e semantica. La computazione, argomenta Searle, è definita puramente formalmente o sintatticamente: si tratta di manipolare simboli secondo regole. La mente umana, invece, possiede contenuti mentali o semantici effettivi: i nostri pensieri sono su qualcosa, hanno intenzionalità.

L’intenzionalità è un termine tecnico che indica la caratteristica di essere diretta verso qualcosa. Un desiderio per un pezzo di cioccolata, un pensiero su Manhattan, un ricordo di un’amica — tutti questi stati mentali sono “intenzionali” nel senso che sono diretti verso oggetti o stati di cose. Secondo Searle, non possiamo passare dal sintattico al semantico semplicemente avendo operazioni sintattiche e nient’altro. La nozione stessa di “stesso programma implementato” definisce una classe di equivalenza specificata indipendentemente da qualsiasi realizzazione fisica specifica. Ma tale specificazione necessariamente lascia fuori i poteri biologicamente specifici del cervello nel causare processi cognitivi.

Un sistema come un computer non acquisirebbe comprensione del cinese semplicemente eseguendo i passi di un programma che simula il comportamento di un parlante cinese. La computazione — manipolazione formale di simboli — non è sufficiente per la coscienza o l’intenzionalità, perché la semantica non nasce dalla sintassi.

La teoria computazionale della mente

L’argomento di Searle costituisce una sfida diretta alla Teoria Computazionale della Mente (CTM), posizione che per molti anni ha goduto di status ortodosso nelle scienze cognitive. Secondo i computazionalisti, il cervello è essenzialmente un organo che effettua calcoli: la mente stessa sarebbe un sistema computazionale.

La CTM ha svolto un ruolo centrale nella scienza cognitiva durante gli anni Sessanta e Settanta. Gli algoritmi informatici — procedure esplicite passo-passo per rispondere a domande o risolvere problemi — sembravano offrire la chiave per comprendere la mente umana. I concetti di macchina di Turing — un dispositivo ideale con tempo e spazio illimitati che manipola simboli secondo regole meccaniche — fornivano il modello formale su cui costruire teorie psicologiche.

Tuttavia, la CTM si scontra con l’obiezione fondamentale di Searle: se i simboli computazionali non sono intrinsicamente su nulla, come possono rappresentare il contenuto dei nostri pensieri? Come possiamo spiegare l’intenzionalità — la “aboutness” dei nostri stati mentali — in termini di mera manipolazione formale?

Convergere o divergere?

Il dibattito filosofico sulla coscienza artificiale non si limita all’argomento della Stanza Cinese. Esistono almeno tre posizioni distinte:

La “weak AI” concede il fatto delle macchine che agiscono intelligentemente senza sostenere che queste azioni costituiscano vera intelligenza. Le azioni sono “come se” fossero intelligenti, ma non implicano comprensione reale.

La “strong AI” sostiene che alcune computazioni artificiali sono pensiero, non semplicemente ne simulano l’aspetto. Gli attuali LLM dimostrerebbero, secondo alcuni sostenitori, che la linea tra simulazione e realtà si fa sempre più labile.

Il computazionalismo va oltre: sostiene che tutto il pensiero sia computazione — una posizione più forte della strong AI, che è compatibile con l’esistenza di pensieri al di fuori dell’ambito computazionale.

Dal punto di vista pratico, i Large Language Model di oggi passano esami che richiederebbero anni di studio a un essere umano, scrivono saggi che ricevono valutazioni eccellenti, producono poesie e codice di qualità professionale. Eppure la domanda filosofica permane: queste prestazioni indicano vera comprensione, oppure sofisticata manipolazione statistica di simboli privi di significato?

La nostra postura nel mondo artificiale

La questione ha implicazioni profonde che trascendono l’ambito accademico. Se i sistemi di intelligenza artificiale possiedono — o potranno possedere — coscienza, allora diventano soggetti di diritti e responsabilità etiche. Se invece restano sofisticati manipolatori di simboli senza comprensione, allora la responsabilità morale resta interamente umana.

Come notano le fonti enciclopediche, nella tradizione europea la condizione morale e legale dipende non solo da ciò che si fa esternamente, ma anche dagli stati interiori della mente. Solo gli individui razionali possiedono lo status di agenti morali, e solo gli esseri senzienti sono soggetti a certi danni, come dolore e soffer

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo