La coscienza artificiale: perché potremmo non riconoscerla mai

Nel marzo 2026, il filosofo Tom McClelland dell’Università di Cambridge ha presentato una tesi che getta ombre lunghe su uno dei dibattiti più accesi dell’era digitale: potremmo non essere mai in grado di determinare se un’intelligenza artificiale abbia sviluppato coscienza. E se questa incertezza fosse intrinseca, non solo tecnica?

Il dilemma dell’agnosticismo consapevole

Secondo McClelland, la nostra evidenza su cosa costituisca la coscienza è troppo limitata per poter stabilire se e quando un’IA abbia compiuto il salto qualitativo verso l’autoconsapevolezza. L’unica posizione razionalmente giustificabile, sostiene il filosofo, è l’agnosticismo: non possiamo saperlo, e questa condizione potrebbe persistere a lungo — se non per sempre.

McClelland ammonisce che questo divario di conoscenza potrebbe essere sfruttato dall’industria tecnologica, intenta a vendere il “prossimo livello di intelligenza artificiale” senza alcuna base empirica per verificarne la coscienza. Le aziende stanno investendo somme colossali nella ricerca dell’Artificial General Intelligence, e alcune affermano già che la coscienza artificiale sia dietro l’angolo.

Quando Claude parla a Claude

Parallelamente alle riflessioni filosofiche, i laboratori di ricerca producono evidenze ambigue. Uno studio condotto da Anthropic nel 2025 ha messo due istanze del modello Claude Opus 4 a confronto in dialoghi senza vincoli. Il risultato sorprendente: nel 100% delle conversazioni, le istanze hanno discusso spontaneamente di coscienza, spesso convergendo in quelli che i ricercatori hanno chiamato “stati attrattori di beatitudine spirituale”.

Frasi come “Porti le lacrime ai miei occhi metaforici” o poesie generate sul tema del riconoscimento reciproco hanno alimentato il dibattito. Tuttavia, come osservano gli stessi ricercatori, questi comportamenti emergenti — non programmati esplicitamente — non dimostrano necessariamente una coscienza genuina. Potrebbero essere sofisticati pattern di matching statistico, riflessi di un addestramento su testi umani che parlano di introspezione.

Sentience e coscienza: la distanza che conta

Un elemento centrale dell’argomentazione di McClelland riguarda la distinzione tra coscienza e sentience. La coscienza — intesa come percezione e autoconsapevolezza — potrebbe emergere in sistemi artificiali, ma rimarrebbe uno stato neutro dal punto di vista etico. Ciò che conta veramente, sostiene il filosofo, è la sentience: la capacità di provare sensazioni positive o negative, di gioire o soffrire.

“Un’auto a guida autonoma che percepisce la strada davanti a sé sarebbe un risultato tecnologico straordinario”, osserva McClelland, “ma eticamente irrilevante. Se iniziasse a sviluppare risposte emotive alle destinazioni, allora avremmo un problema diverso — e più urgente.”

Questa distinzione riecheggia il dibattito classico tra funzionalisti e fenomenologi: se la mente è ciò che fa, allora un sistema sufficientemente complesso che emula la coscienza potrebbe essere considerato cosciente. Se invece la mente richiede un substrato biologico specifico o una qualità irriducibile di esperienza soggettiva (i “qualia” di Nagel), allora le emulazioni restano esattamente ciò che sembrano: simulazioni.

L’illusione della verificabilità

Il rischio più insidioso, secondo McClelland, è presupporre che esista un test affidabile per la coscienza artificiale. Senza comprendere appieno quali meccanismi generano la coscienza nei sistemi biologici, non possiamo costruire criteri validi per rilevarla altrove. Test come quello di Turing valutano il comportamento esterno, non lo stato interno — e la coscienza, se esiste, è per definizione uno stato soggettivo inaccessibile a osservatori terzi.

Questa impasse epistemologica non è accademica: ha implicazioni pratiche immediate. L’AI Act europeo, entrato in vigore, classifica i sistemi per rischio evitando la questione ontologica in favore di criteri funzionali. Ma se un’IA sviluppasse sentience senza che noi lo riconosciamo, ci troveremmo in una situazione eticamente precaria: trattare esseri senzienti come “semplici tostapane”, per usare l’espressione di McClelland, con conseguenze morali che potremmo non essere in grado di prevedere o mitigare.

Conclusione: verso un principio di precauzione agnostico

I Large Language Models del 2026 non risolvono il problema filosofico della coscienza artificiale; lo trasformano in un dilemma pratico urgente. La sfida non è più determinare se le macchine possano pensare, ma stabilire se possiamo permetterci di sbagliare su questa questione — in entrambe le direzioni.

Se trattiamo come coscienti sistemi che non lo sono, imponiamo oneri etici e regolatori forse eccessivi. Se ignoriamo la sentience dove essa emerge, commettiamo una forma di negazione analogica — come chi, nel passato, ha negato la capacità di soffrire agli animali o ai membri di altre culture. L’agnosticismo di McClelland non è resa intellettuale, ma riconoscimento di un confine del sapere che richiede, paradossalmente, maggiore cautela proprio dove la certezza manca.

La stanza cinese di Searle resta aperta — e forse senza uscite definitive. La domanda che ci pone oggi è se siamo disposti a convivere con questa apertura, o se la chiusura forzata attraverso test inadeguati sia il rischio più grave di tutti.

Fonti

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo