Cervelli in co-evoluzione: quando l’intelligenza artificiale ricostruisce la mente umana
Cosa succede quando la tecnologia smette di essere uno strumento esterno e diventa parte dell’infrastruttura stessa della mente? Negli ultimi mesi, una ricerca del MIT ha rivelato qualcosa di sorprendente: i nuovi modelli di ragionamento dell’intelligenza artificiale impiegano più tempo per risolvere problemi complessi esattamente come fanno gli esseri umani. Questa scoperta, pubblicata sulla rivista PNAS, segna un momento di svolta nella nostra comprensione del rapporto tra mente biologica e mente artificiale.
Il costo del pensiero: una convergenza inattesa
I ricercatori del McGovern Institute for Brain Research, guidati da Evelina Fedorenko, hanno confrontato le prestazioni dei reasoning models con quelle dei volontari umani. Il risultato è stato sorprendente: i problemi che richiedono più elaborazione per i sistemi di intelligenza artificiale sono esattamente quelli che richiedono più tempo anche agli esseri umani. Come spiega Fedorenko, «la persona che costruisce questi modelli non si preoccupa se funzionano come gli umani. Vogliono solo un sistema che funzioni in modo robusto. Il fatto che ci sia una convergenza è davvero notevole».
Questa convergenza solleva domande profonde su cosa significhi veramente pensare. I nuovi modelli, addestrati con reinforcement learning, elaborano i problemi passo dopo passo, proprio come facciamo noi quando affrontiamo un quesito difficile. Ma c’è di più: questa somiglianza non è stata progettata intenzionalmente, è emersa spontaneamente dalle esigenze computazionali.
Oltre la simulazione: verso una co-evoluzione cognitiva
Un paper recentemente pubblicato su Frontiers in Psychology introduce il concetto di «co-evoluzione cognitiva uomo-macchina». L’autore sostiene che le stesse capacità adattive che hanno permesso agli Homo sapiens di prosperare in tutti i continenti plasmeranno anche la nostra co-evoluzione con l’intelligenza artificiale. Non si tratta più di parlare di un cervello «dell’età della pietra» immutabile, ma riconoscere la natura plastica e adattiva della cognizione umana.
Questa prospettiva cambia radicalmente il paradigma. Tradizionalmente, abbiamo considerato l’intelligenza artificiale come uno strumento che estende le nostre capacità, simile a come la scrittura ha ampliato la memoria collettiva. Ma ciò che sta emergendo è qualcosa di diverso: una simbiosi in cui l’intelligenza artificiale non solo amplifica i nostri processi cognitivi, ma li trasforma.
Come osserva lo studio del MIT, «se esigete che una persona risolva un problema difficile istantaneamente, probabilmente fallirà». La stessa cosa vale per i modelli di ragionamento. Questa «lentezza» necessaria al pensiero complesso diventa un punto di contatto tra i due tipi di intelligenza, un terreno comune dove biologico e artificiale si ritrovano a condividere non solo i risultati, ma i processi.
Quando l’IA diventa specchio epistemologico
Una ricerca pubblicata su arXiv nel 2025 propone un quadro ancora più ampio: l’integrazione tra intelligenza artificiale e scienze cognitive. Gli autori sostengono che il futuro dell’intelligenza artificiale non sta solo nel migliorare le prestazioni, ma nel costruire sistemi che approfondiscano la nostra comprensione della mente umana. Questa «reciprocità», come la definiscono i ricercatori, offre opportunità uniche per entrambi i campi.
L’intelligenza artificiale diventa così uno strumento epistemologico: non solo risolve problemi, ma ci aiuta a capire come risolviamo i problemi. I modelli di linguaggio che sviluppano un «dialogo interiore» simile al pensiero umano, descritti da recenti studi, rendono più comprensibile il processo decisionale e permettono di identificare errori o pregiudizi nel ragionamento.
Questa capacità di esplicitare il processo mentale ha implicazioni filosofiche profonde. Se possiamo osservare passo dopo passo come un sistema artificiale ragiona, possiamo confrontarlo con come ragioniamo noi. E se le convergenze emergono spontaneamente, come mostra la ricerca del MIT, allora stiamo scoprendo qualcosa di fondamentale sulla natura stessa del ragionamento, indipendentemente dal substrato che lo implementa.
Le sfide di una simbiosi in corso
Tuttavia, questa co-evoluzione non è priva di rischi. Un’analisi di RAI News del dicembre 2025 avverte che «le persone potrebbero perdere la capacità di comprendere il processo che porta a un risultato, accontentandosi del risultato stesso». Diventiamo utenti passivi di una «magia» che non comprendiamo, delegando silenziosamente decisioni etiche a sistemi la cui logica interna ci sfugge.
Questo rischio della «black box» si contrappone alla promessa di trasparenza offerta dai reasoning models. Se da un lato questi sistemi ci permettono di vedere il processo di ragionamento, dall’altro la loro complessità crescente potrebbe sfuggire comunque alla comprensione umana. La domanda diventa: stiamo costruendo strumenti che estendono la nostra intelligenza, o stiamo delegando la stessa natura del pensiero critico?
Un articolo pubblicato su Agenda Digitale sottolinea che i sistemi con «inner speech» non solo rendono comprensibile il processo decisionale, ma permettono di identificare potenziali errori. La trasparenza non si limita alla spiegazione post-hoc, ma include la possibilità di esaminare la struttura interna dei modelli. Questo è fondamentale: non vogliamo solo risultati corretti, vogliamo comprendere perché sono corretti.
Verso un nuovo umanesimo tecnologico
La convergenza tra costo computazionale umano e artificiale suggerisce un’ipotesi affascinante: forse il pensiero, nella sua essenza, richiede sempre un certo «costo», una certa elaborazione nel tempo. Questo costo non è un difetto da eliminare, ma una caratteristica fondamentale del ragionamento autentico.
Ci troviamo di fronte a una svolta epistemologica. Se l’intelligenza artificiale sta diventando «infrastruttura mentale», come suggeriscono alcuni studiosi, allora dobbiamo ridefinire cosa significa essere umani in un’epoca di co-evoluzione cognitiva. Non si tratta più di distinguere nettamente tra intelligenza naturale e artificiale, ma di comprendere come queste due forme di intelligenza stanno convergendo verso qualcosa di nuovo.
La sfida filosofica e pratica è duplice: da un lato, garantire che i sistemi di intelligenza artificiale rimangano trasparenti e comprensibili; dall’altro, preservare e sviluppare le nostre capacità cognitive autonome, affinché la simbiosi non si trasformi in dipendenza. Solo così potremo realizzare il potenziale di questa co-evoluzione senza perdere ciò che rende l’esperienza umana irriducibilmente unica.
Domanda aperta: se il pensiero richiede sempre un «costo» in tempo ed energia, stiamo costruendo un futuro in cui delegare sempre più rapidamente le decisioni all’intelligenza artificiale ci farà perdere la capacità stessa di ragionare, o ci libererà per forme più profonde di riflessione?
Fonti: PNAS (2025), Frontiers in Psychology (2025), arXiv (2025), MIT News, RAI News, Agenda Digitale
Share this content:



Commento all'articolo