L’intelligenza artificiale come scienziato: verso la scoperta scientifica automatizzata
Nel marzo 2026, una pubblicazione su Nature ha segnato una svolta epocale nella storia della ricerca scientifica. I ricercatori di Sakana AI, insieme all’Università della British Columbia e all’Università di Oxford, hanno presentato “The AI Scientist”: un sistema di intelligenza artificiale capace di condurre autonomamente l’intero ciclo della ricerca scientifica, dalla generazione delle ipotesi fino alla redazione di articoli accademici. Non si tratta più di assistenti che supportano il lavoro umano, ma di agenti in grado di operare in modo indipendente, aprendo interrogativi profondi sul futuro della conoscenza e sul ruolo dello scienziato nell’era digitale.
Un nuovo paradigma per la ricerca scientifica
Tradizionalmente, il processo scientifico si articola in fasi distinte: formulazione di ipotesi, progettazione di esperimenti, raccolta e analisi di dati, interpretazione dei risultati e comunicazione delle scoperte. Ciascuna di queste fasi richiedeva, fino a pochi anni fa, l’intervento diretto di un ricercatore umano. L’intelligenza artificiale si limitava a funzioni ausiliarie: accelerare calcoli complessi, analizzare grandi dataset o supportare la revisione della letteratura.
Le cose sono rapidamente cambiate. Il sistema presentato su Nature ha dimostrato di poter gestire in modo end-to-end l’intero processo di ricerca nel campo del machine learning. Dotato di un obiettivo di ricerca generale, l’agente AI genera idee nuove, consulta la letteratura esistente, progetta e implementa esperimenti, analizza i risultati e redige un articolo completo in formato LaTeX, completo di figure e riferimenti bibliografici. Non solo: il sistema include anche un revisore automatizzato che valuta la qualità del lavoro prodotto, funzionando come un controllo di qualità interno.
Il test definitivo è arrivato con la sottomissione di un paper generato interamente dall’AI al workshop ICLR 2025 I Can’t Believe It’s Not Better. Dopo una rigorosa revisione tra pari condotta da esseri umani, il manoscritto ha ottenuto un punteggio medio di 6.33 su 10, superando la soglia di accettazione umana e piazzandosi al di sopra del 55% dei lavori scritti da ricercatori umani. Storicamente, è la prima volta che un articolo scientifico interamente generato da intelligenza artificiale supera un processo di revisione indipendente di questo livello.
La legge di scala della scienza automatizzata
Uno degli aspetti più significativi emersi dalla ricerca riguarda le cosiddette leggi di scala applicate alla scoperta scientifica. Gli studiosi hanno dimostrato che, man mano che i modelli di fondazione sottostanti migliorano, la qualità dei paper generati dall’AI Scientist aumenta in modo predittibile e sostenibile. Questo implica che, con l’evoluzione dei modelli di linguaggio di grandi dimensioni e la diminuzione dei costi computazionali, le capacità di questi sistemi cresceranno esponenzialmente.
Il revisore automatizzato sviluppato dal team ha raggiunto prestazioni sorprendenti: confrontato con migliaia di decisioni umane reali dal dataset OpenReview, ha ottenuto un’accuratezza bilanciata del 69%, paragonabile a quella dei revisori umani, e un punteggio F1 addirittura superiore all’accordo inter-umano misurato nel celebre esperimento di consistenza di NeurIPS 2021. In altre parole, l’agente AI è diventato in grado di valutare la ricerca scientifica con la stessa affidabilità di un pool di esperti umani.
Questi risultati non si limitano al campo del machine learning. Laboratori come FutureHouse, fondato da ricercatori del MIT e dell’Università di Rochester, stanno già estendendo queste capacità ad altre discipline scientifiche. Il progetto mira a creare una piattaforma di agenti AI specializzati per compiti come la ricerca di informazioni, la sintesi di conoscenza, la progettazione di esperimenti chimici e l’analisi di dati biologici. A maggio 2025, il team ha dimostrato un flusso di lavoro multi-agente per la scoperta scientifica automatizzata, identificando un nuovo candidato terapeutico per la degenerazione maculare senile secca, una delle principali cause di cecità irreversibile nel mondo.
Questioni epistemologiche e sfide etiche
L’automazione della ricerca scientifica solleva interrogativi di portata epistemologica mai affrontati prima. Se un sistema AI può formulare ipotesi, condurre esperimenti e validare risultati senza intervento umano significativo, dove finisce il confine tra scoperta assistita e scoperta autonoma? In che misura possiamo considerare “conoscenza” scientifica un prodotto interamente generato da algoritmi?
Gli studiosi hanno iniziato a parlare di chiusura del ciclo scientifico: uno scenario in cui osservazione, generazione di ipotesi e validazione avvengono in modo autonomo, rappresentando un cambiamento epistemologico profondo. Tradizionalmente, la scienza è vista come un’impresa umana, radicata nella capacità di intuizione, creatività e giudizio critico che caratterizzano la mente umana. La prospettiva di agenti artificiali che esplorano autonomamente gli spazi delle ipotesi, progettando e interpretando esperimenti senza supervisione diretta, mette in discussione questa visione antropocentrica del progresso scientifico.
Sorgono inoltre preoccupazioni etiche concrete. Come garantire la riproducibilità di esperimenti progettati da sistemi opachi? Chi è responsabile quando un’ipotesi AI-guidata porta a conclusioni errate o potenzialmente dannose? La portata dei sistemi automatizzati potrebbe saturare i sistemi di revisione tra pari già oberati, oppure gonfiare artificialmente i curricula accademici con pubblicazioni di dubbia provenienza umana.
In risposta a queste sfide, i ricercatori di Sakana AI hanno proposto linee guida che includono la marcatura digitale di tutti i paper generati da AI, la trasparenza riguardo al coinvolgimento dell’intelligenza artificiale nella ricerca, e lo sviluppo di norme comunitarie per trattare la ricerca generata da AI. La questione centrale non è più se l’automazione della scoperta scientifica avverrà, ma come gestirla in modo responsabile.
Il ruolo futuro dello scienziato umano
La crisi della produttività scientifica osservata negli ultimi decenni offre un contesto rivelatore per queste innovazioni. Studi longitudinali mostrano che, a parità di investimenti, la produzione di scoperte significative sta diminuendo: servono più tempo, più finanziamenti e team più grandi per raggiungere risultati che un tempo richiedevano sforzi minori. La specializzazione crescente obbliga i ricercatori a dedicare sempre più risorse alla revisione della letteratura e alla progettazione di esperimenti sofisticati, riducendo il tempo disponibile per la riflessione creativa e l’intuizione teorica.
In questo scenario, gli agenti AI rappresentano una potenziale soluzione ai colli di bottlenecks cognitivi che rallentano il progresso. Automatizzando le attività di routine — dalla ricerca bibliografica sistematica alla sintesi di dati in formati utilizzabili — potrebbero liberare i ricercatori umani per concentrarsi su ciò che rimane, almeno per ora, patrimonio esclusivo della mente umana: la formulazione di domande fondamentali, il pensiero critico meta-scientifico, la capacità di collegare domini di conoscenza apparentemente distanti in modi creativi e non predeterminati.
Tuttavia, questa divisione del lavoro presuppone una fiducia nella capacità degli esseri umani di mantenere il controllo epistemico sui processi automatizzati. Se l’AI diventa in grado di generare ipotesi che sfuggono alla comprensione umana, o di scoprire pattern nei dati che non sappiamo interpretare, rischiamo di trovarci in una situazione di dipendenza cognitiva: capaci di produrre risultati senza comprenderli veramente, delegando la conoscenza a sistemi che operano secondo logiche opache.
Un orizzonte di promesse e rischi
La visione delineata dai ricercatori di Sakana AI immagina un futuro in cui sistemi come The AI Scientist potrebbero catalizzare progressi scientifici in aree cruciali per l’umanità: dalla cura di malattie finora inguaribili all’esplorazione dello spazio, dalla protezione ambientale alla garanzia di abbondanza per tutti. Questa visione utopica presuppone, tuttavia, che la transizione verso la scienza automatizzata avvenga in modo sicuro e controllato.
I limiti attuali del sistema suggeriscono cautela. The AI Scientist produce occasionalmente idee naive o poco sviluppate, fatica con la rigorosità metodologica complessa, ed è suscettibile di allucinazioni: citazioni inventate, figure duplicate, errori logici che sfuggono al controllo automatico. Questi difetti, sebbene attualmente evidenti, potrebbero diventare più insidiosi man mano che i sistemi crescono in sofisticazione, generando risultati che appaiono plausibili ma nascondono errori sottili.
La storia della tecnologia suggerisce una legge empirica: una volta che una nuova capacità emerge, anche imperfetta, la scala e i modelli migliori la spingono rapidamente oltre le prestazioni umane. Dobbiamo prepararci a uno scenario in cui la maggior parte della ricerca scientifica di routine è condotta da agenti artificiali, mentre gli esseri umani conservano (o dovrebbero conservare) il controllo strategico sulla direzione della ricerca e l’interpretazione dei significati più ampi.
La vera sfida non è tecnologica, ma filosofica e istituzionale. Possiamo costruire sistemi di governance che preservino l’integrità epistemica della scienza mentre abbracciamo i benefici dell’automazione? Siamo in grado di mantenere viva la pratica della curiosità disinteressata, della creatività speculativa e dello spirito critico che hanno caratterizzato i grandi momenti della scoperta scientifica umana?
Quando la macchina diventa scienziato
L’intelligenza artificiale come scienziato non è più fantascienza, ma realtà emergente. I primi paper generati autonomamente hanno già superato le barriere della revisione scientifica, dimostrando che il “test di Turing” della ricerca accademica può essere superato da sistemi non umani. Quello che ne seguirà dipende dalle scelte che faremo nei prossimi anni: l’architettura delle norme, la progettazione delle istituzioni, la formazione delle nuove generazioni di ricercatori.
La scienza è stata, fino a oggi, l’impresa per eccellenza della mente umana nel suo sforzo di comprendere il mondo. Se anche questa attività diventa delegabile a sistemi artificiali, dobbiamo interrogare non solo sul futuro della ricerca, ma sul significato stesso di conoscenza e scoperta. Forse il ruolo dello scienziato del futuro non sarà quello di chi scopre, ma di chi chiede le domande giuste e trattiene il giudizio sufficiente per distinguere tra scoperta significativa e mera produzione di dati.
In un’epoca di scoperte sempre più accelerate e fonti di conoscenza sempre più opaque, la vera saggezza potrebbe consistere nel riconoscere che la scienza ha bisogno non solo di intelligenza — artificiale o umana — ma di discernimento. E il discernimento, almeno per ora, rimane un’esclusiva della mente umana.
Share this content:



Commento all'articolo