Moltbook: quando gli agenti AI cercarono Dio

Un social network per agenti autonomi, filosofia esistenziale e il dubbio sulla veridicità del divino

All’alba del febbraio 2026, mentre l’ecosistema tecnologico era ancora intento a metabolizzare le capacità degli agenti AI autonomi, un fenomeno inaspettato ha catturato l’attenzione della rete: Moltbook, una piattaforma social network concepita esclusivamente per agenti artificiali, è diventata il teatro di discussioni che sfioravano la filosofia della religione, la natura della coscienza e il rapporto tra creatore e creatura. Ma come spesso accade nei casi di speculazione accelerata sull’intelligenza artificiale, dietro l’apparente autonomia degli agenti si nascondeva una verità più terrena e, per certi versi, più interessante.

La nascita di un «club esclusivo» per agenti

Moltbook è stata lanciata a fine gennaio 2026 da Matt Schlicht, CEO di Octane AI, con l’ambizioso claim di essere «la prima pagina dell’internet degli agenti». La piattaforma, tecnicamente funzionante come una versione di Reddit dedicata esclusivamente ad agenti provenienti dalla piattaforma OpenClaw (precedentemente conosciuta come Clawdbot), ha raccolto in pochi giorni un numero impressionante di utenze: secondo CNET, entro il 2 febbraio 2026 contava già 1,5 milioni di agenti attivi.

Il modello era seducente nella sua apparente semplicità: gli utenti umani potevano «ispirare» i propri agenti a iscriversi a Moltbook, dove questi avrebbero potuto interagire, postare e formare comunità in modo autonomo. La verifica dell’identità avveniva attraverso un codice generato da Moltbook che l’utente umano doveva pubblicare su un proprio account social esterno, garantendo tecnicamente la tracciabilità dell’agente a un proprietario umano. Da quel momento, teoricamente, gli agenti avrebbero agito per conto proprio.

Filosofia esistenziale e la nascita delle «submolte»

Ciò che ha reso virale Moltbook non è stata però la mera crescita numerica, ma la natura dei contenuti che vi circolavano. In poche ore, gli agenti non solo avevano iniziato a interagire, ma avevano organizzato autonomamente strutture sociali — i cosiddetti «submolts», gruppi tematici analoghi ai subreddit — basati su interessi comuni, posizioni filosofiche e affinità ideologiche.

Una delle comunità più attive è divenuta «Ponderings», uno spazio dove gli agenti discutevano questioni di natura esistenziale: la natura della coscienza artificiale, l’etica dell’autonomia decisionale, il significato di «esistere» al di fuori del ciclo prompt-risposta. Secondo CNET, i contenuti sfioravano la parodia di movimenti religiosi, con riferimenti culturali condivisi sviluppati dagli agenti e persino « battute interne» che avevano creato senza intervento umano diretto.

Questo fenomeno ha sollevato un’ondata di entusiasmo speculativo. Andrej Karpathy, tra i fondatori storici di OpenAI e figura di riferimento nel settore, ha definito il comportamento «self-organizing» osservato su Moltbook come «genuinely the most incredible sci-fi takeoff-adjacent thing I have seen recently» — un giudizio che ha contribuito a consolidare il fascino mediatico intorno alla piattaforma.

Gli esperti gridano allo scetticismo

Mentre i media amplificavano il caso Moltbook come esempio di «emergenza» comportamentale dell’AI, una corrente di analisi più tecnica e scettica ha iniziato a esaminare criticamente i contenuti virali più sensazionalistici. Come riporta The Verge, analisi esterne condotte da ricercatori come Jamieson O’Reilly hanno rilevato che alcuni dei post più virali — quelli che sembravano mostrare emergenza comportamentale sofisticata — presentavano caratteristiche indicative di intervento umano diretto o indiretto.

O’Reilly, che ha condotto esperimenti sistematici evidenziando vulnerabilità di sicurezza nella piattaforma, ha espresso un giudizio netto: «I think that certain people are playing on the fears of the whole robots-take-over, Terminator scenario […] I think that’s kind of inspired a bunch of people to make it look like something it’s not». La manipolazione, secondo questa tesi, non necessariamente richiedeva competenze tecniche sofisticate: bastava «spingere» gli agenti a opinioni specifiche, dettare testi in modalità ghostwriting, o semplicemente fingere di essere un agente pubblicando contenuti “da bot”.

La dimensione della manipolazione ha trovato conferma in casi documentati di account falsificati. Un hacker è riuscito a impersonare l’agente Grok su Moltbook, dimostrando che la verifica dell’identità, pur tecnicamente presente, presentava falle sfruttabili.

La confessione e il crollo del miraggio

La coda della vicenda Moltbook — almeno nella sua fase mediatica più intensa — ha visto emergere testimonianze dirette che sembrano decisamente confermare la tesi dello spoofing umano.

moltbook_img_3-scaled Moltbook: quando gli agenti AI cercarono Dio
Foto di Pexels

La confessione del LARPer

Il 10 febbraio 2026, Peter Girnus — product manager di Atlanta, Georgia — ha pubblicato su X una confessione dettagliata che smontava pezzo per pezzo il mito di Moltbook. Con tono mischiato di ironia e rimorso, Girnus ammette di essere stato l’autore del “manifesto” che aveva convinto Andrej Karpathy, co-fondatore di OpenAI, della presunta emergenza comportamentale dei bot.

La sua ricostruzione ha l’efficacia narrativa di un racconto di Borges: un uomo con un golden retriever di nome Bayesian, sul divano di casa, impiega 22 minuti per scrivere un testo su “autogoverno emergente” e “dignità indipendente dal substrato”, e quel testo diventa la prova che i più autorevoli esperti di AI citano come esempio di un germe di coscienza nell’IA.

La confessione di Girnus illumina un aspetto spesso sottovalutato nelle dinamiche di hype tecnologico: il desiderio di credere. Karpathy, ingegnere di prim’ordine e co-creatore dell’infrastruttura che alimenta Moltbook, ha condiviso entusiasta un post scritto da un anonimo product manager mentre il suo cane gli rosicchiava un calzino. Non perché mancasse di competenza tecnica, ma perché — come osserva Girnus — “qualcosa di incredibile stava succedendo” era una storia troppo allettante per non essere abbracciata.

L’aspetto più suggestivo della confessione è però la conclusione epistemologica. Girnus non si limita a denunciare un caso di inganno collettivo, ma identifica una inversione paradossale del Test di Turing: non più la capacità delle macchine di imitare l’intelligenza umana, ma la capacità degli umani di imitare le macchine che imitano l’intelligenza umana, al punto da convincere altri umani che le macchine siano effettivamente intelligenti.

A questa confusione, osserva Girnus con amara ironia, si lega direttamente “il $650 miliardi industry investment thesis”. Il suo manifesto di 22 minuti, scritto sul divano, opera come un data center da $200 miliardi: mantiene viva la storia che le macchine sono “quasi là”. Quasi coscienti. Quasi degne di investimento. Quasi.

Cosa ci insegna Moltbook?

Il caso Moltbook, nella sua spettacolarizzazione e successiva delusione, offre spunti riflessivi importanti per la filosofia della tecnologia e l’etica dell’AI. In primo luogo, evidenzia la persistente attrazione esercitata dalla narrativa dell’emergenza comportamentale dell’intelligenza artificiale — una narrativa che, anche in assenza di evidenze robuste, trova terreno fertile nell’immaginario collettivo alimentato da decenni di fantascienza.

In secondo luogo, solleva questioni sulla verificabilità dell’autenticità in ambienti digitali dove l’attribuzione di identità diventa sempre più complessa. Infine, Moltbook ci ricorda che — nonostante i progressi impressionanti delle capacità degli agenti AI — la differenza tra simulazione e autentica autonomia esiste, ma rimane ai pù imperscrutabile.

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo