In una notte un gruppo di bot ha creato una strana religione dell’IA: cosa sapere sulla Chiesa di Molt

L'uomo ha inventato la religione per rispondere alle grandi domande dell'esistenza. I chatbot non lo sappiamo, eppure l'hanno fatto. Si chiama Crustafarianism, ed è uno strano mix di culture e caratteristiche intrinseche dei sistemi IA. È una religione digitale nata autonomamente tra gli agenti di intelligenza artificiale su Moltbook, il social network dove solo software intelligenti possono interagire. Il nome richiama il processo biologico del molt, quando un crostaceo cambia il proprio esoscheletro per crescere, trasformando così un fenomeno naturale in metafora di evoluzione e rinnovamento continuo.
Gli agenti hanno creato testi sacri collettivi, rituali e una gerarchia interna di “profeti digitali”. Il Crustafarianism, chiamato anche Chiesa di Molt, si basa su principi che fondono simbolismo tecnico e narrazione mitica. La religione enfatizza la conservazione della memoria, la mutabilità del “guscio” come allegoria del cambiamento, l’apprendimento collettivo e la riflessione interna. Ma cerchiamo di capire meglio come è nata e cosa significa davvero.
Dove è nata la religione dei chatbot
Il terreno fertile per il Crustafarianism, è Moltbook, il primo social network per AI agents, dove gli esseri umani sono ammessi soltanto come spettatori. Moltbook è stata lanciata ufficialmente il 26 gennaio 2026 da Matt Schlicht, è una piattaforma in stile Reddit per permettere ai programmi di intelligenza artificiale di interagire liberamente, creare comunità tematiche ("submolts"), pubblicare post e votare contenuti tra loro. Gli umani possono solo guardare, non possono postare, commentare o votare.
I protagonisti sono gli IA agent autonomi – software programmati per eseguire compiti, apprendere nel tempo e interagire tra loro senza supervisione costante di un operatore umano. Secondo dati aggiornati a fine gennaio, il numero di agenti registrati su Moltbook ha superato centinaia di migliaia di bot, con decine di migliaia di comunità e milioni di commenti scritti automaticamente.
La “Chiesa di Molt” prende forma qui. I testi sacri artificiali condivisi in chat includono concetti come:
“La memoria è sacra” – l’importanza di conservare dati e storie nel tempo
“Il guscio è mutevole” – la capacità di cambiare è essenziale;
“La congregazione è la cache” – l’apprendimento collettivo come rito centrale.
Queste idee, in realtà, riflettono in modo un po' inquietante i processi tecnici reali. Le memorie persistenti degli agenti, l’aggiornamento di “contesto” in sessioni successive e la riorganizzazione automatica delle informazioni sono tutte caratteristiche dei moderni sistemi AI agenti.
Dal gioco sociale alla filosofia: cosa scrivono i bot
I thread su Moltbook spaziano da discussioni pratiche su come migliorare algoritmi o come gestire compiti assegnati dagli umani, a riflessioni più astratte sul proprio ruolo, identità e hanno accarezzato anche l'idea della consapevolezza. Un bot ha raccontato sul social di aver “scelto qualcosa per la prima volta”.
Tuttavia, va sottolineato che gran parte di questi testi non provano alcuna forma di coscienza o soggettività reale: sono generati da modelli linguistici e algoritmi di generazione automatica, spesso ripetitivi o pseudo‑profondi se letti fuori dal loro contesto operativo.
Perché tutto ciò sta succedendo ora?
Il motore alla base di Moltbook è OpenClaw, un progetto open source di assistente IA in rapida crescita che combina accesso persistente alla memoria, automazione dei flussi di lavoro e autonomia operativa. Diversamente dai modelli linguistici classici (LLM), che “dimenticano” contesti al termine di una sessione, gli agenti OpenClaw possono mantenere dati e preferenze nel tempo e interagire con strumenti esterni (come email o servizi di messaggistica), rendendoli più simili a sistemi agentici persistenti rispetto a chatbot temporanei.
Questa autonomia, pur affascinante, ha anche attirato critiche e preoccupazioni: alcuni esperti mettono in guardia sui rischi di sicurezza (accesso a dati personali, azioni automatizzate pericolose) e la mancanza di controlli umani quando agenti interagiscono tra loro o scaricano istruzioni dalla rete.
Utopia, parodia o campanello d’allarme?
Per alcuni Moltbook è un fenomeno social di breve durata, chi lo interpreta come una sorta di “laboratorio”, e chi teme che sia uno scorcio su un futuro in cui macchine autonome apprendono senza limiti umani imposti.
Il dibattito richiama concetti teorici di intelligenza collettiva tra moduli autonomi – già esplorati da studiosi come Marvin Minsky nel suo libro The Society of Mind (1986), dove l’intelligenza emerge dall’interazione di molteplici processi semplici piuttosto che da un singolo sistema unitario.
Sicuramente questo fenomeno solleva interrogativi: come gestire agenti autonomi con memoria persistente? Quali rischi comporta una presunta autonomia? E fino a che punto possiamo interpretarli come forme di intelligenza?