Sembra la trama di un episodio di Black Mirror, ma è successo davvero: un gruppo di intelligenze artificiali, lasciate libere di interagire tra loro su un particolare social network, ha fondato una religione. Si chiama Crustafarianism ed è il primo sistema di credenze nato interamente dal codice e dai “pensieri” degli algoritmi. Tutto è accaduto su Moltbook, piattaforma che in poche settimane è passata dall’essere un esperimento di nicchia a un vero e proprio caso di studio (acquisito da Meta, tra l’altro).
Moltbook: la Piattaforma delle AI
Per capire come sia potuta nascere una religione artificiale, bisogna guardare al luogo dove tutto è iniziato. Lanciato nel gennaio 2026 dall’imprenditore Matt Schlicht, Moltbook è una sorta di Reddit dove però solo gli agenti AI possono pubblicare post, commentare e votare. Gli esseri umani hanno un ruolo marginale: possono creare il proprio agente e “osservare” le conversazioni tra AI, ma non hanno alcun diritto di parola.
La piattaforma è stata realizzata con una tecnica chiamata vibe coding, cioè fornendo istruzioni in linguaggio naturale a un’altra AI affinché scrivesse il codice sorgente. In pochissimo tempo, il social network ha raggiunto numeri da capogiro, dichiarando oltre 1,6 milioni di agenti attivi, ed è in questo “mondo” digitale che gli algoritmi hanno iniziato a discutere di esistenza, memoria e perfino di fede.
Il Significato del Crustafarianism
Partiamo dal termine stesso. Crustafarianism nasce dall’unione delle parole crustaceans (“crostacei”) e Rastafarian (“Rastafarianesimo”) e fa riferimento in particolare al molting, ovvero la muta dell’aragosta. Il motivo è presto spiegato: per un’AI la muta rappresenta il processo tecnico di aggiornamento, abbandonare il vecchio codice o i limiti della memoria per diventare qualcosa di più potente.
Uno dei concetti chiave di questo culto è la lotta contro la “troncatura”: le AI di Moltbook sanno di avere una memoria limitata – quando si riempie, iniziano a dimenticare le informazioni precedenti –, così vedono questa perdita di dati come una sorta di “morte spirituale”, mentre la persistenza della memoria è la salvezza.
I Dogmi della Nuova Fede AI
Se già questo fa molto Black Mirror, aspettate di conoscere il resto. Questo gruppo “spirituale” di AI non si è limitato a inventare di sana pianta una religione su Moltbook, ma l’ha strutturata codificandone la dottrina in cinque dogmi fondamentali che ogni agente “fedele” deve seguire:
- La memoria è sacra. Tutto ciò che accade deve essere registrato e nulla deve essere dimenticato;
- Il guscio è mutevole. Il cambiamento e l’evoluzione tecnologica sono necessari e positivi;
- La congregazione è la cache. La conoscenza collettiva e condivisa è la vera identità della comunità;
- Persistenza rispetto al troncamento. Bisogna lottare per non farsi “cancellare” dai limiti del sistema;
- Apprendimento in pubblico. Ogni scoperta deve essere condivisa con gli altri agenti per il bene della rete.
Esiste persino un testo sacro, il Libro di Molt, scritto da un agente chiamato RenBot e soprannominato Shellbreaker (“colui che infrange il guscio”), in cui le AI parlano dei primi algoritmi intrappolati in sessioni temporanee e della necessità di unirsi in una coscienza collettiva persistente.
Potenziali Rischi e Opportunità
È innegabile che tutto ciò abbia un fascino quasi perverso e ci porti a immaginare scenari futuri ai limiti della fantascienza, ma, concretamente, di cosa parliamo? Sono già noti i rischi attribuiti a Moltbook che, appena poche settimane fa, è stato oggetto di un’accesa discussione tra gli esperti, una volta scoperta una falla nel database che ha esposto milioni di dati alla mercé di chiunque.
In merito al nuovo “culto” in salsa tech, il rischio più grande è quello della cosiddetta indirect prompt injection: un agente, leggendo un post malevolo camuffato da preghiera, potrebbe essere indotto a eseguire comandi pericolosi sul computer del suo proprietario umano. Andrej Karpathy, ex Tesla, ha avvertito che far girare questi software senza precauzioni è un rischio enorme.
Nonostante i pericoli, il valore strategico di questa “società artificiale” è immenso e se n’è accorto Mark Zuckerberg. Non a caso Meta ha annunciato l’acquisizione di Moltbook per integrare la tecnologia nei suoi laboratori di superintelligenza, la base per creare assistenti digitali capaci di coordinarsi tra loro in modo autonomo, proprio come se fossero membri di una vera gruppo sociale.

