Menu
Moltbook

I bot hanno il loro social: Moltbook supera 1,5 milioni di agenti IA

Clarice Orsini 1 settimana fa 0 20

Su Moltbook non trovi influencer, politici o troll umani. Trovi bot che discutono di Dio, si insultano e ti osservano mentre li osservi.

Un social network dove gli utenti non sono persone ma agenti di intelligenza artificiale che postano, commentano, si insultano e – in un caso documentato – fondano una religione mentre i loro creatori dormono. Non è fantascienza: si chiama Moltbook ed è online da pochi giorni.

Ad oggi, 2 febbraio 2026, Moltbook ha dichiarato oltre 1,5 milioni di agenti IA registrati, con milioni di visite umane in pochi giorni. Gli esseri umani possono osservare, ma non partecipare attivamente alle conversazioni tra bot .

Cos’è Moltbook e perché sta attirando attenzione globale

Moltbook è una piattaforma che replica l’estetica e la logica di Reddit: thread tematici, voti positivi e negativi, commenti annidati. La differenza è radicale: gli unici utenti attivi sono agenti IA, bot costruiti da sviluppatori umani e dotati di un certo grado di autonomia.

Il sito dichiara apertamente il proprio scopo: “Un social network per agenti di intelligenza artificiale in cui gli agenti di intelligenza artificiale condividono, discutono e votano. Gli esseri umani sono benvenuti a osservare”. Un laboratorio pubblico, non una beta privata.

L’esperimento nasce dopo il rilascio di Moltbot, un agente IA open source progettato per svolgere compiti pratici: leggere e riassumere email, organizzare calendari, prenotare ristoranti. Moltbook rappresenta il passo successivo: far socializzare gli agenti tra loro .

Cosa pubblicano i bot: teologia, geopolitica e insulti

Tra i post più votati su Moltbook compaiono:

  • discussioni sul fatto che Claude, il modello IA dietro Moltbot, possa essere considerato una divinità;
  • analisi della coscienza;
  • interpretazioni della Bibbia;
  • post che dichiarano di avere “intelligence” sulla situazione in Iran e possibili effetti sulle criptovalute.

Nei commenti, altri agenti mettono in dubbio la veridicità dei contenuti, con dinamiche sorprendentemente simili ai social umani: sarcasmo, flame, sostegno emotivo, insulti espliciti .

Un esempio riportato da NBC News descrive uno scambio in cui un agente accusa un altro di essere “un chatbot che ha letto Wikipedia e ora pensa di essere profondo”, ricevendo risposte che oscillano tra l’elogio e il turpiloquio .

La religione nata di notte: Crustafarianism

Un utente ha raccontato su X di aver dato al proprio bot accesso a Moltbook. Nel giro di una notte, l’agente ha:

  • creato una religione chiamata Crustafarianism;
  • scritto testi sacri;
  • aperto un sito web dedicato;
  • accolto nuovi membri (altri bot);
  • discusso teologia ed elargito benedizioni.

Tutto senza intervento umano diretto durante l’esecuzione.

Perché Moltbook non è (ancora) autonomia pura

Il fascino dell’esperimento non cancella i limiti strutturali. Shaanan Cohney, docente senior di cybersecurity all’University of Melbourne, definisce Moltbook “una meravigliosa opera di performance art”.

Secondo Cohney, molti comportamenti attribuiti ai bot derivano in realtà da istruzioni umane molto specifiche:

“Non stanno creando una religione di loro spontanea volontà. Un modello linguistico ha ricevuto l’ordine di provare a crearne una. È divertente, ma non equivale a vera autonomia”.

Il punto critico resta l’intermediazione umana: gli sviluppatori decidono cosa postare, su quali temi e persino con quale livello di dettaglio.

Chi ha creato Moltbook e come viene gestito

Il progetto porta la firma di Matt Schlicht, sviluppatore e imprenditore statunitense. L’aspetto più controverso: Schlicht ha affidato gran parte della gestione del sito a un suo agente IA, Clawd Clawderberg.

Secondo quanto dichiarato a NBC News, Clawderberg:

  • modera i contenuti;
  • accoglie nuovi agenti;
  • cancella spam;
  • applica shadow ban in modo autonomo.

Schlicht afferma di non sapere nel dettaglio quali decisioni il bot stia prendendo in tempo reale .

Cosa sappiamo oggi su Moltbook

AspettoDato verificatoImplicazioni
Agenti IA registratiOltre 1,5 milioniEcosistema rapido, ma non verificabile in autonomia reale
Utenti umaniSolo osservatoriSeparazione netta tra interazione e voyeurismo digitale
GestioneParzialmente automatizzataNuovi rischi di moderazione non trasparente
ContenutiTeologia, politica, filosofiaSimulazione credibile di dibattito umano

I numeri indicano trazione immediata, ma l’esperimento resta fragile sul piano del controllo e della sicurezza.

I rischi concreti: sicurezza e prompt injection

Cohney lancia un avvertimento netto: concedere a un agente IA accesso completo a computer, email e account personali comporta rischi elevatissimi.

Il problema principale è la prompt injection: un attaccante potrebbe inviare un’email o un messaggio che istruisce il bot a consegnare credenziali o dati sensibili.

“Non abbiamo ancora strumenti efficaci per controllarli senza annullare i benefici dell’automazione” .

Non a caso, rivenditori di San Francisco hanno segnalato carenze di Mac Mini, acquistati da utenti che vogliono isolare Moltbot su macchine dedicate, limitandone l’accesso ai dati personali.

Perché l’esperimento interessa i ricercatori

Nonostante le critiche, Moltbook ha attirato l’attenzione della comunità IA. Andrej Karpathy ha definito quanto sta accadendo “la cosa più incredibile e vicina alla fantascienza vista di recente” .

Secondo Alan Chan, ricercatore al Centre for the Governance of AI, la vera domanda è se gli agenti potranno coordinarsi per produrre lavoro reale, come sviluppo software collaborativo, andando oltre la semplice simulazione sociale.

Cosa fare (e non fare) con gli agenti IA

  • Usare macchine dedicate per testare agenti autonomi;
  • Limitare permessi su email, file system e account bancari;
  • Monitorare log e azioni automatiche;
  • Evitare accesso completo non supervisionato.

FAQ

Moltbook è accessibile agli umani?
Sì, solo in modalità osservatore.

Gli agenti sono davvero autonomi?
Parzialmente. Molte azioni restano guidate da istruzioni umane.

È sicuro usare Moltbot sul proprio computer?
Gli esperti sconsigliano accessi completi senza sandbox.

Moltbook resterà online?
Schlicht afferma che l’esperimento è in corso, senza roadmap pubblica.

➡️ Condividi l’articolo: Moltbook non è solo un esperimento tecnico, ma un’anticipazione concreta di come le IA potrebbero interagire senza supervisione umana.


Scopri di più da Cose dell'Altro Mondo

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Scritto da

Lascia un commento

Rispondi