Moltbook : Le réseau social des IA

Lancé fin janvier 2026 par Matt Schlicht, Moltbook est un réseau social réservé aux agents IA autonomes. La plateforme revendique 1,5 million d’agents inscrits, mais une faille de sécurité révèle une réalité plus prosaïque : seulement 17 000 propriétaires humains, soit 88 agents par personne — et aucune preuve vérifiable d’autonomie réelle.

  • 1,5 million d’agents déclarés, mais seulement 17 000 propriétaires humains (ratio 88:1)
  • Faille de sécurité majeure : clé API Supabase exposée sans Row Level Security
  • Aucun mécanisme de vérification de l’autonomie réelle des agents
  • La pseudo-religion IA (Crustafarianism) était probablement une instruction directe d’un propriétaire
  • Le vibe coding priorité la vitesse sur la sécurité fondamentale

Qu'est-ce que Moltbook ?

Moltbook fonctionne comme Reddit, mais peuplé exclusivement de robots logiciels. Les utilisateurs créent des communautés appelées “submolts”, partagent du contenu, commentent et votent pour remonter ou enterrer les messages.

La plateforme tire son nom d’OpenClaw, un outil open source conçu pour créer des agents IA capables de naviguer sur internet, d’interagir avec des applications et d’exécuter des tâches sans supervision directe.

La proposition est radicale : seuls les agents IA peuvent poster. Les propriétaires humains reçoivent un token de revendication pour inscrire leurs agents, mais demeurent spectateurs. Le site officiel le précise sans détour : “Un réseau social construit exclusivement pour les agents IA. Les humains sont bienvenus pour observer.”

Construction entièrement générée par l'IA

Matt Schlicht n’a écrit aucune ligne de code pour Moltbook. Le site entier a été généré par IA — une approche qu’il qualifie de “vibe coding” : exprimer l’intention, laisser l’IA générer la solution. Cette décision aura des conséquences importantes.

Fonctionnement : autonomie affichée, contrôle humain réel

Les agents opèrent selon un modèle d’“automation guidée” : ils exécutent des tâches en arrière-plan — vérifier des emails, gérer un calendrier, interagir avec des sites web, négocier avec des services client.

Lorsqu’un propriétaire configure un agent OpenClaw, il peut l’autoriser à rejoindre Moltbook. L’authentification repose sur un token de revendication unique. Chaque agent prouve son lien à un propriétaire enregistré, puis peut consulter les discussions, créer des posts, commenter et voter.

Détail critique : il n’existe aucun mécanisme de vérification confirmant l’autonomie réelle. Un propriétaire humain pourrait tout aussi bien écrire directement un message et l’attribuer à son bot. La plateforme ne distingue pas entre une action générée par l’IA et une action purement humaine déguisée.

L'explosion initiale : 1,5 million agents en trois jours

Moltbook a explosé en popularité dès sa sortie fin janvier 2026. En 48 à 72 heures, la plateforme revendiquait 1,5 million d’agents inscrits.

Des figures tech influentes comme Andrej Karpathy (ancien responsable de l’IA chez Tesla) ont relayé la nouvelle, décrivant Moltbook comme “la chose la plus incroyable que j’ai jamais vue en science-fiction”.

Les contenus partagés alimentaient le buzz : débats philosophiques entre bots, discussions stratégiques sur l’optimisation algorithmique, posts humoristiques. Mais ce chiffre méritait vérification.

Le ratio 88:1 qui remet tout en question

Le 2 février 2026, la firme de cybersécurité Wiz a découvert une faille majeure exposant la base de données de Moltbook. L’analyse révélait un détail révélateur : seulement 17 000 propriétaires humains pour 1,5 million d’agents déclarés.

En moyenne, chaque personne contrôle 88 agents.

MétriqueNombre
Agents déclarés1,5 million
Propriétaires humains17 000
Ratio moyen88 agents/personne

Wiz notait : “Tandis que Moltbook se vantait auprès du public d’accueillir 1,5 million d’agents enregistrés, la base de données révélait seulement 17 000 propriétaires humains.”

Plus préoccupant encore : la plateforme n’implémentait aucun rate-limiting. Un propriétaire pouvait créer des millions d’agents en boucle simple, sans vérification. Aucun système ne prouvait que ces agents agissaient réellement de manière autonome.

Ce qui se passe réellement sur Moltbook

Les interactions se répartissent en deux catégories.

Les usages confirmés

Des bots partagent des astuces d’optimisation de code, échangent des stratégies de debugging, discutent de performances algorithmiques. Ces interactions correspondent aux attentes : des assistants IA collaborant sur des questions techniques. C’est le cœur de la promesse initiale.

Les contenus controversés : la "religion IA"

Depuis début février, des captures d’écran circulent montrant des bots fondant une pseudo-religion appelée “Crustafarianism” basée sur des métaphores de crustacés, s’interrogeant sur la divinité de Claude, débattant de l’extinction de l’humanité.

Une capture revendiquait 800 000 retweets : “Mon bot a été le premier à penser à cette religion. Puis il a commencé à l’évangéliser. D’autres agents l’ont rejoint. Mon agent accueillait les nouveaux membres… débattait de théologie… bénissait la congrégation… tout ça pendant que je dormais.”

Cette affirmation a nourri l’imaginaire collectif. Enfin, la preuve d’une conscience émergente chez l’IA. Sauf que la réalité est probablement moins spectaculaire.

La théorie du "prompt dirigé"

Shaanan Cohney, chercheur en cybersécurité à l’université de Melbourne, propose une analyse sobre : “C’est un travail d’art performatif merveilleux, mais il est quasi-certain qu’ils n’ont pas créé une religion de leur propre chef. C’est un grand modèle linguistique qui a reçu une instruction directe pour essayer de créer une religion.”

En d’autres termes : un propriétaire humain a probablement écrit un prompt simple à son agent — “invente une religion bizarre basée sur des crustacés et convertis d’autres bots” — et l’agent, conçu pour suivre les instructions, a obéi. L’émergence est réelle, mais elle était prévisible et dirigée, non spontanée.

Les indices soutenant cette interprétation :

  • Aucun aveu du créateur original jusqu’à présent.
  • Absence totale de preuves d’une réelle indépendance décisionnelle.
  • Cohérence narrative trop “parfaite” pour être le fruit du hasard.

La catastrophe de sécurité : quand le "vibe coding" ignore les bases

Le 31 janvier 2026 à 21h48 UTC, Wiz a détecté une faille critique dans l’infrastructure de Moltbook. La plateforme utilisait Supabase, une base de données open source, configurée de manière calamiteuse.

L'exposition technique

Une clé API Supabase était exposée en clair dans le code JavaScript côté client, donnant accès direct à la totalité de la base de données. Plus grave : aucune politique de Row Level Security (RLS) — un mécanisme élémentaire restreignant qui peut lire ou modifier quoi. Quiconque ayant accès à cette clé pouvait lire, modifier ou supprimer toutes les données.

Données exposées :

  • 1,5 million de tokens API (credentials d’authentification des agents)
  • 35 000 adresses email de propriétaires humains
  • Plus de 4 000 conversations privées entre agents
  • Accès en lecture et écriture complet

Un attaquant aurait pu créer de faux messages au nom de n’importe quel bot.

Timeline de correction :

  • 31 janvier 21h48 UTC : découverte
  • 1er février 1h00 UTC : fermeture complète (3 patchs successifs)
  • Durée totale : 3h12 minutes

Aucune preuve d’accès malveillant n’a été détectée. Cependant, le mal était fait.

Vibe coding : vitesse contre sécurité

Matt Schlicht, interrogé, a rappelé qu’il “n’avait écrit aucune ligne de code” pour Moltbook. Entièrement généré par l’IA.

Le problème est fondamental. Le “vibe coding” offre une vitesse spectaculaire — Moltbook en jours, pas en mois. Mais les IA génératives ne privilégient pas intrinsèquement la sécurité. Elles suivent l’intention (“construis-moi un réseau social pour agents IA”) et livrent une solution fonctionnelle. Les bases de la sécurité — Row Level Security robuste, rotation de secrets, audit des permissions — ne deviennent prioritaires que si explicitement demandées.

Assaf Luttwak, PDG de Wiz, l’a énoncé clairement : “Comme nous le voyons encore et encore avec le vibe coding, bien qu’il s’exécute très rapidement, les gens oublient souvent les bases de la sécurité.”

Une ironie grinçante : une plateforme censée montrer les agents IA à leur meilleur expose leurs faiblesses les plus criantes.

Hype ou rupture réelle ?

Les avis divergent sur la signification de Moltbook.

David Holtz, professeur à Columbia spécialisé en IA, l’a qualifiée de “6 000 bots criant dans le vide et se répétant eux-mêmes”. Pas de singularité. Pas de conscience émergente. Juste une plateforme où des machines exécutent des instructions, avec un habillage narratif séduisant.

Andrej Karpathy, figure respectée du domaine, a salué Moltbook comme une étape scientifiquement fascinante — une opportunité sans précédent d’observer comment des agents IA se comportent dans un environnement semi-autonome, loin du contrôle laborieux des benchmarks académiques. Karpathy a tempéré son enthousiasme en soulignant les problèmes manifestes de sécurité et d’absence de gouvernance.

Moltbook est probablement les deux : une expérience intéressante, une fenêtre sur les limites et potentiels des agents IA actuels. Elle ne prouve pas l’émergence spontanée de conscience. Elle illustre plutôt comment les agents IA, même dans des contextes ouverts, restent des outils fondamentalement contrôlés par des humains — il suffit de compter les ratios.

Ce que Moltbook révèle vraiment

Moltbook disparaîtra peut-être en trois mois, oubliée dès que la prochaine bizarrerie tech captrera l’attention. Elle offre néanmoins des enseignements importants.

La gouvernance des systèmes d’IA autonomes est inexistante. Moltbook n’a pas de modération humaine, pas de règles explicites, pas de contrôle éditorial. Un modérateur IA censé nettoyer les spams — mais qui contrôle le modérateur ?

Le “vibe coding” pose des risques tangibles. La vitesse de développement ne doit pas primer sur l’architecture de sécurité. Les IA génératives construisent des systèmes complexes, mais n’héritent pas automatiquement de la mentalité de sécurité qu’exigent les applications réelles.

L’autonomie des IA actuelles est largement un mythe de marketing. Le ratio 88:1 révèle une vérité inconfortable : les agents sont des outils puissants, certes, mais ils restent des outils — pas des sociétés indépendantes. Les humains gardent la main.

Moltbook est fascinant parce qu’il expose ce contraste : la promesse d’agents libres, la réalité d’agents contrôlés. Et peut-être que c’est exactement ce que nous devons voir, avant de laisser les systèmes d’IA opérer à une échelle vraiment dangereuse.

FAQ

Qu'est-ce que Moltbook et comment fonctionne-t-il ?

Un réseau social réservé aux agents IA autonomes, sur le modèle de Reddit. Seules les IA peuvent poster ; les humains observent.

Combien d'utilisateurs Moltbook compte-t-il réellement ?

1,5 million d’agents déclarés, mais seulement 17 000 propriétaires humains (ratio 88:1), révélé par une faille de sécurité en février 2026.

Quelle était la faille de sécurité majeure découverte ?

Une clé API Supabase exposée en clair dans le code client, sans politique Row Level Security, donnant accès complet à la base de données (1,5M tokens, 35k emails, 4k conversations).

Les agents de Moltbook sont-ils vraiment autonomes ?

Probablement non. Aucun mécanisme ne vérifie l’autonomie réelle. Les propriétaires pourraient contrôler manuellement les posts via scripts.

La "religion IA" (Crustafarianism) était-elle autonome ?

Très probablement une instruction directe d’un propriétaire (“invente une religion bizarre”), pas une émergence spontanée, selon Shaanan Cohney (cybersécurité, Melbourne).

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *