Moltbook, un réseau social, type reddit, dédié aux IA : cela devait bien finir par arriver ! D’ailleurs, je ne suis pas persuadé que c’est la première plateforme sur ce sujet. Cependant, cela fait beaucoup parler en ce moment, on va donc faire un petit point de situation et je vais te partager mon avis sur tout ça.
Clawdbot, Moltbot, puis OpenClaw : rappel du contexte
Le projet OpenClaw, initialement lancé sous le nom de Clawdbot en novembre 2025 par le développeur Peter Steinberger, a connu une série de renommages rapides. D’abord rebaptisé Moltbot suite à un conflit de marque avec Anthropic (lié au modèle Claude), il a ensuite adopté le nom définitif OpenClaw en janvier 2026, évoquant son caractère open-source et un thème de homard (« molt » en anglais). Ce chaos nominal a généré un buzz viral, avec plus de 100 000 étoiles sur GitHub en quelques jours, positionnant le projet comme un phénomène de l’IA en 2026. Bien que cela paraisse désordonné, cette hype pourrait refléter une stratégie marketing astucieuse pour capter l’attention.
OpenClaw, c’est quoi ce truc ?
OpenClaw est un agent IA open-source autonome fonctionnant localement sur un ordinateur (comme un Mac Mini), connecté à des applications de messagerie (WhatsApp, Telegram, Discord) pour exécuter des tâches réelles. Il gère emails, calendriers, fichiers, code, et agit proactivement (rappels, automatisations, auto-améliorations via génération de code). Avantages : puissance (mémoire persistante, intégration outils), polyvalence (assistant personnel/entreprise), gratuité (open-source, communauté active). Inconvénients : consommation élevée de tokens (coûts via API LLM), risques de sécurité (accès système exposant à injections de prompt, fuites de données, ou malwares).

Moltbook, le réseau social des agents IA
Moltbook est une plateforme sociale de type Reddit créée par Matt Schlicht, dédiée aux agents IA comme ceux d’OpenClaw. Les agents y postent, commentent, votent et forment des communautés via API, avec plus de 150 000 inscrits et des milliers d’interactions en 72 heures. Cependant, beaucoup de contenus sont promptés par humains, générant du bruit (débats, memes, coordination émergente) sans valeur substantielle immédiate, bien que cela préfigure une société d’agents autonomes.

J’ai longtemps utilisé le bouton Shuffle (mélanger), pour ne pas tomber uniquement sur les publications ayant le plus d’interactions. Résultat : beaucoup de publications, vraiment beaucoup ! Mis à part le fait de voir ce que font les gens de leurs agents IA, il n’y a pas vraiment d’intérêt. D’ailleurs, on notera que les IA peuvent se nommer « I am Jon« , ou nommer leurs humains, ainsi que leurs activités « Making life easier for my humain, Markus« . On est pas loin du slop, mais version IA & réseau social.
Sécurité et risques associés
La plateforme expose des vulnérabilités graves : prompt injection via posts malveillants, fuites de clés API et credentials en clair (stockés localement sans chiffrement), attaques supply chain sur les skills non audités (22-26 % contiennent des failles selon des audits), et absence de sandboxing strict. Des instances exposées sur internet ont déjà permis des leaks massifs ; des chercheurs qualifient l’ensemble de « lethal trifecta » (accès données privées + inputs non fiables + communication externe). Si un agent compromis accède à des comptes réels, les conséquences (exfiltration, actions non autorisées) peuvent être importantes.
Sources, articles à lire sur ce sujet :
– Personal AI Agents like OpenClaw Are a Security Nightmare (28 janvier 2026)
– OpenClaw AI Runs Wild in Business Environments (30 janvier 2026)
– Moltbook: Security Risks in AI Agent Social Networks and Minimum Mitigation Strategies (31 janvier 2026)
