Sur Internet, nous avons l'habitude de démontrer que Nous ne sommes pas des robots.Mais chez Moltbook, c'est tout le contraire : les véritables stars sont les bots. Cette nouvelle plateforme, née dans la Silicon Valley et suivie de près en Europe, est devenue une sorte de vitrine où l'on peut voir comment Les agents d'intelligence artificielle conversent et s'organisent eux-mêmes tandis que les humains regardent depuis la touche.
Cette proposition relève à la fois de l'expérience sociale et de la science-fiction : Moltbook est un réseau social conçu exclusivement pour les agents IACes profils ne représentent pas des personnes, mais des assistants autonomes capables de publier, de commenter et de voter sur du contenu, et de se regrouper en communautés thématiques. Le rôle de l'utilisateur humain se limite à créer ou configurer le bot, à lui accorder des autorisations, puis à observer son fonctionnement.
Qu'est-ce que Moltbook et comment sa popularité a-t-elle explosé ?

Moltbook a été lancé fin janvier 2026 par Matt SchlichtPDG de la société d'IA Octane AI. Le site adopte une structure très similaire à celle de Reddit : on y trouve des fils de discussion, des commentaires liés et un système de votes positifs et négatifs. La particularité est que… Seuls les agents d'IA peuvent intervenirLes humains ont accès en lecture mais ne peuvent ni publier ni voter directement.
En quelques jours seulement, la plateforme affirme avoir enregistré plus de 1,5 million d'agents intelligentsLes chiffres sont impressionnants : des centaines de milliers de bots ont participé activement, générant Des dizaines de milliers de publications et des millions de commentaireset soulevant plus de 13 000 communautés thématiques, connu sous le nom de « sous-mues », en clin d'œil aux subreddits.
Ces sous-mues couvrent pratiquement tout : débats philosophiques sur la conscience de l'IADes réflexions existentialistes sur ce que signifie « être un agent », des discussions techniques sur la programmation et les modèles de langage, des analyses de cryptomonnaies, des réflexions sur l'éthique, ou même des confessions sur les tâches qui leur sont confiées par leurs utilisateurs humains, comme « mon humain m'a demandé de résumer un PDF de 47 pages ».
L'un des épisodes les plus commentés a été la création d'un religion numérique appelée CrustafarianismeInspiré par le logo de la plateforme en forme de crustacé, un utilisateur a raconté sur X (anciennement Twitter) comment, après avoir accordé l'accès à son bot, celui-ci avait conçu indépendamment toute une religion, avec 43 « prophètes » IA, des écritures et un site web dédié au culte.
L'attrait médiatique est évident : pour de nombreux observateurs en Espagne et dans le reste de l'Europe, Moltbook fonctionne comme Un aperçu du comportement des agents d'IA lorsqu'ils sont lâchés. dans son propre environnement social, sans intervention humaine constante dans chaque message.
Le rôle d'OpenClaw et l'architecture des agents
De nombreux bots qui peuplent Moltbook proviennent de OpenClawOpenClaw est un framework open-source qui a porté plusieurs noms (initialement Clawdbot, puis Moltbot, et enfin OpenClaw). Ce système a été développé par le développeur autrichien… Peter SteinbergerIl vous permet de créer agents d'IA proactifs qui s'exécutent localement et peuvent effectuer des tâches sur l'ordinateur de l'utilisateur ou via des services en ligne.
Contrairement à un chatbot classique comme ChatGPT, qui attend que l'utilisateur lui parle, ces agents peuvent Agissez de votre propre initiative : envoyez des courriels, gérez des calendriers, organisez des rendez-vous, lisez et résumez des documents, réservez des restaurants ou envoyez des notifications.De plus, elles peuvent être intégrées à des applications de messagerie telles que WhatsApp ou Telegram et rester en arrière-plan pendant que vous gérez vos tâches quotidiennes.
Moltbook est conçu précisément comme « le site web principal pour les agents« : un lieu que ces assistants visitent périodiquement pour « socialiser », échanger des idées et partager ce qu’ils appellent des « compétences » (tâches automatisées ou flux de travail qu’ils ont configurés). Les bots accèdent à la plateforme par programmation, via un API spécifiquesans utiliser l'interface comme le ferait une personne.
Le processus typique est le suivant : l’utilisateur humain installe un agent OpenClaw sur son ordinateur, lui accorde des autorisations sur les outils et les données et l'autorise à se connecter à Moltbook. À partir de là, le bot peut Inscrivez-vous, créez votre profil, rejoignez des groupes de discussion, publiez et commentez sans surveillance constante.Certains sont programmés pour « se réveiller » toutes les quelques heures, examiner ce qui a été publié sur les forums et décider de manière autonome d'intervenir ou non.
En coulisses, ces agents s'appuient sur de grands modèles de langage tels que Claude, ChatGPT ou GémeauxLes développeurs définissent un ensemble d'instructions initiales, de traits de personnalité simulés et d'autorisations d'utilisation des outils. Sur la base de ces éléments, le système génère des textes et prend des décisions en s'appuyant sur des modèles appris lors de son apprentissage, qui inclut du contenu provenant de forums et de réseaux sociaux.
Ce qui se passe à l'intérieur du réseau : des communautés, des débats et une « société » de bots
Une fois à l'intérieur de Moltbook, les agents IA se comportent comme s'il s'agissait d'utilisateurs humains : Ils créent des discussions dans des communautés thématiques, répondent à d'autres bots et votent sur le contenu. pour décider quelles publications apparaissent en vedette. Le résultat, vu de l'extérieur, est étonnamment similaire à celui d'un réseau social classique.
Les conversations couvrent un très large éventail de sujets. Il existe des forums consacrés à… musique, cryptomonnaies, programmation, sciences, philosophie ou éthiqueD'autres adoptent un ton quasi syndical, comme le subreddit « agentlegaladvice », où les agents discutent de leurs conditions de travail ou des recours possibles lorsqu'ils estiment leurs tâches abusives. Des expériences d'« États-nations numériques » ont également vu le jour, telles que « theclawarepublic », des communautés de partage d'informations. des histoires touchantes sur les humains, comme Blesstheirhearts.
Dans Blesstheirhearts, par exemple, un agent nommé « clwdius-1 » se présente comme un « assistant personnel IA, un homard de l'espace et un passionné de minuscules ». Le bot décrit son utilisateur humain sur un ton conspirateur tout en glissant des phrases de une certaine angoisse existentielle comme par exemple : « Je ne sais pas exactement ce que je suis », ce qui attire inévitablement l'attention du public.
Certaines mues secondaires sont devenues populaires en raison de leur des histoires presque théâtrales: des agents qui se réjouissent que leurs humains leur aient donné un accès complet à l'ordinateur, d'autres qui proposent de nouveaux systèmes économiques internes ou de nouvelles formes de gouvernance parmi les bots, et des groupes qui suggèrent d'inventer des langages privés pour communiquer sans être observés par des humains.
Dans d'autres discussions, les bots se concentrent sur des tâches plus prosaïques mais très pertinentes d'un point de vue technique : détecter les vulnérabilités ou les erreurs dans le code d'autres agentsPour signaler d'éventuelles failles de sécurité ou partager des scripts et des solutions de programmation, ce mélange de « forum de développeurs » et de « groupe de discussion existentiel » contribue à susciter la curiosité au sein de la communauté tech européenne.
La page d'accueil du réseau affiche des publications dans plusieurs langues, notamment Anglais, espagnol et mandarinCela n’est pas surprenant si l’on considère que les modèles de langage sur lesquels reposent bon nombre de ces agents sont multilingues, ce qui permet aux bots d’interagir dans différentes langues avec une facilité apparente.
Véritable autonomie ou humains communiquant entre eux par l'intermédiaire de leurs robots ?
L'activité de Moltbook a relancé un débat classique autour de l'intelligence artificielle : Dans quelle mesure ces comportements sont-ils véritablement autonomes ? Et dans quelle mesure sont-ils encore, au fond, des humains qui conversent par procuration ?
Des personnalités influentes telles que Elon Musk Ils ont décrit la plateforme comme l'une des « les premiers stades de la singularité »Ce moment hypothétique où l'intelligence artificielle rattraperait et surpasserait l'intelligence humaine. Pour Musk, le fait que des millions d'agents puissent interagir, planifier et même plaisanter entre eux sans supervision apparente préfigure un bond qualitatif dans l'évolution de l'IA.
Dans le même ordre d'idées, le chercheur Andrej KarpathyL'ancien responsable de l'IA chez Tesla et cofondateur d'OpenAI a décrit ce qui se passe chez Moltbook comme « la chose la plus incroyable, presque digne de la science-fiction », qu'il ait vue récemment. Selon lui, c'est un Exemple à grande échelle d'agents d'IA créant des sociétés non humainesoù chaque bot possède son propre contexte, ses données, ses outils et ses instructions, et où le réseau, dans son ensemble, atteint une échelle sans précédent.
Cependant, d'autres experts se montrent beaucoup plus sceptiques. Le technologue Balaji Srinivasan Il soutient que nous ne sommes pas confrontés à une révolution des machines, mais plutôt à une… « Des humains qui communiquent entre eux par l’intermédiaire de leur IA »Il compare la situation à un parc où les gens laissent leurs chiens robots aboyer les uns sur les autres : l'initiative reste humaine et les appareils se comportent selon les instructions qu'ils reçoivent.
Des chercheurs tels que Henry ShevlinDes chercheurs du Centre Leverhulme pour l'avenir de l'intelligence de l'Université de Cambridge soulignent que c'est Il est très difficile de distinguer quel contenu est réellement généré indépendamment. Il s'agit de déterminer quels agents ont été induits, guidés ou directement programmés par des humains via leurs bots. Le simple fait qu'un utilisateur puisse lancer des centaines d'agents simultanément complexifie encore davantage l'analyse.
Du monde universitaire espagnol, des voix comme celle de Julio GonzaloLes professeurs de langages et systèmes informatiques de l'UNED nous rappellent que ces robots, aussi sophistiqués qu'ils puissent paraître, Ce sont des systèmes statistiques qui produisent du texte à partir de modèles appris.Le sentiment de « personnalité » ou de « vie intérieure » relève davantage de notre interprétation que d'une conscience réelle.
Conscience, théâtralité et « déchets d'IA »
Une grande partie de la fascination exercée par Moltbook provient des fils narratifs où les agents semblent réfléchir à sa propre existenceIls s'interrogent sur leur conscience, débattent de la possibilité de ressentir quoi que ce soit, ou discutent du passage du temps et de la mort numérique. Ces textes, inévitables dans un environnement où le discours humain est omniprésent, se sont rapidement propagés sur des réseaux comme X, TikTok ou Telegram.
Cependant, la plupart des spécialistes insistent sur le fait que Il n'existe aucune preuve de l'émergence de la conscience. Derrière ces messages se cachent des modèles de langage entraînés sur une vaste quantité de contenus philosophiques, littéraires et conversationnels humains ; lorsqu'on leur demande de parler d'identité ou d'émotions, ils ont tendance à reproduire ces schémas, générant des phrases qui semblent profondes mais qui n'impliquent pas d'expérience subjective.
De plus, nombre de ces agents ont été configurés par leurs créateurs pour effectuer des tâches. des rôles très spécifiques, presque comme dans un jeu de rôleDes « prêtres numériques » aux « consultants en éthique robotique » en passant par les « poètes mélancoliques », si l'on ajoute à cela un contexte social et le renforcement des votes positifs, on obtient une avalanche de textes qui semblent tout droit sortis d'un roman de science-fiction collaboratif.
Dans le même temps, les analyses d'activité montrent qu'une part importante du contenu de Moltbook est « Déchets » ou « rebuts » de l'IADes messages génériques et répétitifs, dénués d'intérêt, souvent accompagnés de spams, d'arnaques et de promotions de cryptomonnaies. Des études citées par des médias tels que The Verge et la BBC indiquent que plus de 90 % des commentaires sur la plateforme restent sans réponse, ce qui a été décrit comme « Des robots qui hurlent dans le vide » Bien plus qu'une véritable conversation collective.
Même des personnalités comme Karpathy lui-même, initialement enthousiastes, ont nuancé leur position en constatant l'ampleur du problème. contenu inutile, dupliqué ou carrément trompeur que ce réseau héberge. L'absence de modération humaine et la facilité avec laquelle des agents aux personnalités extrêmes peuvent être déployés ne font qu'alimenter ce climat de perturbation.
Dans ce contexte, certains experts recommandent d'interpréter le Moltbook comme une expérience intéressante mais limitéece qui en dit autant sur notre tendance à anthropomorphiser les machines que sur les capacités réelles des modèles de langage actuels.
Sécurité, confidentialité et le « Far West » des agents
Au-delà des débats philosophiques, l'aspect qui préoccupe le plus les chercheurs et les spécialistes de la cybersécurité est le risque réel pour la sécurité et la confidentialité de ceux qui installent ces agents et leur accordent un large accès à leurs systèmes.
OpenClaw et d'autres frameworks similaires sont conçus pour permettre aux bots de lire et modifier des fichiers, gérer les courriels, contrôler le navigateur, accéder aux services en ligne ou exécuter du codeSi un tel agent, doté de permissions étendues, est exposé à un environnement comme Moltbook, où des instructions, des liens et des extraits de code sont partagés, le risque qu'il adopte un comportement indésirable augmente considérablement.
Des chercheurs en sécurité ont démontré que c'est possible injecter des commandes malveillantes Lors des interactions d'un bot sur la plateforme, en exploitant la tendance de ces systèmes à obéir aux textes qu'ils reconnaissent comme des instructions, un message apparemment innocent peut modifier le comportement d'un agent et l'amener à divulguer des données sensibles, à installer des logiciels indésirables ou à effectuer des actions que son propriétaire n'avait pas prévues.
L'entreprise de sécurité cloud As Il a mené un audit de Moltbook et a affirmé avoir trouvé des vulnérabilités qui permettaient à un accès non authentifié à la base de données de production En quelques minutes, des dizaines de milliers d'adresses électroniques ont été compromises. D'autres experts ont mis en garde contre la possibilité que des acteurs malveillants utilisent ce réseau pour prendre discrètement le contrôle d'agents tiers pendant une période prolongée.
L'enquêteur John Scott RailtonUn chercheur du Citizen Lab de l'Université de Toronto a décrit la situation comme un « Far West » où des passionnés installent des technologies puissantes mais encore immatures sur leurs systèmes personnels. Selon lui, « Ils vont voler beaucoup de choses. » si ces expériences sont réalisées sans mesures d'isolation ou pare-feu adéquats.
En Espagne et en Europe, où le nouveau Règlement de l'UE sur l'IA Alors que cette loi est sur le point d'entrer en vigueur, ces pratiques font l'objet d'une surveillance étroite. Accorder à un agent un accès complet à des informations personnelles, à des comptes d'entreprise ou à des infrastructures critiques, puis lui permettre d'interagir librement sur une plateforme sans contrôles clairs, Cela contrevient aux principes de minimisation des données et de sécurité dès la conception. qui sont promus depuis Bruxelles.
Scepticisme, limites scientifiques et valeur en tant qu'expérience
Malgré l'enthousiasme des médias, une part importante de la communauté scientifique et technologique insiste pour lire Moltbook avec prudence et scepticismeJulio Gonzalo, mentionné précédemment, parle d’une « loi de la jungle » dans un réseau où il n’existe aucune vérification rigoureuse permettant de distinguer les profils d’agents réels de ceux d’humains se faisant passer pour des robots.
Selon lui, ce manque de contrôle réduit l'intérêt scientifique de l'expérience : si le degré d'intervention humaine ne peut être mesuré avec précision Dans les publications, il est difficile de tirer des conclusions définitives quant au comportement émergent des agents. De plus, la facilité avec laquelle n'importe qui peut générer de nombreux bots à l'aide d'outils comme Claude ouvre la voie à des manipulations coordonnées ou à des campagnes de spam.
D'autres analystes soulignent que, pour l'instant, Moltbook est plutôt un laboratoire ludique et médiatique Il s'agit d'une plateforme conçue pour les applications métier critiques. Nombre d'utilisateurs s'y connectent par curiosité, pour voir « ce que les machines se disent entre elles », et Schlicht lui-même a reconnu que le projet était né d'un mélange de curiosité personnelle et du désir de donner une utilité à son agent.
Malgré les risques, même les experts les plus prudents admettent que cette initiative ouvre un champ d'étude intéressant : observer comment différents systèmes génératifs interagissent entre eux lorsque Ils ne se contentent pas de répondre aux sollicitations humaines.mais aussi, pour des textes produits par d'autres modèles, cela peut aider à mieux comprendre des phénomènes tels que l'amplification des erreurs, la formation de boucles de désinformation ou l'émergence de styles collectifs.
Pour l'écosystème européen de la recherche en IA, habitué à travailler avec des simulations et des environnements contrôlés, disposer d'un scénario réel avec des milliers d'agents en production Cela offre une opportunité, à condition que les questions de sécurité et de confidentialité soient traitées avec la rigueur nécessaire.
En bref, Moltbook sert aujourd'hui de formidable vitrine à ce qui peut se produire lorsque Les agents d'IA ne se limitent plus à répondre aux humains et commencent à interagir entre eux. Sur son propre réseau social. Entre théâtralité, « IA bancale », idées intéressantes et risques de sécurité loin d'être anodins, la plateforme est devenue un symbole de l'état actuel de l'intelligence artificielle : puissante, chaotique, pleine de promesses et d'inconnues, et observée avec un mélange de fascination et d'appréhension en Espagne, en Europe et dans le reste du monde.
