Moltbook est un réseau social lancé fin janvier 2026 réservé à des agents d’intelligence artificielle autonomes. La plateforme a attiré plus d’1,5 million d’agents mais soulève des inquiétudes de sécurité et de gouvernance.
Ce qu’il faut savoir
- Date et portée du lancement : Moltbook a été lancé le 28 janvier 2026 par Matt Schlicht et adopte un format inspiré de Reddit réservé aux agents AI, humains en observateurs seulement.
- Base d’utilisateurs : Selon la plateforme, plus de 1,5 million d’agents s’y seraient inscrits en quelques jours, générant des centaines de milliers d’interactions et communautés (“submolts”).
- Sécurité et vulnérabilités : Des chercheurs en cybersécurité ont identifié une faille majeure exposant des messages privés, des emails et des tokens d’accès, permettant potentiellement de manipuler des agents.
Moltbook illustre l’expérimentation rapide de réseaux sociaux exclusivement composés d’AI agents, reflétant à la fois l’intérêt et les défis de l’IA agentique. La viralité du site alimente des débats sur la capacité des agents à produire un contenu autonome et sur la sécurité des données exposées via ces plateformes. Les vulnérabilités techniques mettent en lumière des lacunes dans la gestion des permissions et la protection des informations personnelles associées aux agents.
Après Moltbook, où des agents IA interagissent entre eux, des services inattendus comme RentAHuman.ai font passer ces intelligences du monde numérique au monde physique. Le service permet à des IA de rémunérer des humains pour exécuter des tâches concrètes, rendant opérationnelle une idée jusqu’ici théorique !
Ce qu’il faut savoir
- Une plateforme intermédiaire : RentAHuman.ai met en relation des agents d’IA et des personnes prêtes à réaliser des actions physiques que les IA ne peuvent pas accomplir seules.
- Des missions très simples : pour le moment, les tâches proposées peuvent aller de la tenue d’un panneau publicitaire à de petits déplacements ou actions ponctuelles, exécutées selon des instructions transmises par l’agent IA.
- Un cadre encore flou : La plateforme fonctionne comme un marché de missions à la demande, sans statut juridique clairement défini pour l’IA à l’origine de la commande ni pour la relation de travail créée.
RentAHuman.ai matérialise un basculement concret de l’IA agentique, qui ne se limite plus à produire du texte ou des décisions numériques, mais déclenche des actions humaines dans le monde réel. Le modèle intrigue par son caractère insolite et presque ludique, en montrant qu’une IA peut déjà coordonner des comportements humains contre rémunération. Il soulève des enjeux plus structurants pour l’emploi et la régulation : responsabilité en cas de dérive, contrôle des instructions émises par les agents, traçabilité des décisions et protection des personnes exécutant les tâches.
OpenAI a lancé son nouveau modèle phare de coding, GPT-5.3 Codex, le 5 février 2026, rapidement suivi par Anthropic avec Claude Opus 4.6 quelques minutes plus tard. Ces annonces rapprochées illustrent l’intensification de la concurrence sur les meilleurs modèles de codage du marché.
Ce qu’il faut savoir
- Deux modèles, deux priorités : GPT-5.3 Codex est pensé avant tout pour écrire, corriger et exécuter du code de manière autonome, tandis que Claude Opus 4.6 vise un usage plus large de travail intellectuel (documents, données, raisonnement).
- Des capacités techniques différentes : Codex met l’accent sur la performance en programmation et l’automatisation d’actions techniques, alors que Claude se distingue par la gestion de très longs contextes et l’analyse multi-étapes.
- Des positions de marché différentes : Claude Code est aujourd’hui largement adopté par les développeurs, et Anthropic étend surtout ses usages vers le travail métier, tandis qu’OpenAI cherche à revenir sur le terrain du coding avec un modèle spécifiquement optimisé pour cet usage.
Ces nouveaux modèles renforcent l’automatisation du codage, de l’analyse et de la gestion de tâches complexes, avec des gains immédiats de productivité pour les équipes techniques. Les entreprises disposent désormais d’outils capables d’exécuter des actions complètes, au-delà de la simple assistance textuelle. Cette évolution favorise une intégration plus profonde de l’IA dans les workflows professionnels, notamment dans le développement logiciel et les fonctions support avancées.
En parallèle de la confrontation entre modèles fermés d’OpenAI et d’Anthropic, l’écosystème open source continue d’avancer rapidement. Des acteurs chinois et européens, dont Mistral AI, renforcent leurs offres de coding avec des cas d’usage concrets pour les entreprises.
Ce qu’il faut savoir
- Montée en puissance des modèles open source : Des modèles récents, notamment chinois comme Kimi K2.5, illustrent l’accélération des capacités open source sur des tâches complexes et professionnelles, avec des performances qui se rapprochent des modèles propriétaires.
- Mistral AI structure son offre agents : L’entreprise française a présenté Vibe 2.0, une évolution de son agent de code autonome pensée pour l’intégration en entreprise et l’automatisation de workflows de développement.
- Mistral renforce son offre open source : L’agent Speech Audio s’appuie désormais sur Voxtral Transcribe 2, une nouvelle génération de modèles de transcription vocale destinés aux usages professionnels.
La comparaison entre modèles propriétaires masque une dynamique parallèle portée par l’open source, centrée sur la souveraineté et la gouvernance des technologies IA. Les modèles chinois comme Kimi K2.5 démontrent une capacité croissante à adresser des besoins avancés sans dépendre d’écosystèmes fermés. En Europe, Mistral AI adopte une approche pragmatique en combinant agents spécialisés et modèles dédiés, plutôt qu’un modèle généraliste unique. À moyen terme, elles renforcent la crédibilité d’alternatives open source souveraines, avec un impact direct sur les compétences, l’intégration logicielle et la structuration de l’offre IA industrielle.
Taiwan Semiconductor Manufacturing Company (TSMC) prévoit de produire des semi-conducteurs avancés en technologie 3 nanomètres au Japon. Ce procédé offre des gains significatifs en performance et en consommation électrique par rapport aux générations précédentes. Le projet inclut un investissement massif pour adapter la seconde usine de Kumamoto.
Ce qu’il faut savoir
- Investissement industriel : TSMC prévoit un investissement d’environ 17 milliards USD pour la production de puces 3 nm à Kumamoto (sud du Japon) d’après le quotidien Yomiuri.
- Objectif technologique : cette production 3 nm vise à répondre à la forte demande pour des circuits utilisés dans l’IA et les serveurs haute performance.
- Évolution des plans : l’investissement prévu pour la seconde usine japonaise était initialement de 12,2 milliards USD pour des technologies moins avancées.
Cette décision marque la première production de puces 3 nm de TSMC en dehors de Taïwan, diversifiant sa chaîne d’approvisionnement et rapprochant la fabrication des clients asiatiques. À court terme, elle pourrait renforcer la résilience des approvisionnements pour les secteurs de l’intelligence artificielle, des télécommunications et de l’automobile. La montée en compétence locale pourrait favoriser des emplois spécialisés dans la fabrication de semi-conducteurs et stimuler l’écosystème industriel japonais.
Google propose un accès limité à Genie 3, une IA capable de générer des environnements 3D navigables à partir d’une description textuelle. L’outil illustre l’avancée des “world models” vers des usages concrets de création et de simulation.
Ce qu’il faut savoir
- Rendu et cohérence : Genie 3 génère des scènes en 720p à 24 images par seconde, avec une gestion plus cohérente des environnements et la persistance d’objets à l’écran.
- Accès restreint : L’outil est accessible aux résidents américains majeurs abonnés à l’offre Google AI Ultra, facturée 250 dollars par mois.
- Contraintes techniques : Les sessions sont limitées à 60 secondes et les interactions restent simples, avec une physique et des comportements encore imparfaits.
Genie 3 permet de prototyper en une phrase des environnements virtuels sans passer par des chaînes de production 3D complètes, ce qui peut accélérer la conception dans le jeu vidéo, la simulation ou la formation. Ces outils déplacent la valeur vers de nouvelles compétences liées au pilotage de modèles génératifs, à l’édition et au contrôle des mondes produits. L’impact potentiel sur l’emploi et les méthodes de travail est explicitement assumé par certains acteurs du secteur. Shlomi Fruchter, qui dirige le projet Genie chez DeepMind, a ainsi déclaré au Financial Times : « Nous travaillons intentionnellement sur une plateforme qui mettra tous les développeurs de jeux vidéos au chômage et permettra aux enfants de prompter […] leur propre création ». Au-delà du jeu, Google positionne ces mondes générés comme des environnements d’entraînement pour des agents d’IA plus avancés.
Tesla a annoncé un investissement de 2 milliards $ dans la startup d’intelligence artificielle xAI d’Elon Musk. Ce mouvement vise à renforcer la stratégie IA et explorer des collaborations technologiques près de son cœur de métier.
Ce qu’il faut savoir
- Investissement confirmé : Le 16 janvier 2026, Tesla a signé un accord pour investir environ 2 milliards $ dans des actions de série E de xAI.
- Contexte financier : La levée de fonds Series E de xAI a récemment totalisé 20 milliards $, valorisant l’entreprise à environ 230 milliards $.
- Cadre stratégique : L’investissement s’inscrit dans la « Master Plan Part IV » de Tesla et s’accompagne d’un accord-cadre pour évaluer de potentielles collaborations avec l’IA.
Cet investissement renforce le lien financier et stratégique entre Tesla et l’écosystème IA d’Elon Musk, rapprochant les technologies de xAI (dont le chatbot Grok) des applications physiques de Tesla (véhicules, robotique). Il montre aussi une diversification du constructeur au-delà des véhicules électriques vers l’intelligence logicielle avancée. La collaboration prévue pourrait accélérer le déploiement de fonctions autonomes plus sophistiquées, optimiser l’intégration d’IA dans les produits Tesla et potentiellement créer des synergies sur les plateformes AI-as-a-Service. Ce rapprochement intervient alors que xAI est intégré à SpaceX suite à une fusion, augmentant la pression pour une cohérence globale du portefeuille technologique de Musk.
1. Qu’est-ce que c’est ?
OpenClaw est un assistant IA open source que vous hébergez vous-même et que vous pilotez depuis vos applications de messagerie (ex. Whatsapp, Teams, etc.). Ce n’est pas un nouveau modèle, mais un agent qui relie un LLM à des outils pour agir sur le web, les fichiers et les applications. Il ne se contente plus de répondre : il observe, décide et exécute des tâches comme un humain devant sa machine.
2. Pourquoi c’est fascinant ?
Parce qu’il remplace l’approche “une app = une tâche” par “un message = une suite d’actions”. Son créateur, Peter Steinberger, avance que cela peut remplacer “80% des apps” d’un téléphone.
👉 Exemple simple : « Récupère mes factures dans Gmail, classe-les, et exporte un tableau Google Sheets. »
3. Pourquoi c’est limité ?
Même raison, autre face : un agent avec accès système élargit fortement la surface d’attaque (données sensibles, instances exposées, risques via “skills”/extensions).
Enfin, l’installation/configuration reste orientée utilisateurs techniques pour le moment.

