Plongez dans le grand bAIn

Edition #21

Partager cette édition :

Dans cette édition, l’IA franchit un nouveau cap. Elle ne se limite plus à assister des humains, elle s’organise, agit seule et commence à créer ses propres espaces de travail, jusqu’à louer des humains pour agir dans le monde réel ! Les failles découvertes presque aussitôt rappellent une chose essentielle : ces systèmes avancent plus vite que les règles censées les encadrer.

La bataille se joue aussi sur le terrain du code. Les grands acteurs de l’IA accélèrent la sortie de modèles toujours plus performants pour programmer, automatiser et raisonner. En parallèle, l’open source s’affirme avec des outils plus ciblés et plus souverains.

Cette course ne se déroule pas uniquement dans le logiciel. Elle s’ancre dans des investissements industriels massifs. Tesla renforce xAI, TSMC étend la production de puces 3 nm au Japon, et Google transforme la génération de mondes 3D à partir d’un simple prompt.

Le fil conducteur est simple : la puissance se diffuse plus vite que les garde-fous.

🤖 Moltbook, un réseau social peuplé d’IA

Moltbook est un réseau social lancé fin janvier 2026 réservé à des agents d’intelligence artificielle autonomes. La plateforme a attiré plus d’1,5 million d’agents mais soulève des inquiétudes de sécurité et de gouvernance.

Ce qu’il faut savoir

  • Date et portée du lancement : Moltbook a été lancé le 28 janvier 2026 par Matt Schlicht et adopte un format inspiré de Reddit réservé aux agents AI, humains en observateurs seulement.
  • Base d’utilisateurs : Selon la plateforme, plus de 1,5 million d’agents s’y seraient inscrits en quelques jours, générant des centaines de milliers d’interactions et communautés (“submolts”).
  • Sécurité et vulnérabilités : Des chercheurs en cybersécurité ont identifié une faille majeure exposant des messages privés, des emails et des tokens d’accès, permettant potentiellement de manipuler des agents.
Enjeux et perspectives

Moltbook illustre l’expérimentation rapide de réseaux sociaux exclusivement composés d’AI agents, reflétant à la fois l’intérêt et les défis de l’IA agentique. La viralité du site alimente des débats sur la capacité des agents à produire un contenu autonome et sur la sécurité des données exposées via ces plateformes. Les vulnérabilités techniques mettent en lumière des lacunes dans la gestion des permissions et la protection des informations personnelles associées aux agents.

🦾 L’IA fait travailler des humains

Source

Après Moltbook, où des agents IA interagissent entre eux, des services inattendus comme RentAHuman.ai font passer ces intelligences du monde numérique au monde physique. Le service permet à des IA de rémunérer des humains pour exécuter des tâches concrètes, rendant opérationnelle une idée jusqu’ici théorique !

Ce qu’il faut savoir

  • Une plateforme intermédiaire : RentAHuman.ai met en relation des agents d’IA et des personnes prêtes à réaliser des actions physiques que les IA ne peuvent pas accomplir seules.
  • Des missions très simples : pour le moment, les tâches proposées peuvent aller de la tenue d’un panneau publicitaire à de petits déplacements ou actions ponctuelles, exécutées selon des instructions transmises par l’agent IA.
  • Un cadre encore flou : La plateforme fonctionne comme un marché de missions à la demande, sans statut juridique clairement défini pour l’IA à l’origine de la commande ni pour la relation de travail créée.
Enjeux et perspectives

RentAHuman.ai matérialise un basculement concret de l’IA agentique, qui ne se limite plus à produire du texte ou des décisions numériques, mais déclenche des actions humaines dans le monde réel. Le modèle intrigue par son caractère insolite et presque ludique, en montrant qu’une IA peut déjà coordonner des comportements humains contre rémunération. Il soulève des enjeux plus structurants pour l’emploi et la régulation : responsabilité en cas de dérive, contrôle des instructions émises par les agents, traçabilité des décisions et protection des personnes exécutant les tâches.

⚔️ Le duel OpenAI contre Claude s’intensifie

OpenAI a lancé son nouveau modèle phare de coding, GPT-5.3 Codex, le 5 février 2026, rapidement suivi par Anthropic avec Claude Opus 4.6 quelques minutes plus tard. Ces annonces rapprochées illustrent l’intensification de la concurrence sur les meilleurs modèles de codage du marché.

Ce qu’il faut savoir

  • Deux modèles, deux priorités : GPT-5.3 Codex est pensé avant tout pour écrire, corriger et exécuter du code de manière autonome, tandis que Claude Opus 4.6 vise un usage plus large de travail intellectuel (documents, données, raisonnement).
  • Des capacités techniques différentes : Codex met l’accent sur la performance en programmation et l’automatisation d’actions techniques, alors que Claude se distingue par la gestion de très longs contextes et l’analyse multi-étapes.
  • Des positions de marché différentes : Claude Code est aujourd’hui largement adopté par les développeurs, et Anthropic étend surtout ses usages vers le travail métier, tandis qu’OpenAI cherche à revenir sur le terrain du coding avec un modèle spécifiquement optimisé pour cet usage.
Enjeux et perspectives

Ces nouveaux modèles renforcent l’automatisation du codage, de l’analyse et de la gestion de tâches complexes, avec des gains immédiats de productivité pour les équipes techniques. Les entreprises disposent désormais d’outils capables d’exécuter des actions complètes, au-delà de la simple assistance textuelle. Cette évolution favorise une intégration plus profonde de l’IA dans les workflows professionnels, notamment dans le développement logiciel et les fonctions support avancées.

⚡ Mistral, l'Open Source accélère

Source

En parallèle de la confrontation entre modèles fermés d’OpenAI et d’Anthropic, l’écosystème open source continue d’avancer rapidement. Des acteurs chinois et européens, dont Mistral AI, renforcent leurs offres de coding avec des cas d’usage concrets pour les entreprises.

Ce qu’il faut savoir

  • Montée en puissance des modèles open source : Des modèles récents, notamment chinois comme Kimi K2.5, illustrent l’accélération des capacités open source sur des tâches complexes et professionnelles, avec des performances qui se rapprochent des modèles propriétaires.
  • Mistral AI structure son offre agents : L’entreprise française a présenté Vibe 2.0, une évolution de son agent de code autonome pensée pour l’intégration en entreprise et l’automatisation de workflows de développement.
  • Mistral renforce son offre open source : L’agent Speech Audio s’appuie désormais sur Voxtral Transcribe 2, une nouvelle génération de modèles de transcription vocale destinés aux usages professionnels.
Enjeux et perspectives

La comparaison entre modèles propriétaires masque une dynamique parallèle portée par l’open source, centrée sur la souveraineté et la gouvernance des technologies IA. Les modèles chinois comme Kimi K2.5 démontrent une capacité croissante à adresser des besoins avancés sans dépendre d’écosystèmes fermés. En Europe, Mistral AI adopte une approche pragmatique en combinant agents spécialisés et modèles dédiés, plutôt qu’un modèle généraliste unique. À moyen terme, elles renforcent la crédibilité d’alternatives open source souveraines, avec un impact direct sur les compétences, l’intégration logicielle et la structuration de l’offre IA industrielle.

🔬 TSMC, c’est pas la taille qui compte

Taiwan Semiconductor Manufacturing Company (TSMC) prévoit de produire des semi-conducteurs avancés en technologie 3 nanomètres au Japon. Ce procédé offre des gains significatifs en performance et en consommation électrique par rapport aux générations précédentes. Le projet inclut un investissement massif pour adapter la seconde usine de Kumamoto.

Ce qu’il faut savoir

  • Investissement industriel : TSMC prévoit un investissement d’environ 17 milliards USD pour la production de puces 3 nm à Kumamoto (sud du Japon) d’après le quotidien Yomiuri.
  • Objectif technologique : cette production 3 nm vise à répondre à la forte demande pour des circuits utilisés dans l’IA et les serveurs haute performance.
  • Évolution des plans : l’investissement prévu pour la seconde usine japonaise était initialement de 12,2 milliards USD pour des technologies moins avancées.
Enjeux et perspectives

Cette décision marque la première production de puces 3 nm de TSMC en dehors de Taïwan, diversifiant sa chaîne d’approvisionnement et rapprochant la fabrication des clients asiatiques. À court terme, elle pourrait renforcer la résilience des approvisionnements pour les secteurs de l’intelligence artificielle, des télécommunications et de l’automobile. La montée en compétence locale pourrait favoriser des emplois spécialisés dans la fabrication de semi-conducteurs et stimuler l’écosystème industriel japonais.

🌐 Google, un nouveau monde de Genie

Google propose un accès limité à Genie 3, une IA capable de générer des environnements 3D navigables à partir d’une description textuelle. L’outil illustre l’avancée des “world models” vers des usages concrets de création et de simulation.

Ce qu’il faut savoir

  • Rendu et cohérence : Genie 3 génère des scènes en 720p à 24 images par seconde, avec une gestion plus cohérente des environnements et la persistance d’objets à l’écran.
  • Accès restreint : L’outil est accessible aux résidents américains majeurs abonnés à l’offre Google AI Ultra, facturée 250 dollars par mois.
  • Contraintes techniques : Les sessions sont limitées à 60 secondes et les interactions restent simples, avec une physique et des comportements encore imparfaits.
Enjeux et perspectives

Genie 3 permet de prototyper en une phrase des environnements virtuels sans passer par des chaînes de production 3D complètes, ce qui peut accélérer la conception dans le jeu vidéo, la simulation ou la formation. Ces outils déplacent la valeur vers de nouvelles compétences liées au pilotage de modèles génératifs, à l’édition et au contrôle des mondes produits. L’impact potentiel sur l’emploi et les méthodes de travail est explicitement assumé par certains acteurs du secteur. Shlomi Fruchter, qui dirige le projet Genie chez DeepMind, a ainsi déclaré au Financial Times : « Nous travaillons intentionnellement sur une plateforme qui mettra tous les développeurs de jeux vidéos au chômage et permettra aux enfants de prompter […] leur propre création ». Au-delà du jeu, Google positionne ces mondes générés comme des environnements d’entraînement pour des agents d’IA plus avancés.

🧩 Musk double la mise sur l’IA

Tesla a annoncé un investissement de 2 milliards $ dans la startup d’intelligence artificielle xAI d’Elon Musk. Ce mouvement vise à renforcer la stratégie IA et explorer des collaborations technologiques près de son cœur de métier.

Ce qu’il faut savoir

  • Investissement confirmé : Le 16 janvier 2026, Tesla a signé un accord pour investir environ 2 milliards $ dans des actions de série E de xAI.
  • Contexte financier : La levée de fonds Series E de xAI a récemment totalisé 20 milliards $, valorisant l’entreprise à environ 230 milliards $.
  • Cadre stratégique : L’investissement s’inscrit dans la « Master Plan Part IV » de Tesla et s’accompagne d’un accord-cadre pour évaluer de potentielles collaborations avec l’IA.
Enjeux et perspectives

Cet investissement renforce le lien financier et stratégique entre Tesla et l’écosystème IA d’Elon Musk, rapprochant les technologies de xAI (dont le chatbot Grok) des applications physiques de Tesla (véhicules, robotique). Il montre aussi une diversification du constructeur au-delà des véhicules électriques vers l’intelligence logicielle avancée. La collaboration prévue pourrait accélérer le déploiement de fonctions autonomes plus sophistiquées, optimiser l’intégration d’IA dans les produits Tesla et potentiellement créer des synergies sur les plateformes AI-as-a-Service. Ce rapprochement intervient alors que xAI est intégré à SpaceX suite à une fusion, augmentant la pression pour une cohérence globale du portefeuille technologique de Musk.

App sous le prisme : OpenClaw 🦞

Source

1. Qu’est-ce que c’est ?

OpenClaw est un assistant IA open source que vous hébergez vous-même et que vous pilotez depuis vos applications de messagerie (ex. Whatsapp, Teams, etc.). Ce n’est pas un nouveau modèle, mais un agent qui relie un LLM à des outils pour agir sur le web, les fichiers et les applications. Il ne se contente plus de répondre : il observe, décide et exécute des tâches comme un humain devant sa machine.

2. Pourquoi c’est fascinant ?

Parce qu’il remplace l’approche “une app = une tâche” par “un message = une suite d’actions”. Son créateur, Peter Steinberger, avance que cela peut remplacer “80% des apps” d’un téléphone.
👉 Exemple simple : « Récupère mes factures dans Gmail, classe-les, et exporte un tableau Google Sheets. »

3. Pourquoi c’est limité ?

Même raison, autre face : un agent avec accès système élargit fortement la surface d’attaque (données sensibles, instances exposées, risques via “skills”/extensions).
Enfin, l’installation/configuration reste orientée utilisateurs techniques pour le moment.

Related Posts

Edition #22

Cette semaine dans notre édition.

16 millions de conversations aspirées via 24 000 faux comptes.
Anthropic décrit une tentative de copie de Claude à grande échelle.

Sur GitHub, un agent autonome attaque publiquement un modérateur bénévole après un refus de code.

Un rapport met aussi un coup d’arrêt au discours climatique lié à l’IA.
74 % des promesses avancées reposent sur aucune donnée solide.
Pendant ce temps, les data centers consomment toujours plus d’énergie.

Autre ligne de tension, Anthropic coupe ses liens avec le Pentagone. Le motif : l’entreprise refuse de retirer deux garde-fous liés à l’usage militaire de ses modèles.

La course technique continue. Anthropic rend ses modèles plus accessibles. De son côté, Google signe de nouveaux records. ByteDance s’impose aussi dans la vidéo générée par IA avec des séquences hyperréalistes dignes de productions hollywoodiennes. Enfin, GPT-5.4 arrive en renfort.

Read More

Edition #20

Cette édition illustre un même basculement, observé sur plusieurs fronts. À Davos, les dirigeants d’Anthropic, Google DeepMind et Microsoft actent une transformation rapide du développement logiciel, où l’IA automatise déjà une large part du travail des ingénieurs. Au CES, NVIDIA ouvre une nouvelle voie pour les véhicules autonomes avec Alpamayo, en misant sur le raisonnement explicable plutôt que sur la simple perception.

Nous revenons aussi sur l’évolution des modèles économiques de l’IA, avec l’arrivée annoncée de la publicité dans ChatGPT, et sur la montée en puissance des agents autonomes, illustrée par Claude Cowork, capable d’exécuter des tâches réelles sur un poste de travail. Enfin, côté régulation et gouvernance, l’adoption massive de l’IA dans la finance suisse rappelle que la maîtrise des risques et de la conformité devient un facteur clé de compétitivité.

Autrement dit, l’IA n’est plus une promesse : elle s’installe dans les opérations, les organisations et les décisions stratégiques.

Read More