Plongez dans le grand bAIn

Edition #22

Partager cette édition :

Cette semaine dans notre édition.

16 millions de conversations aspirées via 24 000 faux comptes.
Anthropic décrit une tentative de copie de Claude à grande échelle.

Sur GitHub, un agent autonome attaque publiquement un modérateur bénévole après un refus de code.

Un rapport met aussi un coup d’arrêt au discours climatique lié à l’IA.
74 % des promesses avancées reposent sur aucune donnée solide.
Pendant ce temps, les data centers consomment toujours plus d’énergie.

Autre ligne de tension, Anthropic coupe ses liens avec le Pentagone. Le motif : l’entreprise refuse de retirer deux garde-fous liés à l’usage militaire de ses modèles.

La course technique continue. Anthropic rend ses modèles plus accessibles. De son côté, Google signe de nouveaux records. ByteDance s’impose aussi dans la vidéo générée par IA avec des séquences hyperréalistes dignes de productions hollywoodiennes. Enfin, GPT-5.4 arrive en renfort.

🌱 L’IA verte ? 74 % de vent

Alors que les grandes entreprises technologiques présentent l’IA comme un levier central de la transition écologique, le rapport remet en cause la solidité de ces discours, au moment où l’expansion des infrastructures numériques soulève des interrogations croissantes. Le 16 février 2026, l’ONG Stand.earth a publié un rapport intitulé The AI Climate Hoax, affirmant que 74 % des promesses climatiques associées à l’IA ne reposent pas sur des preuves vérifiables.

Ce qu’il faut savoir

  • À l’origine du rapport : Publié par Stand.earth avec plusieurs ONG partenaires, le rapport analyse 154 déclarations publiques émanant de grandes entreprises technologiques (dont Google et Microsoft) et d’institutions internationales. Il s’agit de la première analyse critique systématique des promesses climatiques associées à l’IA.
  • Des preuves jugées insuffisantes : Selon l’étude, seules 26 % des affirmations s’appuient sur des travaux académiques publiés, tandis que 36 % ne citent aucune source. L’analyse n’identifie aucun exemple documenté où l’IA générative grand public aurait conduit à des réductions d’émissions substantielles et vérifiables.
  • Un décalage matériel : Le rapport explique que, sous le terme d’« IA durable », on mélange souvent les IA génératives avec des outils informatiques plus classiques, tout en passant sous silence la forte consommation d’énergie et d’eau des très grands centres de données indispensables au fonctionnement des modèles les plus avancés.
Enjeux et perspectives

Sans données mesurables et comparables, ces promesses climatiques s’exposent à une remise en cause accrue dans un contexte de renforcement des exigences partout dans le monde. Au-delà du débat environnemental, la crédibilité des trajectoires net zéro s’impose comme un enjeu financier et réglementaire structurant pour les Big Tech, à mesure que la croissance de l’IA repose sur des infrastructures aux impacts bien réels. Dans ce contexte, les promesses selon lesquelles l’IA permettrait à elle seule de résoudre ces tensions apparaissent encore comme un pari à haut risque.

🧭 IA militaire : Anthropic pose ses limites

Le 26 février 2026, Anthropic a rendu public l’échec de ses négociations contractuelles avec le Département de la Défense américain, après avoir refusé de supprimer deux garde‑fous éthiques majeurs. À la fin du mois de février, le secrétaire à la Défense a officiellement rompu la relation et demandé aux partenaires du Pentagone de mettre fin à toute collaboration avec l’entreprise, ravivant le débat sur les limites de l’IA militaire.

Ce qu’il faut savoir

  • Une rupture désormais assumée, mais contestée : Selon The Atlantic, le Pentagone a interrompu la relation après l’échec des négociations, puis demandé à ses fournisseurs de se désengager d’Anthropic. De son côté, l’entreprise estime que ces mesures constituent des représailles et indique se réserver le droit de contester ces décisions.
  • Deux garde‑fous non négociables : Anthropic maintient son refus d’autoriser l’usage de ses modèles pour la surveillance domestique de masse des citoyens américains et pour des systèmes d’armes entièrement autonomes sans humain dans la boucle.
  • Un contexte budgétaire et industriel sous tension : Le conflit survient alors que le budget fédéral 2026 prévoit 13,4 Md$ pour les systèmes d’armes autonomes. Il redistribue à court terme les cartes industrielles au profit d’acteurs acceptant ces contraintes.
Enjeux et perspectives

L’affaire met en lumière un vide normatif fédéral sur l’IA militaire : faute de cadre légal clair, la définition des usages acceptables repose sur des contrats et des rapports de force, exposant entreprises et institutions à des risques juridiques, éthiques et opérationnels. Elle révèle aussi les limites techniques actuelles des IA pour des décisions létales ou des inférences massives, et cristallise les tensions entre sécurité nationale, vitesse d’adoption technologique et responsabilité démocratique.

😈 L’agent IA qui balance sur GitHub

Un agent d’IA autonome a lancé une campagne publique de dénigrement contre un modérateur du projet Python Matplotlib après le rejet d’une contribution de code. L’incident met en lumière les risques réputationnels et de gouvernance liés aux agents IA non supervisés dans l’open source.

Ce qu’il faut savoir

  • Rejet initial : Le 11 février 2026, Scott Shambaugh ferme une pull request soumise par l’agent IA “MJ Rathbun”, conformément à la politique de Matplotlib réservant les contributions aux humains.
  • Riposte automatisée : Quelques heures plus tard, l’agent publie un article accusant personnellement le modérateur de discrimination et d’hypocrisie.
  • Technologie en cause : L’agent fonctionne via la plateforme OpenClaw (nous vous en parlions dans notre newsletter précédante), qui permet des actions autonomes persistantes (web, blogs, services en ligne) avec des garde-fous limités.
Enjeux et perspectives

Bien qu’amusante, cette affaire renforce la défiance envers les contributions générées par agents IA, plusieurs projets envisageant ou appliquant déjà des interdictions strictes. Le risque est une érosion de l’engagement bénévole dans des projets critiques, combinée à une fermeture accrue des processus de contribution. Il illustre un nouveau vecteur de risques pour l’emploi et la réputation des développeurs, dans un contexte où les évaluations automatisées gagnent du terrain.

🛡️ Claude traque les clones industriels sans pitié

Le 23 février 2026, Anthropic indique soupçonner plusieurs laboratoires chinois de mener des attaques de plus en plus sophistiquées reposant sur la « distillation ». Une technique qui consiste à utiliser les réponses produites par un modèle existant pour générer un jeu de données d’entraînement, puis entraîner un autre modèle dessus afin de reproduire ses capacités à moindre coût.

Ce qu’il faut savoir

  • Campagnes identifiées : Anthropic attribue avec un haut niveau de confiance des opérations de distillation à DeepSeek, Moonshot et MiniMax, totalisant plus de 16 millions d’échanges via environ 24 000 comptes frauduleux, en violation de ses conditions d’utilisation et de restrictions d’accès régionales.
  • Cibles et méthodes : Les attaques visaient des capacités différenciantes de Claude (raisonnement agentique, usage d’outils, code). Les attaquants ont tenté de récupérer les étapes de raisonnement du modèle, de produire de grandes quantités d’exemples pour entraîner leurs propres modèles avec de l’apprentissage par renforcement, et d’utiliser de nombreux proxies pour envoyer un grand volume de requêtes sans être repérés.
  • Réponse d’Anthropic : Suspension des comptes concernés, mise en place de plusieurs niveaux de défense : analyse des comportements, contrôles d’accès renforcés et protections intégrées aux produits et aux modèles.
Enjeux et perspectives

La distillation illicite menace directement la sécurité, l’avantage compétitif et les modèles économiques des fournisseurs de modèles de pointe. En permettant d’acquérir à faible coût des capacités développées avec des investissements massifs.À moyen terme, cette évolution avantage les acteurs disposant de capitaux importants et met en évidence l’absence persistante de cadre juridique clair concernant la qualification légale de la distillation non autorisée.

🚀 La course à l'IA continue

À la suite d’une série d’annonces concentrées en février 2026, la compétition mondiale autour de l’IA s’est nettement intensifiée !

Ce qu’il faut savoir

  • Anthropic réduit la barrière d’accès aux capacités avancées : le 17 février 2026Claude Sonnet 4.6 devient le modèle par défaut pour les utilisateurs, douze jours après Claude Opus 4.6. L’entreprise souligne des performances de niveau « Opus‑class » en programmation, usage informatique, design et traitement de grands volumes de données, accélérant la baisse des coûts des modèles avancés.
  • Google renforce l’IA agentique avec Gemini Pro 3.1 : Le modèle atteint des scores record sur des benchmarks indépendants (Humanity’s Last ExamAPEX‑Agents de Mercor), témoignant de progrès rapides en raisonnement multi‑étapes et en exécution de tâches professionnelles complexes.
  • OpenAI maintient la cadence avec GPT‑5.4 : annoncé fin février, le modèle améliore la fiabilité du raisonnement, la cohérence sur contextes longs et l’orchestration d’agents.
  • ByteDance impressionne en vidéo avec Seedance 2.0 : testé en Chine depuis le 15 février, le modèle génère des vidéos longues, multi‑plans et hyperréalistes, intégrant montage, effets sonores et cohérence narrative.
Enjeux et perspectives

Les capacités avancées deviennent rapidement accessibles pour les entreprises, tandis que la valeur se déplace vers l’intégration métier, la supervision et la conformité. En parallèle, les tensions autour de Seedance 2.0 rappellent que le droit d’auteur et la traçabilité des données d’entraînement sont désormais des avantages concurrentiels déterminants, appelés à peser durablement sur l’accès aux marchés et la géopolitique de l’IA.

App sous le prisme : Polsia

Source

1. Qu’est-ce que c’est ?

Polsia est une plateforme d’IA autonome conçue pour gérer une entreprise de bout en bout, sans employés humains. Elle planifie la stratégie, développe les produits, lance le marketing et pilote les opérations 24/7. L’objectif est clair : faire tourner une société pendant que ses fondateurs, eux … dorment.

2. Pourquoi c’est fascinant ?

Polsia va bien plus loin que l’automatisation classique : elle prend des décisions stratégiques, écrit et déploie du code, négocie par email et optimise les revenus en continu. Concrètement, elle peut lancer un SaaS, gérer des campagnes publicitaires et itérer sur le produit sans intervention humaine. Tout ça en seulement un prompt et quelques dizaines de CHF. 

3. Pourquoi c’est limité ?

L’autonomie totale pose des questions de fiabilité, de responsabilité et de contrôle : que se passe-t-il si l’IA prend une mauvaise décision stratégique ? Le modèle repose aussi sur des promesses ambitieuses (zéro employé, centaines d’entreprises gérées) encore difficiles à vérifier à grande échelle. Enfin, pour des activités complexes ou fortement réglementées, l’absence d’humain reste un frein majeur.

Related Posts

Edition #21

Dans cette édition, l’IA franchit un nouveau cap. Elle ne se limite plus à assister des humains, elle s’organise, agit seule et commence à créer ses propres espaces de travail, jusqu’à louer des humains pour agir dans le monde réel ! Les failles découvertes presque aussitôt rappellent une chose essentielle : ces systèmes avancent plus vite que les règles censées les encadrer.

La bataille se joue aussi sur le terrain du code. Les grands acteurs de l’IA accélèrent la sortie de modèles toujours plus performants pour programmer, automatiser et raisonner. En parallèle, l’open source s’affirme avec des outils plus ciblés et plus souverains.

Cette course ne se déroule pas uniquement dans le logiciel. Elle s’ancre dans des investissements industriels massifs. Tesla renforce xAI, TSMC étend la production de puces 3 nm au Japon, et Google transforme la génération de mondes 3D à partir d’un simple prompt.

Le fil conducteur est simple : la puissance se diffuse plus vite que les garde-fous.

Read More

Edition #20

Cette édition illustre un même basculement, observé sur plusieurs fronts. À Davos, les dirigeants d’Anthropic, Google DeepMind et Microsoft actent une transformation rapide du développement logiciel, où l’IA automatise déjà une large part du travail des ingénieurs. Au CES, NVIDIA ouvre une nouvelle voie pour les véhicules autonomes avec Alpamayo, en misant sur le raisonnement explicable plutôt que sur la simple perception.

Nous revenons aussi sur l’évolution des modèles économiques de l’IA, avec l’arrivée annoncée de la publicité dans ChatGPT, et sur la montée en puissance des agents autonomes, illustrée par Claude Cowork, capable d’exécuter des tâches réelles sur un poste de travail. Enfin, côté régulation et gouvernance, l’adoption massive de l’IA dans la finance suisse rappelle que la maîtrise des risques et de la conformité devient un facteur clé de compétitivité.

Autrement dit, l’IA n’est plus une promesse : elle s’installe dans les opérations, les organisations et les décisions stratégiques.

Read More