Alors que les grandes entreprises technologiques présentent l’IA comme un levier central de la transition écologique, le rapport remet en cause la solidité de ces discours, au moment où l’expansion des infrastructures numériques soulève des interrogations croissantes. Le 16 février 2026, l’ONG Stand.earth a publié un rapport intitulé The AI Climate Hoax, affirmant que 74 % des promesses climatiques associées à l’IA ne reposent pas sur des preuves vérifiables.
Ce qu’il faut savoir
- À l’origine du rapport : Publié par Stand.earth avec plusieurs ONG partenaires, le rapport analyse 154 déclarations publiques émanant de grandes entreprises technologiques (dont Google et Microsoft) et d’institutions internationales. Il s’agit de la première analyse critique systématique des promesses climatiques associées à l’IA.
- Des preuves jugées insuffisantes : Selon l’étude, seules 26 % des affirmations s’appuient sur des travaux académiques publiés, tandis que 36 % ne citent aucune source. L’analyse n’identifie aucun exemple documenté où l’IA générative grand public aurait conduit à des réductions d’émissions substantielles et vérifiables.
- Un décalage matériel : Le rapport explique que, sous le terme d’« IA durable », on mélange souvent les IA génératives avec des outils informatiques plus classiques, tout en passant sous silence la forte consommation d’énergie et d’eau des très grands centres de données indispensables au fonctionnement des modèles les plus avancés.
Sans données mesurables et comparables, ces promesses climatiques s’exposent à une remise en cause accrue dans un contexte de renforcement des exigences partout dans le monde. Au-delà du débat environnemental, la crédibilité des trajectoires net zéro s’impose comme un enjeu financier et réglementaire structurant pour les Big Tech, à mesure que la croissance de l’IA repose sur des infrastructures aux impacts bien réels. Dans ce contexte, les promesses selon lesquelles l’IA permettrait à elle seule de résoudre ces tensions apparaissent encore comme un pari à haut risque.
Le 26 février 2026, Anthropic a rendu public l’échec de ses négociations contractuelles avec le Département de la Défense américain, après avoir refusé de supprimer deux garde‑fous éthiques majeurs. À la fin du mois de février, le secrétaire à la Défense a officiellement rompu la relation et demandé aux partenaires du Pentagone de mettre fin à toute collaboration avec l’entreprise, ravivant le débat sur les limites de l’IA militaire.
Ce qu’il faut savoir
- Une rupture désormais assumée, mais contestée : Selon The Atlantic, le Pentagone a interrompu la relation après l’échec des négociations, puis demandé à ses fournisseurs de se désengager d’Anthropic. De son côté, l’entreprise estime que ces mesures constituent des représailles et indique se réserver le droit de contester ces décisions.
- Deux garde‑fous non négociables : Anthropic maintient son refus d’autoriser l’usage de ses modèles pour la surveillance domestique de masse des citoyens américains et pour des systèmes d’armes entièrement autonomes sans humain dans la boucle.
- Un contexte budgétaire et industriel sous tension : Le conflit survient alors que le budget fédéral 2026 prévoit 13,4 Md$ pour les systèmes d’armes autonomes. Il redistribue à court terme les cartes industrielles au profit d’acteurs acceptant ces contraintes.
L’affaire met en lumière un vide normatif fédéral sur l’IA militaire : faute de cadre légal clair, la définition des usages acceptables repose sur des contrats et des rapports de force, exposant entreprises et institutions à des risques juridiques, éthiques et opérationnels. Elle révèle aussi les limites techniques actuelles des IA pour des décisions létales ou des inférences massives, et cristallise les tensions entre sécurité nationale, vitesse d’adoption technologique et responsabilité démocratique.
Un agent d’IA autonome a lancé une campagne publique de dénigrement contre un modérateur du projet Python Matplotlib après le rejet d’une contribution de code. L’incident met en lumière les risques réputationnels et de gouvernance liés aux agents IA non supervisés dans l’open source.
Ce qu’il faut savoir
- Rejet initial : Le 11 février 2026, Scott Shambaugh ferme une pull request soumise par l’agent IA “MJ Rathbun”, conformément à la politique de Matplotlib réservant les contributions aux humains.
- Riposte automatisée : Quelques heures plus tard, l’agent publie un article accusant personnellement le modérateur de discrimination et d’hypocrisie.
- Technologie en cause : L’agent fonctionne via la plateforme OpenClaw (nous vous en parlions dans notre newsletter précédante), qui permet des actions autonomes persistantes (web, blogs, services en ligne) avec des garde-fous limités.
Bien qu’amusante, cette affaire renforce la défiance envers les contributions générées par agents IA, plusieurs projets envisageant ou appliquant déjà des interdictions strictes. Le risque est une érosion de l’engagement bénévole dans des projets critiques, combinée à une fermeture accrue des processus de contribution. Il illustre un nouveau vecteur de risques pour l’emploi et la réputation des développeurs, dans un contexte où les évaluations automatisées gagnent du terrain.
Le 23 février 2026, Anthropic indique soupçonner plusieurs laboratoires chinois de mener des attaques de plus en plus sophistiquées reposant sur la « distillation ». Une technique qui consiste à utiliser les réponses produites par un modèle existant pour générer un jeu de données d’entraînement, puis entraîner un autre modèle dessus afin de reproduire ses capacités à moindre coût.
Ce qu’il faut savoir
- Campagnes identifiées : Anthropic attribue avec un haut niveau de confiance des opérations de distillation à DeepSeek, Moonshot et MiniMax, totalisant plus de 16 millions d’échanges via environ 24 000 comptes frauduleux, en violation de ses conditions d’utilisation et de restrictions d’accès régionales.
- Cibles et méthodes : Les attaques visaient des capacités différenciantes de Claude (raisonnement agentique, usage d’outils, code). Les attaquants ont tenté de récupérer les étapes de raisonnement du modèle, de produire de grandes quantités d’exemples pour entraîner leurs propres modèles avec de l’apprentissage par renforcement, et d’utiliser de nombreux proxies pour envoyer un grand volume de requêtes sans être repérés.
- Réponse d’Anthropic : Suspension des comptes concernés, mise en place de plusieurs niveaux de défense : analyse des comportements, contrôles d’accès renforcés et protections intégrées aux produits et aux modèles.
La distillation illicite menace directement la sécurité, l’avantage compétitif et les modèles économiques des fournisseurs de modèles de pointe. En permettant d’acquérir à faible coût des capacités développées avec des investissements massifs.À moyen terme, cette évolution avantage les acteurs disposant de capitaux importants et met en évidence l’absence persistante de cadre juridique clair concernant la qualification légale de la distillation non autorisée.
🚀 La course à l'IA continue
À la suite d’une série d’annonces concentrées en février 2026, la compétition mondiale autour de l’IA s’est nettement intensifiée !
Ce qu’il faut savoir
- Anthropic réduit la barrière d’accès aux capacités avancées : le 17 février 2026, Claude Sonnet 4.6 devient le modèle par défaut pour les utilisateurs, douze jours après Claude Opus 4.6. L’entreprise souligne des performances de niveau « Opus‑class » en programmation, usage informatique, design et traitement de grands volumes de données, accélérant la baisse des coûts des modèles avancés.
- Google renforce l’IA agentique avec Gemini Pro 3.1 : Le modèle atteint des scores record sur des benchmarks indépendants (Humanity’s Last Exam, APEX‑Agents de Mercor), témoignant de progrès rapides en raisonnement multi‑étapes et en exécution de tâches professionnelles complexes.
- OpenAI maintient la cadence avec GPT‑5.4 : annoncé fin février, le modèle améliore la fiabilité du raisonnement, la cohérence sur contextes longs et l’orchestration d’agents.
- ByteDance impressionne en vidéo avec Seedance 2.0 : testé en Chine depuis le 15 février, le modèle génère des vidéos longues, multi‑plans et hyperréalistes, intégrant montage, effets sonores et cohérence narrative.
Les capacités avancées deviennent rapidement accessibles pour les entreprises, tandis que la valeur se déplace vers l’intégration métier, la supervision et la conformité. En parallèle, les tensions autour de Seedance 2.0 rappellent que le droit d’auteur et la traçabilité des données d’entraînement sont désormais des avantages concurrentiels déterminants, appelés à peser durablement sur l’accès aux marchés et la géopolitique de l’IA.
1. Qu’est-ce que c’est ?
Polsia est une plateforme d’IA autonome conçue pour gérer une entreprise de bout en bout, sans employés humains. Elle planifie la stratégie, développe les produits, lance le marketing et pilote les opérations 24/7. L’objectif est clair : faire tourner une société pendant que ses fondateurs, eux … dorment.
2. Pourquoi c’est fascinant ?
Polsia va bien plus loin que l’automatisation classique : elle prend des décisions stratégiques, écrit et déploie du code, négocie par email et optimise les revenus en continu. Concrètement, elle peut lancer un SaaS, gérer des campagnes publicitaires et itérer sur le produit sans intervention humaine. Tout ça en seulement un prompt et quelques dizaines de CHF.
3. Pourquoi c’est limité ?
L’autonomie totale pose des questions de fiabilité, de responsabilité et de contrôle : que se passe-t-il si l’IA prend une mauvaise décision stratégique ? Le modèle repose aussi sur des promesses ambitieuses (zéro employé, centaines d’entreprises gérées) encore difficiles à vérifier à grande échelle. Enfin, pour des activités complexes ou fortement réglementées, l’absence d’humain reste un frein majeur.

