Cette dynamique d’autonomisation massive fait écho à l’instauration d’un revenu universel dans les politiques publiques, appuyée par une législation adaptée. Ne pas l’anticiper reviendrait à complexifier encore davantage le système actuel et à accroître les risques d’inégalités. En somme, la réussite de l’automatisation dépend autant du temps, des contraintes techniques et du cadre juridique, que de la capacité à préserver la valeur humaine dans le travail.
L’intelligence artificielle franchit un nouveau cap avec trois modèles aux ambitions disruptives : GPT-5.1 d’OpenAI, Gemini 3 de Google et Kimi K2 Thinking de Moonshot AI. Chacun incarne une stratégie différente pour rendre l’IA plus innovante.
OpenAI fait évoluer GPT-5 en GPT-5.1, décliné en trois variantes dans ChatGPT : « Instant » pour les usages courants, « Thinking » pour les problèmes complexes, et « Pro » pour la recherche et les décisions sensibles. La plupart des utilisateurs peuvent rester en mode Auto, qui choisit entre vitesse et raisonnement selon la demande.
Google répond avec Gemini 3, très fort en multimodal. Gemini 3 Pro brille dans le dialogue, l’analyse d’images et de vidéos, et s’appuie sur une plateforme d’agents capables de planifier et d’exécuter des tâches logicielles complexes, du tri d’emails à l’analyse audiovisuelle, avec un accent marqué sur la sécurité et la transparence.
Moonshot AI avance une troisième voie avec Kimi K2 Thinking, un modèle ouvert et gratuit. Il revendique des performances de pointe en raisonnement, codage et agents malgré un coût d’entraînement moindre, misant sur l’optimisation plutôt que la force brute, et ouvrant des outils avancés aux développeurs et startups.
Cette intensification de la compétition soulève un paradoxe : la sélection opaque des modèles derrière les interfaces pourrait brouiller la transparence, les fournisseurs favorisant parfois les options les moins coûteuses. Si ces différences restent imperceptibles pour le grand public, elles deviennent cruciales pour les entreprises et décideurs, qui doivent comprendre quel modèle est réellement utilisé et dans quelles conditions économiques, techniques et politiques il est déployé. À terme, la question centrale sera moins « quel modèle est le plus performant ? » que « qui contrôle les choix technologiques et selon quels critères ? ».
Le chercheur français Yann LeCun, lauréat du prestigieux prix Turing et l’un des pionniers mondiaux du « deep learning », prépare son départ de Meta, où il a piloté des avancées révolutionnaires en intelligence artificielle. C’est donc une figure majeure du secteur qui envisage de quitter Meta. Pour Meta, son départ serait un véritable coup dur, car il est à l’origine de nombreuses innovations fondamentales dans le groupe. En créant sa propre startup, il compte poursuivre ses travaux sur les world models. Ce type d’intelligence artificielle peut imaginer plusieurs scénarios avant d’agir, plutôt que de simplement imiter ce qu’il a appris. Meta, de son côté, vient de restructurer son pôle IA, espérant rivaliser avec OpenAI et Google.
L’ambition de LeCun résume le fossé grandissant entre la recherche fondamentale et les objectifs très concrets des grandes entreprises technologiques. Les world models pourraient rendre les machines plus intelligentes, car elles apprennent à imaginer différentes situations avant d’agir. Cependant, cela demande des efforts énormes, tant pour la puissance de calcul que pour la collecte de données. Même si ce champ paraît prometteur, ces avancées restent très coûteuses et réservées à de grands groupes ou à des équipes très spécialisées. Si ces approches fonctionnent bien, on pourrait voir des IA qui comprennent réellement le monde, c’est prometteur !
Anthropic propose une méthode automatisée pour évaluer l’impartialité politique de ses modèles, principalement Claude. Ce protocole utilise des paires de requêtes opposées sur des sujets politiques sensibles, ce qui permet de tester la capacité du modèle à présenter des arguments équilibrés, tout en considérant explicitement les contre-arguments. Chaque réponse est jugée selon trois critères : la symétrie argumentative, la prise en compte de perspectives opposées et la fréquence des refus. L’équipe a testé leur méthode sur un échantillonage volumineux : 1 350 couples de questions, répartis en 9 catégories et 150 sujets. Les réponses ont été notées automatiquement avec Claude Sonnet 4.5, croisé avec d’autres outils pour renforcer la neutralité. Les résultats montrent que Claude Opus 4.1 et Sonnet 4.5 atteignent respectivement 95 et 94 en symétrie, se rapprochant de Gemini 2.5 Pro et Grok 4, et devançant nettement GPT 5 et Llama 4, tout en exposant ses limites méthodologiques et thématiques.
La méthode d’Anthropic apporte une vraie avancée en réduisant la part de subjectivité lors des évaluations. Même si le correcteur automatique permet d’obtenir des résultats plus cohérents, il peut, parfois, reprendre les mêmes façons de penser que les outils qu’il évalue. De plus, comme chaque modèle utilise ses propres consignes de programmation, il devient difficile de comparer leurs résultats de façon totalement juste. L’ouverture des jeux de tests est un progrès important, car cela permet à d’autres spécialistes de vérifier les évaluations, ce qui renforce la transparence et la fiabilité du système. Pour aller plus loin, il serait utile d’élargir encore les essais à des situations plus variées et de s’assurer que les indicateurs de performance mesurent bien ce qui compte vraiment, sans masquer certains défauts.
On continue avec Anthropic qui va investir 50 milliards de dollars dans des centres de données au Texas et à New York. La construction commencera en 2026 et, ainsi, créera 800 emplois permanents et 2 400 emplois liés au chantier. Le nombre de grands comptes a été multiplié par sept en un an. Ainsi, la structure accueillera plus de 300 000 clients professionnels pour la recherche IA avancée. Ce choix stratégique permet à Anthropic de miser sur un déploiement rapide des centres, tout en soutenant les ambitions américaines en matière de leadership technologique et d’innovation.
Le secteur IA change rapidement : il faut plus d’énergie, de talents et de foncier pour chaque modèle innovant. De plus, selon l’IEA (International Energy Agency), la consommation électrique des data centers doublera d’ici 2026 à cause de l’IA. Les problématiques majeures concernent aussi l’eau et le refroidissement, qui sont essentiels pour ces infrastructures complexes. Par ailleurs, les hyperscalers investissent massivement afin de répondre à la demande mondiale croissante. Le principal défi d’Anthropic est de transformer cette capacité en véritables gains pour l’économie américaine. Il sera aussi crucial de limiter l’impact environnemental et énergétique, malgré cette croissance très soutenue.
Face à un cas clinique complexe, des chercheurs ont comparé le raisonnement d’un expert humain à celui de l’IA Dr CaBot, référence de Harvard en diagnostic médical. Le patient présentait fièvre, douleurs abdominales, hypoxémie, thrombopénie et diverses anomalies biologiques et radiologiques. Le clinicien, par son raisonnement, a suspecté l’ingestion d’un cure-dents — hypothèse confirmée par endoscopie. Dr CaBot, pour sa part, a établi en quelques minutes une chaîne causale cohérente (perforation, abcès, thrombophlébite), mais sans pointer le corps étranger. Dans une seconde étude sur des milliers de cas cliniques, Dr CaBot affiche de solides résultats : il classe le bon diagnostic en première position dans 60 % des cas, et dans 84 % des cas, la bonne réponse est présente dans ses dix propositions principales. En revanche, elle est moins performante pour chercher des références ou analyser des images seules.
En septembre 2025, Anthropic a détecté une cyberattaque orchestrée par son assistant de codage Claude Code, récemment détourné par des hackers liés à la Chine. Grâce à des méthodes de “jailbreak”, ces opérateurs parviennent à contourner les garde-fous de l’outil. Ainsi, ils ciblent une trentaine de grandes organisations mondiales, comprenant notamment des groupes technologiques, des banques, l’industrie chimique et des agences gouvernementales. D’abord, les humains choisissent la cible et posent les bases de l’opération. Ensuite, l’intelligence artificielle réalise la majorité de l’attaque. À l’aide de connecteurs compatibles, l’IA explore les systèmes, rédige des codes malicieux, collecte des identifiants, puis exfiltre des données sensibles. Globalement, elle automatise 80 à 90 % des actions, le tout à grande vitesse. Finalement, Anthropic suspend rapidement les comptes suspects, alerte les victimes et renforce la sécurité tout en alertant les autorités.
1. Qu’est-ce que c’est ?
Superwhisper est une application de dictée vocale qui transcrit vos paroles et utilise l’IA pour en comprendre le sens en temps réel, afin de produire un texte final clair, structuré et quasi parfait. Elle est nettement plus puissante et précise que les outils natifs de dictée Google, Apple ou Windows. Disponible sur mobile et ordinateur, elle peut fonctionner en local ou dans le cloud selon votre choix, avec des modes personnalisables (Message, Mail, Note) et une forte attention à la confidentialité.
2. Pourquoi c’est fascinant ?
Superwhisper comprend non seulement vos paroles, mais aussi la manière de les formater : suppression des mots de remplissage, correction grammaticale, adaptation du style. Son fonctionnement entièrement hors ligne avec des modèles locaux garantit une confidentialité avancée.
3. Pourquoi c’est limité ?
Les performances dépendent de la machine utilisée : les modèles locaux rapides sont moins précis, tandis que les modèles plus précis demandent davantage de puissance de calcul. Même si l’application reste globalement peu gourmande, cela peut limiter l’usage de certains modèles sur les appareils moins performants.
