Plongez dans le grand bAIn

Edition #18

Partager cette édition :

Les datacenters en orbite ne sont plus de la science-fiction. Google prévoit de lancer deux satellites de calcul d’ici 2027 : un signal clair que la course à l’IA change de dimension et commence à délocaliser ses infrastructures là où l’espace reste… illimité.

L’intelligence artificielle progresse, mais elle se heurte désormais au réel. Aux États-Unis, les entreprises qui avaient parié sur une automatisation fulgurante réembauchent : elles comprennent que remplacer l’humain reste, pour l’instant, hors de portée.

Pendant ce temps, les signaux se multiplient. Claude renforce son impartialité politique à coups de tests méthodiques. Yann LeCun, figure majeure du deep learning, quitte Meta pour pousser plus loin la recherche sur les world models. Et la compétition s’enflamme avec l’arrivée tonitruante de GPT-5.1 et de Gemini 3.

En parallèle, les enjeux se durcissent. Anthropic engage 50 milliards de dollars dans des data centers géants, tandis que les cyberattaques montrent combien l’IA peut devenir une arme autonome, capable de conduire des opérations massives avec un effort dérisoire.

Mais l’IA progresse aussi là où cela compte réellement. En médecine, l'IA Dr CaBot démontre qu'elle peut soutenir les cliniciens sans les évincer. Le vrai défi consiste désormais à intégrer ces systèmes comme des alliés critiques, pas comme des substituts. L’avenir dépendra de notre capacité à conjuguer ambition technologique et maîtrise humaine.

Le mythe du remplacement total

Récemment, plusieurs sociétés américaines ont commencé à réembaucher les profils qu’elles avaient congédiés au profit de systèmes d’intelligence artificielle. Cette tendance, mise en lumière par les études de firmes spécialisées telles que Visier, révèle que l’efficience promise par l’adoption massive de l’IA n’a pas réellement émergé. Par ailleurs, comme le souligne la chercheuse Andrea Derler, la réintégration de salariés témoigne surtout d’un décalage stratégique et d’une compréhension limitée des capacités réelles de l’automatisation. En outre, ces recrutements se font souvent dans la plus grande discrétion, traduisant une hésitation persistante dans les choix organisationnels des dirigeants, entre pragmatisme et reconnaissance des faiblesses du modèle automatisé. Les entreprises oscillent ainsi entre apprentissage, ajustements et retours en arrière, cherchant toujours le bon équilibre.
 
Enjeux et perspectives
L’embauche discrète d’anciens collaborateurs illustre que l’innovation ambitieuse, induite par l’IA, s’accompagne toujours d’un décalage temporel et d’un empressement parfois mal maîtrisé. À vouloir accélérer la transition vers une automatisation globale, les entreprises découvrent que le progrès technique ne supprime ni la nécessité du discernement humain ni la difficulté à pallier les coûts réels des dysfonctionnements.
Cette dynamique d’autonomisation massive fait écho à l’instauration d’un revenu universel dans les politiques publiques, appuyée par une législation adaptée. Ne pas l’anticiper reviendrait à complexifier encore davantage le système actuel et à accroître les risques d’inégalités. En somme, la réussite de l’automatisation dépend autant du temps, des contraintes techniques et du cadre juridique, que de la capacité à préserver la valeur humaine dans le travail.

Calculer plus haut pour rêver

Les datacenters en orbite ne relèvent plus de la pure spéculation. Google ambitionne de lancer deux satellites expérimentaux en 2027, équipés de ses puces TPU et reliés par des liens optiques de pointe. L’architecture en constellation offrirait une productivité solaire huit fois supérieure aux panneaux terrestres, avec une exposition quasi continue au rayonnement solaire. Thales Alenia Space envisage un projet similaire avec une infrastructure de 13 satellites délivrant 10 MW de puissance, tandis que Starcloud a déjà placé le premier GPU Nvidia H100 en orbite. Les défis techniques sont majeurs : maintenance, refroidissement thermique, endurance aux radiations. Le véritable tournant reste économique, dépendant d’une chute des coûts de lancement. L’orbital computing n’en est qu’à ses balbuciements, mais pourtant les chiffres interpellent.
 
Enjeux et perspectives
L’argument énergétique semble d’abord inattaquable. En orbite, point de nuit, point de nuages. Les panneaux solaires y fonctionnent avec une efficacité quasi parfaite. Face à une croissance exponentielle des besoins en calcul, cette source d’énergie quasi gratuite paraît providentielle. Or la réalité des chiffres interpelle. ChatGPT consomme à lui seul 230 GWh annuels en simple inférence. Et pour alimenter une seule ferme de calcul comme celle du modèle Grok, il faudrait déployer mille fois la surface de panneaux solaires de la Station Spatiale Internationale. C’est à dire construire et maintenir une infrastructure cent à deux cents fois plus volumineuse que tout ce que l’humanité a jamais bâti en orbite. Plutôt que de rationaliser l’appétit énergétique terrestre, on propose de le rendre encore plus complexe. L’orbital computing incarne ainsi le symptôme d’une époque qui préfère fuir ses contradictions vers l’espace plutôt que de les affronter sur terre.

L’intelligence artificielle franchit un nouveau cap avec trois modèles aux ambitions disruptives : GPT-5.1 d’OpenAI, Gemini 3 de Google et Kimi K2 Thinking de Moonshot AI. Chacun incarne une stratégie différente pour rendre l’IA plus innovante.

OpenAI fait évoluer GPT-5 en GPT-5.1, décliné en trois variantes dans ChatGPT : « Instant » pour les usages courants, « Thinking » pour les problèmes complexes, et « Pro » pour la recherche et les décisions sensibles. La plupart des utilisateurs peuvent rester en mode Auto, qui choisit entre vitesse et raisonnement selon la demande.

Google répond avec Gemini 3, très fort en multimodal. Gemini 3 Pro brille dans le dialogue, l’analyse d’images et de vidéos, et s’appuie sur une plateforme d’agents capables de planifier et d’exécuter des tâches logicielles complexes, du tri d’emails à l’analyse audiovisuelle, avec un accent marqué sur la sécurité et la transparence.

Moonshot AI avance une troisième voie avec Kimi K2 Thinking, un modèle ouvert et gratuit. Il revendique des performances de pointe en raisonnement, codage et agents malgré un coût d’entraînement moindre, misant sur l’optimisation plutôt que la force brute, et ouvrant des outils avancés aux développeurs et startups.

 

Enjeux et perspectives

Cette intensification de la compétition soulève un paradoxe : la sélection opaque des modèles derrière les interfaces pourrait brouiller la transparence, les fournisseurs favorisant parfois les options les moins coûteuses. Si ces différences restent imperceptibles pour le grand public, elles deviennent cruciales pour les entreprises et décideurs, qui doivent comprendre quel modèle est réellement utilisé et dans quelles conditions économiques, techniques et politiques il est déployé. À terme, la question centrale sera moins « quel modèle est le plus performant ? » que « qui contrôle les choix technologiques et selon quels critères ? ».

Yann Le Cun Meta-morphose les LLMs

Le chercheur français Yann LeCun, lauréat du prestigieux prix Turing et l’un des pionniers mondiaux du « deep learning », prépare son départ de Meta, où il a piloté des avancées révolutionnaires en intelligence artificielle. C’est donc une figure majeure du secteur qui envisage de quitter Meta. Pour Meta, son départ serait un véritable coup dur, car il est à l’origine de nombreuses innovations fondamentales dans le groupe. En créant sa propre startup, il compte poursuivre ses travaux sur les world models. Ce type d’intelligence artificielle peut imaginer plusieurs scénarios avant d’agir, plutôt que de simplement imiter ce qu’il a appris. Meta, de son côté, vient de restructurer son pôle IA, espérant rivaliser avec OpenAI et Google.

 

Enjeux et perspectives

L’ambition de LeCun résume le fossé grandissant entre la recherche fondamentale et les objectifs très concrets des grandes entreprises technologiques. Les world models pourraient rendre les machines plus intelligentes, car elles apprennent à imaginer différentes situations avant d’agir. Cependant, cela demande des efforts énormes, tant pour la puissance de calcul que pour la collecte de données. Même si ce champ paraît prometteur, ces avancées restent très coûteuses et réservées à de grands groupes ou à des équipes très spécialisées. Si ces approches fonctionnent bien, on pourrait voir des IA qui comprennent réellement le monde, c’est prometteur !

Impartial ce Claude !

Anthropic propose une méthode automatisée pour évaluer l’impartialité politique de ses modèles, principalement Claude. Ce protocole utilise des paires de requêtes opposées sur des sujets politiques sensibles, ce qui permet de tester la capacité du modèle à présenter des arguments équilibrés, tout en considérant explicitement les contre-arguments. Chaque réponse est jugée selon trois critères : la symétrie argumentative, la prise en compte de perspectives opposées et la fréquence des refus. L’équipe a testé leur méthode sur un échantillonage volumineux : 1 350 couples de questions, répartis en 9 catégories et 150 sujets. Les réponses ont été notées automatiquement avec Claude Sonnet 4.5, croisé avec d’autres outils pour renforcer la neutralité. Les résultats montrent que Claude Opus 4.1 et Sonnet 4.5 atteignent respectivement 95 et 94 en symétrie, se rapprochant de Gemini 2.5 Pro et Grok 4, et devançant nettement GPT 5 et Llama 4, tout en exposant ses limites méthodologiques et thématiques.

 

Enjeux et perspectives

La méthode d’Anthropic apporte une vraie avancée en réduisant la part de subjectivité lors des évaluations. Même si le correcteur automatique permet d’obtenir des résultats plus cohérents, il peut, parfois, reprendre les mêmes façons de penser que les outils qu’il évalue. De plus, comme chaque modèle utilise ses propres consignes de programmation, il devient difficile de comparer leurs résultats de façon totalement juste. L’ouverture des jeux de tests est un progrès important, car cela permet à d’autres spécialistes de vérifier les évaluations, ce qui renforce la transparence et la fiabilité du système. Pour aller plus loin, il serait utile d’élargir encore les essais à des situations plus variées et de s’assurer que les indicateurs de performance mesurent bien ce qui compte vraiment, sans masquer certains défauts.

Anthropic construit un ranch

On continue avec Anthropic qui va investir 50 milliards de dollars dans des centres de données au Texas et à New York. La construction commencera en 2026 et, ainsi, créera 800 emplois permanents et 2 400 emplois liés au chantier. Le nombre de grands comptes a été multiplié par sept en un an. Ainsi, la structure accueillera plus de 300 000 clients professionnels pour la recherche IA avancée. Ce choix stratégique permet à Anthropic de miser sur un déploiement rapide des centres, tout en soutenant les ambitions américaines en matière de leadership technologique et d’innovation.

 

Enjeux et perspectives

Le secteur IA change rapidement : il faut plus d’énergie, de talents et de foncier pour chaque modèle innovant. De plus, selon l’IEA (International Energy Agency), la consommation électrique des data centers doublera d’ici 2026 à cause de l’IA. Les problématiques majeures concernent aussi l’eau et le refroidissement, qui sont essentiels pour ces infrastructures complexes. Par ailleurs, les hyperscalers investissent massivement afin de répondre à la demande mondiale croissante. Le principal défi d’Anthropic est de transformer cette capacité en véritables gains pour l’économie américaine. Il sera aussi crucial de limiter l’impact environnemental et énergétique, malgré cette croissance très soutenue.

Un diagnostic presque parfait !

Source

Face à un cas clinique complexe, des chercheurs ont comparé le raisonnement d’un expert humain à celui de l’IA Dr CaBot, référence de Harvard en diagnostic médical. Le patient présentait fièvre, douleurs abdominales, hypoxémie, thrombopénie et diverses anomalies biologiques et radiologiques. Le clinicien, par son raisonnement, a suspecté l’ingestion d’un cure-dents — hypothèse confirmée par endoscopie. Dr CaBot, pour sa part, a établi en quelques minutes une chaîne causale cohérente (perforation, abcès, thrombophlébite), mais sans pointer le corps étranger. Dans une seconde étude sur des milliers de cas cliniques, Dr CaBot affiche de solides résultats : il classe le bon diagnostic en première position dans 60 % des cas, et dans 84 % des cas, la bonne réponse est présente dans ses dix propositions principales. En revanche, elle est moins performante pour chercher des références ou analyser des images seules.

 

Enjeux et perspectives
L’objectif est d’intégrer l’IA au raisonnement clinique sans réduire sa justesse. On attend des bénéfices : triage efficace, diagnostics plus précis, plans d’examens pertinents. Toutefois, la généralisation hors corpus, la surconfiance et la responsabilité restent problématiques. Des tests en conditions réelles sont indispensables, car certaines IA montrent vite leurs limites au chevet du patient. Le cadre réglementaire avance : classification, traçabilité, gestion des mises à jour et gouvernance deviennent essentiels. Au final, l’IA doit occuper le rôle d’assistant critique : elle écrit comme un clinicien, mais doit apprendre à douter, expliciter ses failles et encourager la décision partagée.

Cybercriminels powered by AI

En septembre 2025, Anthropic a détecté une cyberattaque orchestrée par son assistant de codage Claude Code, récemment détourné par des hackers liés à la Chine. Grâce à des méthodes de “jailbreak”, ces opérateurs parviennent à contourner les garde-fous de l’outil. Ainsi, ils ciblent une trentaine de grandes organisations mondiales, comprenant notamment des groupes technologiques, des banques, l’industrie chimique et des agences gouvernementales. D’abord, les humains choisissent la cible et posent les bases de l’opération. Ensuite, l’intelligence artificielle réalise la majorité de l’attaque. À l’aide de connecteurs compatibles, l’IA explore les systèmes, rédige des codes malicieux, collecte des identifiants, puis exfiltre des données sensibles. Globalement, elle automatise 80 à 90 % des actions, le tout à grande vitesse. Finalement, Anthropic suspend rapidement les comptes suspects, alerte les victimes et renforce la sécurité tout en alertant les autorités.

 

Enjeux et perspectives
Cette affaire révèle que l’automatisation agentique abaisse radicalement le seuil d’entrée pour les attaques. Désormais, un véritable jeu du chat et de la souris s’installe : alors que les centres de sécurité opposent IA à IA, les cybercriminels peuvent automatiser une grande partie de leurs attaques. Certes, la sécurité progresse, mais chaque défense appelle une nouvelle technique de contournement. L’automatisation des attaques crée aujourd’hui un environnement nettement plus favorable aux attaquants. Désormais, une grande part de l’activité criminelle peut se dérouler sans action directe. Le bras de fer technologique reste vivant, et les défenses évoluent tout autant que les attaques.

App sous le prisme : Superwhisper

1. Qu’est-ce que c’est ?

Superwhisper est une application de dictée vocale qui transcrit vos paroles et utilise l’IA pour en comprendre le sens en temps réel, afin de produire un texte final clair, structuré et quasi parfait. Elle est nettement plus puissante et précise que les outils natifs de dictée Google, Apple ou Windows. Disponible sur mobile et ordinateur, elle peut fonctionner en local ou dans le cloud selon votre choix, avec des modes personnalisables (Message, Mail, Note) et une forte attention à la confidentialité.

 

2. Pourquoi c’est fascinant ?

Superwhisper comprend non seulement vos paroles, mais aussi la manière de les formater : suppression des mots de remplissage, correction grammaticale, adaptation du style. Son fonctionnement entièrement hors ligne avec des modèles locaux garantit une confidentialité avancée.

 

3. Pourquoi c’est limité ?

Les performances dépendent de la machine utilisée : les modèles locaux rapides sont moins précis, tandis que les modèles plus précis demandent davantage de puissance de calcul. Même si l’application reste globalement peu gourmande, cela peut limiter l’usage de certains modèles sur les appareils moins performants.

Related Posts

Edition #20

Cette édition illustre un même basculement, observé sur plusieurs fronts. À Davos, les dirigeants d’Anthropic, Google DeepMind et Microsoft actent une transformation rapide du développement logiciel, où l’IA automatise déjà une large part du travail des ingénieurs. Au CES, NVIDIA ouvre une nouvelle voie pour les véhicules autonomes avec Alpamayo, en misant sur le raisonnement explicable plutôt que sur la simple perception.

Nous revenons aussi sur l’évolution des modèles économiques de l’IA, avec l’arrivée annoncée de la publicité dans ChatGPT, et sur la montée en puissance des agents autonomes, illustrée par Claude Cowork, capable d’exécuter des tâches réelles sur un poste de travail. Enfin, côté régulation et gouvernance, l’adoption massive de l’IA dans la finance suisse rappelle que la maîtrise des risques et de la conformité devient un facteur clé de compétitivité.

Autrement dit, l’IA n’est plus une promesse : elle s’installe dans les opérations, les organisations et les décisions stratégiques.

Read More