L’université Stanford vient de publier son classement mondial de l’IA générative, et la compétition ressemble de plus en plus à une partie d’échecs sous amphétamines.
Les États-Unis restent en tête avec quarante modèles notables en 2024, la Chine décolle avec quinze modèles mais des performances qui frisent l’égalité, et l’Europe, loin derrière, trois modèles, qui tente de se rassurer avec sa posture éthique et beaucoup de principes. Mais au-delà du palmarès, ce que montre le rapport, c’est que l’IA est, comme prévu, devenue une arme géopolitique, un levier de souveraineté, et une passoire énergétique. Bref, tout le monde veut jouer aux apprentis sorciers — sans connaitre la formule magique.
La course est mondiale, mais personne ne sait encore s’il s’agit d’un marathon ou d’un sprint. Les États-Unis ont encore l’avantage de l’écosystème : compute illimité, capital-risque débridé, et hégémonie linguistique. Mais la Chine, en embuscade, avance masquée. Moins de modèles, plus d’efficience. Et des ambitions stratégiques claires : dominer d’ici 2030. L’Europe, elle, fait cavalier seul… en trottinette réglementaire. Sa promesse : une IA « digne de confiance ». Une posture qui lui permet peut-être de fixer quelques règles du jeu, mais qui ne compensera pas son déficit d’infrastructure et d’investissement, si elle ne change pas rapidement d’échelle.
On voit ainsi poindre le risque d’un monde technologiquement fragmenté : modèles américains boostés au capital, modèles chinois open source et massifs, modèles européens régulés mais marginaux. Chacun son standard, chacun sa sphère d’influence. Et au milieu de ce chaos ordonné, une idée revient : la création d’un GIEC de l’IA. Un organe global pour gérer ce que les États peinent à encadrer. L’initiative reste floue, mais elle en dit long sur la prise de conscience d’un monde qui court après sa propre invention.
Reste l’éléphant dans la salle : l’empreinte énergétique. À ce rythme, les modèles d’IA pourraient consommer à eux seuls 4 % de l’électricité mondiale d’ici cinq ans. Pour des outils qui prétendent rendre le monde plus « intelligent », l’ironie est mordante.
Après la sortie de Sora, OpenAI continue d’étirer les frontières du possible avec deux nouvelles annonces majeures : d’un côté, la généralisation d’une mémoire permanente dans ChatGPT, capable de se souvenir de tout ce que vous lui avez partagé avec lui depuis ses débuts ; de l’autre, une refonte technique qui passera par le lancement de GPT-4.1 en attendant l’unification promise de GPT-5. L’objectif : une IA plus fluide, plus personnelle, plus omniprésente. Et, forcément, plus problématique.
La mémoire, pour l’instant réservée aux États-Unis, n’est pas encore disponible en Europe. Mais dans les marchés où elle est activée, l’IA retient désormais vos préférences, vos habitudes, vos contraintes – même celles exprimées il y a plusieurs années. Une IA qui écoute, apprend, retient. Et qui ne vous oublie jamais.
On l’attendait proactive, elle devient persistante. La mémoire longue durée de ChatGPT transforme un outil ponctuel en confident permanent. Allergique aux noix ? Plus besoin de le répéter. Pour toujours. Ou presque. Car si la personnalisation fascine, elle inquiète tout autant : impossible, pour l’instant, de l’activer en Europe – RGPD oblige. Et OpenAI devra prouver qu’on peut garder en mémoire sans trahir l’oubli.
Côté technique, OpenAI tente de sortir de l’usine à gaz des déclinaisons (4, 4o, 4.1, 4.5…) en promettant un futur modèle unique, adaptatif. Unifier les performances tout en maîtrisant les coûts : un pari aussi ambitieux que fragile.
Ce qui se dessine, c’est une IA qui n’oublie rien, qui devine avant qu’on demande, qui devient présence. Une mémoire vive qui pose une question simple : jusqu’où sommes-nous prêts à être accompagnés, suivis, prédits ? Et surtout, par qui.
xAI, la société d’Elon Musk derrière le chatbot Grok, fait l’objet d’une enquête de l’autorité irlandaise de protection des données pour une possible infraction au RGPD. En cause : l’utilisation des données personnelles des utilisateurs européens de X (ex-Twitter) sans consentement explicite, à des fins d’entraînement de ses modèles. En théorie, une option permettait de s’y opposer. En pratique, elle était activée par défaut et quasi invisible. Une méthode déjà dénoncée, mais que l’Irlande, responsable de la régulation des GAFAM en Europe, semble enfin décidée à ne plus laisser passer.
C’est une vieille recette servie à la sauce Musk : capter la donnée, optimiser le flou juridique, et avancer plus vite que la régulation. Cette fois pourtant, la mécanique pourrait grincer. Car au-delà du coup de filet sur xAI, c’est tout un modèle qui vacille : celui de la collecte massive sous couvert d’amélioration technologique. Grok, vendu comme un assistant libre et mordant, pourrait surtout n’être qu’un golem nourri à votre insu par vos données, vos messages, vos comportements. Et si l’Irlande tranche, ce ne sont pas que les serveurs de xAI qui trembleront, mais l’ensemble des modèles qui se nourrissent sans demander. L’UE a longtemps prétendu faire la loi. Ce serait peut-être l’occasion de la faire appliquer.
Meta vient de hisser son Llama 4 Maverick à la deuxième place du classement LLM Arena, laissant derrière lui GPT-4o et Gemini 2.0 Flash sur un large éventail de critères, tout en obtenant des résultats comparables à DeepSeek v3 en matière de raisonnement et de codage. Une performance qui en jette, jusqu’à ce qu’on regarde de plus près … Parce qu’on s’est rendu compte que Meta avait présenté aux tests une version non publique du modèle. Autrement dit : ce n’est pas celui que les développeurs peuvent réellement utiliser. C’est une version de démonstration survitaminée, calibrée pour briller dans les classements — mais indisponible pour le commun des mortels. Du coup, Llama 4 a pris un coup dans l’aile à peine sorti du nid.
Derrière l’étiquette “open source”, la manœuvre est habile, mais risquée. Meta n’a pas menti. Il a simplement montré ce qu’il ne vend pas. Et c’est là que le bât blesse : si les benchmarks deviennent des défilés de modèles customisés, optimisés, inaccessibles, ils cessent d’évaluer quoi que ce soit. Ils deviennent des outils de narration, au service d’une guerre d’image.
Cette affaire rappelle une chose : même les lamas peuvent se couvrir de fausse laine. Et dans ce rodéo algorithmique où chaque point au leaderboard se monétise en parts de marché, les géants savent maquiller leurs résultats sans jamais enfreindre les règles. Mais à force de jouer avec la frontière entre démonstration et réalité, Meta prend le risque de décrédibiliser tout l’écosystème open. Et si Llama est bien l’avenir d’une IA libre, encore faut-il que sa version testée soit… celle qu’on peut utiliser.
Face à la prolifération des modèles génératifs, une réponse venue de Suisse. Sobre, précise, open source. ByzFL, la nouvelle bibliothèque Python développée par l’EPFL, ne cherche pas à briller sur les benchmarks : elle veut que l’IA tienne la route — même quand les données mentent, trichent ou sabotent. Pensée pour l’apprentissage fédéré, ByzFL filtre les données malveillantes avant qu’elles ne contaminent les modèles. Sa cible ? Les environnements critiques, où une hallucination n’est pas une erreur bénigne mais un risque vital : conduite autonome, santé, finance.
On a longtemps cru que l’IA pouvait tout digérer. Mais entre les prompts injectés à la hache, les données pourries en périphérie et les attaques byzantines, le rêve d’un apprentissage fluide commence à grincer. ByzFL incarne une autre vision : celle d’une IA qui se méfie, qui teste, qui résiste. Pas une IA naïve, mais une IA armée. Une IA suisse, en somme. Dans les laboratoires de l’EPFL, on ne se contente pas d’identifier les vulnérabilités : on les provoque. L’idée ? Rendre les modèles plus robustes avant le crash. Alors que Google DeepMind s’inspire déjà de ces approches pour ses modèles Gemini, la Suisse pourrait bien imposer sa marque dans un domaine stratégique : la certification des IA de confiance. Pas en courant plus vite, mais en tombant moins.
ByzFL n’est pas un gadget. C’est un manifeste technique pour une IA rigoureuse. Un coupe-circuit dans un secteur qui carbure à la surchauffe. Et peut-être le début d’un standard helvétique pour l’IA responsable.
On l’avait un peu oublié mais Jony Ive, père fondateur du design Apple, fait maintenant équipe avec Sam Altman, grand prêtre de l’IA générative, pour imaginer un appareil sans écran ni clavier, piloté par la voix et dopé à ChatGPT. Leur startup io Products pourrait bientôt être rachetée par OpenAI pour 500 millions de dollars. Leur ambition ? Réinventer l’informatique personnelle. Leur promesse ? Une IA omniprésente, silencieuse, contextuelle. Un pari qui intrigue autant qu’il inquiète, alors que l’échec cuisant de l’AI Pin de Humane hante encore tous les esprits.
C’est une déclaration de guerre au smartphone. Un objet sans interface visible, pensé pour se fondre dans le décor. Pas un téléphone. Pas un assistant. Mais peut-être l’appareil que Jony Ive rêvait de concevoir chez Apple, sans jamais le pouvoir.
En ligne de mire : une rupture avec les écrans, l’interaction tactile et le scroll sans fin. Un retour à la voix, au geste, à une présence presque invisible de la machine.
Mais cette ambition radicale se heurte à des défis très concrets : autonomie, surchauffe, pertinence contextuelle, compréhension en langage naturel. L’AI Pin de Humane l’a appris à ses dépens.
Le timing, lui, est parfait. OpenAI cherche à sortir du cadre logiciel pour s’incarner physiquement dans nos vies. Et Ive cherche peut-être sa revanche. En cas de succès, Apple, de plus en plus flétrie, pourrait bien se retrouver dans une position étrange : concurrencé par son propre ADN. En cas d’échec, le projet finira dans le cimetière des gadgets trop en avance — ou simplement inutiles.
L’alternative est claire : créer une catégorie à part entière ou retomber dans l’anecdotique. Mais une chose est sûre : si la techno ne manquait pas d’imagination, il lui manquait peut-être encore un designer.
L’Espagne expérimente sur son autoroute AP-7 un dispositif inédit de régulation de la vitesse par intelligence artificielle. En fonction du trafic et des conditions météo, la vitesse maximale autorisée pourra passer de 100 à 150 km/h, en temps réel. L’objectif ? Fluidifier la circulation, améliorer la sécurité et réduire les embouteillages. Ce test pilote pourrait bien ouvrir la voie à une nouvelle génération d’infrastructures routières intelligentes.
L’IA ne se contente plus de se glisser dans nos voitures : elle s’attaque désormais à la route elle-même. Dans ce projet, c’est elle qui décide à combien on peut rouler. Demain, ce sera une IA embarquée dans la voiture qui écoutera cette consigne. Et si elle n’obéit pas ? Elle sera peut-être flashée par un radar dopé à l’IA, puis poursuivie par un drone policier autonome, jusqu’à ce qu’un autre système, lui aussi intelligent, vienne l’IA-rêter.
Ce n’est pas de la science-fiction, c’est de la logistique algorithmique appliquée à la mobilité. Dans cette chorégraphie automatisée, l’humain n’est plus qu’un voyageur toléré, un facteur de perturbation sous surveillance. À terme, une IA dira à une autre IA à combien rouler, sur quelle voie, à quel moment doubler. Et si par malheur l’une d’elles désobéit ? Flash, drone, procès-verbal, tout sera géré entre machines. La sanction deviendra protocolaire, la faute, un bug à corriger.
Et nous, conducteurs de rien, passagers de tout, regarderons défiler le monde derrière des pare-brise intelligents, en espérant que le système ne décide pas un jour… de nous éjecter du programme.
DeepSite est la nouvelle application qui rend les dévelopeurs nerveux.
Ce que ça fait ? Vous décrivez une idée de site, il en génère un, basé sur DeepSeek, gratuit, rapide, et sans une ligne de code.
À quoi ça sert ? À transformer un brief flou en landing page. À accélérer un atelier UX. À visualiser un concept avant d’avoir le budget.
Pourquoi c’est fascinant ? Parce que vous écrivez “site de réservation de restos chic” et boum : un prototype responsive avec images, textes, HTML.
Pourquoi c’est limité ? Car au moindre ajustement, il faut repartir de zéro et parce qu’un vrai projet reste toujours un peu plus complexe qu’un prompt bien tourné. Enfin, pour l’instant.