Plongez dans le grand bAIn

Edition #17

Partager cette édition :

OpenAI se rêve désormais en fondation à 130 milliards de dollars pour « financer le bien commun ». En pratique, Nvidia joue le mécène intéressé : 100 milliards injectés dans OpenAI, qui lui en rendra bien davantage en lui achetant ses propres puces. Oracle complète le tableau avec un contrat titanesque pour héberger tout cela. Résultat : des revenus vertigineux, des pertes du même ordre et une consommation électrique qui ferait pâlir bien des nations. Derrière les promesses d’altruisme, l’écosystème tourne à plein régime sur sa propre énergie financière. C’est spectaculaire, mais reste instable.

Pendant ce temps, les promesses de l’IA prennent des formes plus tangibles : Claude apprend à adapter son ton, Gemini permet à quiconque de concevoir une application en quelques phrases, et les humanoïdes de salon comme Neo essaient, tant bien que mal, de devenir utiles. La démonstration reste fragile, mais les progrès sont réels : ces outils quittent enfin le laboratoire pour entrer dans la vie quotidienne, là où les PME peuvent en tirer un bénéfice immédiat.

Le moment est venu de passer de la curiosité à l’action. Choisir un outil, tester un scénario, mesurer les gains : c’est à cette échelle que l’innovation devient rentable. L’IA n’a pas besoin de transformer votre entreprise pour être utile. Il suffit qu’elle vous fasse avancer un peu plus vite, un peu plus loin, chaque jour.

Open Barre !

Les navigateurs agentiques Atlas d’OpenAI et Comet de Perplexity promettaient de révolutionner notre façon d’interagir avec le web en intégrant des assistants IA capables d’exécuter des tâches complexes de manière autonome. Mais à peine lancés, ils révèlent déjà des failles critiques. Des chercheurs de SquareX ont démontré qu’une extension malveillante peut injecter du JavaScript pour créer une fausse barre latérale parfaitement identique à l’interface légitime. L’utilisateur, convaincu de dialoguer avec son assistant IA, suit en réalité des instructions dictées par des attaquants. Les scénarios d’attaque documentés incluent le vol de cryptomonnaies, le détournement de comptes Gmail via OAuth, et l’installation de shells inversés déguisés en logiciels légitimes.  Ni Perplexity ni OpenAI n’ont répondu aux alertes des chercheurs. Au delà de ça, la sortie semble prématurée et pose des questions sur les fondamentaux de sécurité et de respect de la vie privée des utilisateurs.
 
Enjeux et perspectives
Cette vulnérabilité illustre un problème structurel des navigateurs agentiques qui concentrent trop de pouvoir dans un seul outil. Contrairement aux attaques traditionnelles nécessitant plusieurs actions utilisateur, l’injection de prompts malveillants permet désormais de détourner l’IA elle-même. LayerX a révélé que Atlas stoppe seulement 5,8% des attaques de phishing, contre 47% pour Chrome. Plus inquiétant encore, une attaque par CSRF (Cross‑Site Request Forgery, attaque permettant de forcer un utilisateur authentifié à exécuter une action non souhaitée) peut corrompre la mémoire persistante de ChatGPT, transformant l’assistant en complice involontaire à travers tous les appareils de l’utilisateur. Le marché des navigateurs agentiques, évalué à 140,8 milliards de dollars d’ici 2032, attire déjà les cybercriminels qui exploitent la confiance excessive accordée à ces outils (sans surprise). Des campagnes de phishing ciblent spécifiquement Comet depuis août via des domaines frauduleux et de fausses applications. Les extensions malveillantes, déjà responsables de l’infection de 2,3 millions d’utilisateurs sur Chrome et Edge, trouvent dans ces nouveaux navigateurs un terrain fertile. Les promesses sont emballantes, mais la réalité actuelle peine encore à suivre. 

La belle mécanique de la bulle invisible

Source
Dans ce climat d’expansion démesurée, où OpenAI se dote d’une fondation valorisée plus de 130 milliards USD pour financer des projets sociétaux, les capitaux privés s’emballent, et la philanthropie affichée se heurte aux intérêts industriels, comme l’illustre le rôle de Nvidia dans cette accélération. Dans cette dynamique, Nvidia s’offre un rôle de mécène industriel, injectant cent milliards dans OpenAI pour mieux lui vendre ses propres puces. OpenAI, leader du secteur de l’intelligence artificielle (IA), flirte avec des chiffres hallucinants : 12 milliards de revenus, des pertes qui explosent, et une débauche d’ordres de compute. Plus de 10 millions de processeurs pour une consommation digne de 20 centrales nucléaires. Oracle se glisse dans la partie, signant un deal à 300 milliards pour des centres de données surdimensionnés. Cerise sur le circuit : la finance s’invente des boucles, où Nvidia investit dans ses propres clients, entretenant ainsi la demande pour ses propres puces. Les analystes sentent poindre un parfum de bulle, alimentée moins par une explosion des usages réels de l’IA que par des flux circulaires d’investissements et des projections de profits lointains.
 
Enjeux et perspectives
La scène contemporaine de l’IA oscille entre croissance effrénée et spéculation nerveuse. Derrière les giga-investissements, apparaissent des signaux d’emballement possibles : boucles financières, modèles de leasing où Nvidia épargne à OpenAI la douloureuse amortie de ses puces, et des valuations qui progressent parfois plus vite que certains usages même si la croissance massive de l’adoption, illustrée par l’essor de modèles comme Gemini, qui a attiré 200 millions nouveaux utilisateurs actifs depuis cet été, montre que la demande réelle s’installe bel et bien. L’industrie, dopée par des effets d’annonce, parie sur une demande explosive pour des produits dont la véritable valeur reste à capturer. Concrètement, un petit nombre d’acteurs s’alimente mutuellement, renforçant leur position et leur valorisation sans toujours refléter une création de valeur équivalente. Parfois en rachetant, parfois en subventionnant. Les parties prenantes devraient scruter la rentabilité effective des modèles, surveiller le passage du hardware à la valeur d’usage, et s’interroger sur la durabilité de cette frénésie d’investissements. Car une révolution technologique ne s’accomplit pas seulement à coups de milliards et de promesses : elle doit s’appuyer sur des transformations tangibles, inclusives et pérennes, pour éviter que la bulle ne devienne le produit.

Aïe Robot !

Source
Neo, humanoïde de 1,68 m censé signer la fin des corvées domestiques. Vaisselle, linge, plantes, navigation autonome, recharge seule : la promesse est totale. Précommande ouverte : 500 $/mois ou 20 000 $, acompte remboursable. Ciblage clair : adopteurs prêts à payer pour gagner du temps. Sauf qu’à ce stade, la démonstration est surtout une illusion. Les gestes complexes vus en vidéo (charger un lave-vaisselle, plier un vêtement) sont télé-opérés. En autonomie ? Deux actions basiques : ouvrir une porte maladroitement, attraper une tasse vide. Le fossé est immense entre storytelling et réalité.
Figure, 1X, Optimus de Tesla : même scénario. Silicon Valley s’emballe, médias en boucle, levées de fonds record. “C’est le moment des humanoïdes chez soi”, dit-on. Peut-être. Mais pas encore comme on l’imagine. On revit un cycle devenu familier : on vend une promesse, puis on attend. Les obstacles persistent : coûts massifs, batteries maigres, environnements imprévisibles, prise en main délicate. Et pourtant, nuance : cette génération progresse vraiment. Les machines tiennent debout, manipulent des objets variés, apprennent par imitation, se déplacent dans des usines. Ce n’est plus uniquement du prototype de salon.
 
Enjeux et perspectives
Symptôme classique d’une tech qui vend la lune à des utilisateurs transformés en bêta-testeurs payants. Pour apprendre, les robots basculent en “mode expert” : un opérateur humain voit à travers leurs capteurs et les pilote à distance, chez vous. À la clé : risque de télésurveillance permanente. Ironie : ceux qui en auraient le plus besoin, les personnes âgées, sont souvent les moins prêts à accueillir un œil robotisé chez eux.
Les analystes restent sobres : ~40 000 humanoïdes domestiques d’ici 2032, moins qu’un an d’aspirateurs robots. La vraie adoption ? Niches professionnelles : soutien en maisons de retraite, logistique, tâches répétitives en environnements contrôlés. Batteries limitées, supervision humaine encore fréquente, cadre réglementaire flou.
La révolution dans nos salons ? Pas demain matin. L’évolution progressive, oui. Nous resterons spectateurs un moment encore. Malgré l’enthousiasme grandissant.

Décris la vibe, Gemini code

Google lève le voile sur une refonte majeure de son laboratoire d’applications IA, transformant AI Studio en un outil simple pour créer des applications. La nouvelle expérience privilégie ce que la firme appelle le « vibe coding » : décrire simplement une application, laisser Gemini la construire, puis la publier pour la partager. Au menu des nouveautés : des variables secrètes pour sécuriser les clés d’accès en production, une galerie de modèles, et surtout un catalogue de fonctionnalités pré‑câblées que l’utilisateur peut sélectionner. Gemini s’efforce ensuite de les intégrer automatiquement lors de la génération, ce qui réduit drastiquement les aller‑retours en cas d’erreur dans le code ou l’exécution. Ajoutons à cela des suggestions contextuelles et l’inoubliable bouton « I’m Feeling Lucky » pour piocher des idées au hasard. Google affiche une ambition étourdissante : voir naître un million d’applications construites par des non-codeurs avant la fin de l’année, préfigurant l’arrivée de Gemini 3 censée turbochargé les capacités de codage.

 

Enjeux et perspectives

C’est un pas important vers une technologie plus accessible, tout en rappelant qu’il faut rester vigilant sur la question essentielle de la propriété et du contrôle du produit final. Réduire les barrières techniques ne réduit pas les dépendances. Chaque application générée via AI Studio renforce la captivité de Google : stockage sur ses serveurs, données parcourant ses réseaux, revenus potentiels transitant par son infrastructure. L’open source propose une issue, mais elle demeure minoritaire. Le vrai dilemme n’est pas de rendre la technologie accessible, mais de reprendre le contrôle des conditions de son accès. Google ouvre les portes, mais en gardant les clés du royaume.

L’IA boit la tasse énergétique

Les chiffres donnent le vertige. En Suisse, les centres de données consomment actuellement 7% de l’électricité nationale, un chiffre susceptible d’atteindre 15% en 2030. Mondialement, le Shift Project prévoit que la consommation électrique mondiale liée aux datacenters passera de 530 térawattheures en 2023 à 1 250-1 500 térawattheures d’ici 2030. Chaque requête ChatGPT consomme 3 wattheures contre 0,3 pour Google. L’entraînement de GPT-3 a évaporé 700 000 litres d’eau. Les sondages suisses révèlent que 7 sur 10 Suisses craignent une catastrophe écosystémique, 8 sur 10 réclament plus de transparence, et 72% exigent que les nouveaux centres basculent vers 100% d’énergies renouvelables.

 

Enjeux et perspectives

Les décideurs européens demeurent figés devant l’ampleur du défi. Le Shift Project avertit que la croissance française en datacenters transformerait la consommation électrique du pays de 2% à 7,5% du total national d’ici 2035, créant des conflits d’usage directs avec la mobilité électrique, le chauffage et l’hydrogène bas carbone. En parallèle, le Texas prévoit que ses datacenters consommeront 7% de toute l’eau de l’État d’ici 2030. Les régions mexicaines et irlandaises subissent déjà des restrictions historiques induites par cette infrastructure. Le vrai scandale demeure l’asymétrie : les populations acceptent les promesses de l’IA générative tandis que leurs ressources fondamentales alimentent silencieusement des serveurs lointains. Sans mécanisme régulateur contraignant, sans audit des impacts réels, sans gouvernance, la technologie du futur dévore les conditions même du présent habitable. Le dilemme ne porte plus sur la technologie mais sur la volonté politique de la gouverner.

Pensez à votre stratégie de sortie !

La course à l’IA agentique est lancée. Les géants ne veulent plus seulement fournir des assistants : ils cherchent à déployer des systèmes capables d’agir, décider et exécuter des tâches de bout en bout. Claude apprend vos process, ChatGPT s’intègre à l’ensemble de votre stack, et Copilot capitalise une mémoire longue durée. L’IA n’est plus un outil ponctuel : elle devient un opérateur invisible, présent en permanence dans votre travail. Ainsi, au‑delà de la confidentialité, le vrai coût devient celui du retrait. Une fois vos workflows, automatismes et mémoires intégrés dans ces plateformes, changer devient économiquement irrationnel. Parallèlement, OpenAI intègre l’IA au niveau du système d’exploitation avec Sky sur macOS. Ce qui leur permet de capter et optimiser vos micro‑décisions quotidiennes, là où se joue la productivité et, surtout, la souveraineté numérique.

 

Enjeux et perspectives

L’adoption d’IA en entreprise atteint 87% chez les grands groupes, pourtant seulement 39% ont des audits de conformité réels. Stanford recense 233 incidents liés à l’IA en 2024, hausse de 56%. Les fenêtres contextuelles massives (un million de tokens) promettent plus de puissance mais créent deux problèmes concrets: coûts exponentiels et dilution attentionnelle. Plus de données signifie plus de bruit et de corrélations parasites. Ce chaos n’est pas une fatalité. Une stratégie IA structurée transforme ces tensions en leviers d’avantage compétitif. Les organisations qui définissent leurs politiques de gouvernance en amont, qui documentent leurs flux contextuels et qui intègrent la conformité dès le déploiement passent de 39% à 92% de conformité vérifiée. Le marché IA agent atteindra 47 milliards de dollars d’ici 2030, mais 95% des pilots IA échouent aujourd’hui à passer en production. La différence réside dans trois choix stratégiques: une stratégie de conduite du changement en premier lieu, une architecture de données claire, des processus d’évaluation définis, et des gouvernances intégrées plutôt que rétrospectives.

Vos équipes peuvent maîtriser l’adoption, structurer leur pile technologique et aligner capacités IA avec objectifs métier réels. C’est précisément ce travail que nous accompagnons dans nos audits stratégiques. Contactez nous pour en parler : info@prismia.ch !

Enfin des solutions inattendues contre le cancer !

Un modèle inédit d’intelligence artificielle, direct héritier des LLM de Google DeepMind et Yale, plie la biologie en quatre : il sait lire et écrire la partition des cellules. Baptisé Cell2Sentence-Scale (C2S), ce mastodonte numérique digère un milliard de tokens et croque l’ARN comme un roman, ingérant les profils génétiques de 50 millions de cellules. L’objectif est d’identifier des traitements sans passer par la case patient. Son terrain de chasse : 4 000 molécules scrutées à la loupe virtuelle. Verdict : il repère le silmitasertib, un médicament déjà connu mais boudé par l’immunothérapie. Ce discret agent peut rendre visibles les cellules cancéreuses, les livrant pieds et poings liés aux lymphocytes T. Test en labo : bingo, l’antigène augmente fortement, la camouflage tombe. Une prouesse technique qui n’annonce pas une révolution immédiate, mais marque un vrai tournant dans la façon de concevoir la recherche médicale.

 

Enjeux et perspectives
L’IA sort la médecine du tunnel des vieux dogmes : plus qu’un outil, elle devient démultiplicateur de connaissances cliniques, fabricant de « patients virtuels », et accélérateur de recherche. Le cas de silmitasertib, propulsé star inopinée, rappelle que le vrai génie est dans l’interprétation du contexte, bien plus que dans la brute épaisse des données. Les exemples de Yale et Google illustrent une dynamique mondiale où l’IA découvre, propose et teste plus vite que n’importe quel comité de savants réunis. Mais il convient de rester prudent : validation in vivo et essais cliniques restent les étapes cruciales. On assiste à la naissance d’une biologie langagière où ce n’est plus la cellule, mais la phrase qui guérit. À suivre, car rien n’est acquis et chaque avancée soulève autant de questions nouvelles que de promesses raisonnables.

App sous le prisme : Claude Skills

1. Qu’est-ce que c’est ?

Claude Skills est une fonctionnalité qui permet à Claude de charger automatiquement des « boîtes à outils » spécialisées selon vos besoins. Imaginez que Claude dispose d’une bibliothèque de compétences (rédaction, analyse, coding, etc.) et qu’il sélectionne automatiquement les bonnes sans que vous ayez à les demander explicitement. C’est comme avoir un assistant qui connaît exactement quel chapeau mettre pour chaque situation.

 

2. Pourquoi c’est fascinant ?

Vous gagnez du temps et de la cohérence : plus besoin de rappeler à Claude comment vous travaillez ou quelles règles suivre à chaque conversation. Les Skills s’adaptent intelligemment, comme un assistant qui apprend votre style de travail et l’applique automatiquement. C’est plus fluide, plus naturel, plus productif.

 

3. Pourquoi c’est limité ?

Claude ne « mémorise » pas réellement vos préférences d’une conversation à l’autre : les Skills fonctionnent bien pendant une session, mais dès que vous fermez et relancez une conversation, tout repart à zéro. De plus, si vous avez besoin de quelque chose de très spécifique ou hors des Skills disponibles, Claude ne peut pas l’inventer seul.

Related Posts

Edition #16

On pourrait croire que les entreprises Suisses ont franchi un cap: plus de la moitié déclarent désormais déployer l’IA à grande échelle. Pourtant, la fusée ne décolle pas vraiment dans la bonne direction. Seules 35 % l’intègrent réellement au cœur de leur stratégie, preuve que l’on sait propulser la technologie sans toujours savoir où la faire atterrir. Les usages se concentrent encore sur le marketing et la relation client, tandis que les fonctions support commencent timidement à sortir du bois.

Le vrai frein n’est pas technique, mais organisationnel. Gouvernance fragmentée, compétences mal alignées, acculturation hésitante : c’est moins un problème d’algorithmes qu’un casse-tête de coordination. la confusion entre IA générative, modèles “classiques” et agents autonomes n’arrange rien: les entreprises avancent, mais sans boussole.

Autour, l’écosystème s’agite pour donner le rythme. Bruxelles veut accélérer avec Apply AI et AI in Science, plus de compute, des hubs, un institut virtuel pour coordonner talents et données, encore faut-il transformer les promesses en réalisations mesurables. Genève trace un cadre clair, objectifs d’intérêt général, supervision humaine, registre public, pas de biométrie, une gouvernance qui met la table avant de servir le plat. Pendant ce temps, les Jeux de LA s’annoncent en mode plateforme, personnalisation et opérations dopées à l’IA, efficacité espérée, dépendances à surveiller.

En entreprise, l’agent devient collègue plus que gadget, Microsoft pousse un travail assité par agent qui planifie et exécute, mais la précision impose la relecture. Certains l’ont appris à leurs dépens, rapport bâclé, crédibilité écornée. OpenAI teste un assistant qui se réveille avant vous pour résumer votre monde, utile, à encadrer. La recette gagnante tient en trois verbes, spécialiser, brancher, mesurer, et un quatrième, vérifier.

Read More

Edition #15

Il y a, dans l’actualité technologique, un petit miracle qui passe souvent inaperçu : malgré la déferlante, malgré les agents qui codent, les IA qui sculptent des scènes de film à la voix, les modèles financiers qui raisonnent mieux que nous, il reste encore – tenace, vibrant – ce réflexe humain : vouloir comprendre, vouloir ouvrir, vouloir transmettre.

À contre-courant des silos géants et des IA fermées, une poignée d’initiatives européennes et open-source émergent. Le LLM suisse, entraîné sur “Alps”, n’est pas juste un exploit technique : c’est une déclaration d’intention. Une manière de dire que la puissance ne doit pas forcément rimer avec opacité, que l’innovation peut s’enraciner dans la coopération, pas uniquement dans le marché.

Oui, l’IA remplace. Oui, elle standardise, accélère, fracture. Mais elle révèle aussi. Nos angles morts. Nos faiblesses structurelles. Notre besoin d’outils qui nous respectent. Derrière les robots de bureau, les Claude financiers, les Bedrock d’AWS, on entrevoit un autre récit possible : celui d’une technologie choisie, orientée, contextualisée.

Rien n’est joué. Ce n’est pas parce que les géants avancent plus vite qu’ils vont forcément plus loin. Il y a dans les marges – dans ces Reachy Mini, ces IA publiques, ces expérimentations humaines – les prémices d’une alternative. Une IA qui ne se contente pas de prédire ou de remplacer, mais qui accompagne, complète, renforce.

Et si c’était ça, le futur désirable ? Une intelligence collective, augmentée par des outils qu’on comprend, qu’on corrige, qu’on peut démonter et améliorer. Une IA qui ne fait pas écran entre nous et le monde, mais qui nous aide à mieux l’habiter.

Read More