Plongez dans le grand bAIn

Edition #15

Partager cette édition :

Il y a, dans l’actualité technologique, un petit miracle qui passe souvent inaperçu : malgré la déferlante, malgré les agents qui codent, les IA qui sculptent des scènes de film à la voix, les modèles financiers qui raisonnent mieux que nous, il reste encore – tenace, vibrant – ce réflexe humain : vouloir comprendre, vouloir ouvrir, vouloir transmettre.

À contre-courant des silos géants et des IA fermées, une poignée d’initiatives européennes et open-source émergent. Le LLM suisse, entraîné sur “Alps”, n’est pas juste un exploit technique : c’est une déclaration d’intention. Une manière de dire que la puissance ne doit pas forcément rimer avec opacité, que l’innovation peut s’enraciner dans la coopération, pas uniquement dans le marché.

Oui, l’IA remplace. Oui, elle standardise, accélère, fracture. Mais elle révèle aussi. Nos angles morts. Nos faiblesses structurelles. Notre besoin d’outils qui nous respectent. Derrière les robots de bureau, les Claude financiers, les Bedrock d’AWS, on entrevoit un autre récit possible : celui d’une technologie choisie, orientée, contextualisée.

Rien n’est joué. Ce n’est pas parce que les géants avancent plus vite qu’ils vont forcément plus loin. Il y a dans les marges – dans ces Reachy Mini, ces IA publiques, ces expérimentations humaines – les prémices d’une alternative. Une IA qui ne se contente pas de prédire ou de remplacer, mais qui accompagne, complète, renforce.

Et si c’était ça, le futur désirable ? Une intelligence collective, augmentée par des outils qu’on comprend, qu’on corrige, qu’on peut démonter et améliorer. Une IA qui ne fait pas écran entre nous et le monde, mais qui nous aide à mieux l’habiter.

Hop Suisse !

Un consortium entre ETH Zurich, EPFL et le CSCS sort un LLM entièrement open-source, entraîné sur le super­ordinateur “Alps” avec 10 000 GPU. Le modèle, décliné en versions 8 B et 70 B de paramètres, maîtrise plus de 1 000 langues ! Code, poids et données seront publiés sous licence Apache 2.0, pour garantir transparence et traçabilité. En plus, l’équipe a démontré que refuser des données web n’affecte pas la performance. L’initiative s’inscrit dans un cadre européen de souveraineté, répondant aux exigences du droit suisse, de l’AI Act, et s’articule autour d’un écosystème open-source et collaboratif – via le récent sommet international des constructeurs de LLM open-source. Cette armée de chercheurs, pour la plupart suisses, mobilise 20 M de GPU‑heures par an, financés jusqu’en 2028, pour faire de ce LLM un “bien public global”.

Enjeux et perspectives

La montée de ce LLM marque un tournant : l’IA n’est plus confinée aux mains des géants US/Chine, elle devient bien commun. Mais le défi reste immense : lancer un modèle open-source, c’est bien, en assurer adoption large, c’est autre chose. À l’image du plan “ProSocial AI” discuté dans la presse, la question se pose : le modèle sera-t‑il vraiment utilisé dans la santé, l’éducation ou l’administration publique ? Et, surtout, comment assurer un écosystème durable, financé, sécurisé ? Si la puissance de “Alps” est un atout, le risque est de recréer un silo local sans continuité globale. L’Europe, mieux : le monde académique, doit maintenant capitaliser – promouvoir des forks spécialisés, former des ingénieurs, privilégier les benchmarks indépendants. À défaut, l’initiative suisse restera un monument impressionnant, mais muet.

Il était une fois…

Huit scénarios prospectifs structurent le dernier rapport de la RAND : d’une AGI coopérative entre démocraties, assurant un équilibre stable, jusqu’à une domination technologique totale ou un « Pearl Harbor de l’IA » initié par une puissance rivale. Parmi ces visions, deux soulèvent une inquiétude concrète : la course technologique américano‑chinoise pourrait dériver vers un conflit ouvert si l’arsenalisation des algorithmes s’accélère, en mer de Chine comme autour de Taïwan. À l’inverse, une AGI centralisée, contrôlée, pourrait inverser la dynamique en faveur d’une hégémonie américaine. Présenté comme un outil d’alerte aux décideurs, ce rapport illustre à quel point une technologie encore hypothétique, l’AGI, est déjà pensée comme une arme stratégique.

Enjeux et perspectives

Plus qu’un jeu de science‑fiction, ces scénarios révèlent combien la géopolitique de demain se jouera dans le code. Les architectures centralisées risquent d’engendrer une asymétrie durable, tandis que les modèles multipolaires amènent un risque d’escalade numérique. L’Europe, coincée entre ces pôles, doit choisir : mise sur régulation ou sur autonomie technologique. À l’image des réflexions du MIT sur l’électrification nécessaire des AI, elle devrait investir dans des infrastructures énergétiques — et surtout diplomatiques — pour exister dans ce monde codé. Car face à l’ombre d’un « équilibre de la terreur algorithmique », l’innovation ne suffit pas : c’est d’une stratégie de puissance qu’il faut désormais penser l’IA.

Silence, Action !

Netflix intègre pour la première fois de l’IA générative dans une production originale, en générant une scène de destruction d’un bâtiment pour la série argentine The Eternaut. Réalisée avec un générateur vidéo par prompts, la scène s’est achevée dix fois plus rapidement et à un coût jugé impraticable par les méthodes traditionnelles. Co-PDG Ted Sarandos insiste : l’IA n’évince pas les créateurs, elle leur offre des outils plus puissants pour innover, et le résultat artistique reste au rendez-vous. Netflix signale également des expérimentations dans la recommandation conversationnelle et l’insertion de publicités contextuelles via IA, confirmant une stratégie intégrée dans toute la chaîne de production et d’expérience utilisateur.

Enjeux et perspectives

La scène inaugurale d’IA générative chez Netflix ouvre une exploration conflictuelle : révolution créative ou menace sur les emplois et la propriété intellectuelle ? Comme la grève de 2023 l’a rappelé, scénaristes et techniciens redoutent l’automatisation déguisée. Pourtant, l’usage dans The Eternaut révèle une utilité ciblée : effets spectaculaires accessibles aux productions modestes. À l’instar des VFX open-source utilisés dans The Eternaut, d’autres studios tirent parti de ces outils – la qualité ne suffisant plus, c’est la vitesse et la flexibilité qui deviennent des enjeux stratégiques.

Par ailleurs, l’IA conversationnelle dans la recherche ou la pub marque une tentative de personnalisation poussée, mais le risque de bulle de contenu ou de détournement publicitaire existe. Netflix se situe à la croisée : dépasser l’efficacité économique sans trahir l’authenticité créative. Le vrai pari n’est ni technologique ni financier, mais sociétal : faire de l’IA un partenaire, pas un maître. Ignorer cet équilibre, c’est précipiter l’industrie dans un audiovisuel performatif, sans âme ni auteurs.

Forme l'IA et puis s'en va

Une secousse traverse le studio King (Candy Crush), filiale de Microsoft : près de 200 postes—level design, UX, rédaction narrative parmi eux—sont supprimés, non pas pour cause de crise, mais parce que ces salariés ont conçu et entraîné les IA qui reprennent désormais leurs fonctions. L’outil IA, dopé au reinforcement learning, teste et ajuste les niveaux automatiquement, éliminant le besoin de validation humaine. Un employé le qualifie d’« abject » : ironiquement, ceux qui ont mis au point la machine sont priés de disparaître, au nom d’une “efficacité” purement financière.

Enjeux et perspectives

Ce cas s’inscrit dans une tendance plus vaste : l’IA sert à optimiser, mais finit souvent par remplacer. Microsoft, via Copilot, généralise ce schéma partout dans la tech, allant jusqu’à évaluer les salariés sur leur usage de l’IA. Derrière le vernis productiviste, un malaise latent : les métiers créatifs sont-ils condamnés à s’autodétruire ? Le jeu vidéo, vitrine de l’innovation, cristallise ce malaise : automatiser la création, oui, mais à quel prix ? L’exemple de Valve, qui forme des “co‑créateurs” hybrides IA‑humain pour préserver créativité et emploi, montre une alternative possible. Ce qui était vendu comme “l’arme ultime pour décupler la créativité” pourrait devenir “la guillotine ultime pour l’emploi humain”.

A portée de main

Le spécialiste open‑source Hugging Face présente Reachy Mini, robot de bureau de 28 cm (1,5 kg), programmable en Python (et bientôt JS/Scratch), disponible en kit. Fruit du rachat de Pollen Robotics, il offre six degrés de liberté, tête et antennes animées, caméra grand angle, micros et haut‑parleur. Directement lié au Hub Hugging Face (1,7 M+ modèles, 400 000+ datasets), l’utilisateur peut tester, coder, simuler, partager des comportements IA, avec plus de 15 démos disponibles dès la livraison. Dédié aux développeurs, enseignants, chercheurs et curieux, Reachy Mini vise à démocratiser la « physical AI », démocratie matérielle renforcée par une architecture open‑source transparente (Apache 2.0).

Enjeux et perspectives

L’étape franchie par Hugging Face marque une bascule : l’IA ne se contente plus de codes et de pixels, elle s’incarne. Offrir un kit accessible, open‑source et connecté au Hub, c’est tenter de répliquer le modèle logiciel dans le hardware – une réponse européenne à l’hégémonie robotique chinoise ou américaine. Mais l’initiative soulève deux questions : la robustesse en milieu réel (le « reality gap ») et la viabilité industrielle à l’échelle – assemblage, SAV, conformité CE/UL demeurent incertains. Cependant, la promesse d’une IA physique démocratisée dépendra de la taille de la communauté, de la diversité des usages partagés, et de la capacité à garantir une fiabilité terrain – au‑delà du gadget bureau, la question est : quel Impact réel ? Si le projet suit l’exemple de Valve avec ses pilotes hybrides, on pourrait bien voir naître une génération d’IA plus incarnée et citoyenne.

Modèle sans défauts

Anthropic dévoile « Claude for Financial Services », déclinaison optimisée de son IA Claude destinée aux institutions financières. Elle intègre modèle Claude 4, Claude Code, et une interface unifiée via protocole MCP avec Databricks, Snowflake, S&P Global, FactSet et Morningstar, facilitant la recherche de marché, la modélisation, l’analyse de risque et la conformité. En tests, Claude Opus 4 a atteint 83 % d’exactitude sur des tâches complexes d’Excel, passant cinq des sept niveaux du Financial Modeling World Cup. Parmi les clients : Commonwealth Bank of Australia, Bridgewater, NBIM et AIG. Le système garantit que les données confidentielles des clients ne servent pas à entraîner les modèles, et propose outils de traçabilité et d’audit avancés. Il est accessible via AWS Marketplace, avec arrivée prochaine sur Google Cloud.

Enjeux et perspectives

Cette initiative marque un tournant : l’IA spécialisée n’est plus un concept, mais une machine intégrée au cœur de l’analyse financière. Elle promet de libérer les quant jalonnés d’Excel, mais soulève la question de la redondance des postes juniors. Les données et les régulateurs voient arriver une polyvalence algorithmique avec vigilance : les audits, traçabilité, et conformité GDPR/FINRA sont indispensables, mais complexifient le déploiement. L’absence d’intégration avec certains acteurs comme Bloomberg pourrait freiner l’adhésion complète. Des acteurs comme Microsoft Copilot for Finance ou Google Gemini Finance sont en embuscade, accentuant la compétition verticale. L’enjeu est double : maintenir une innovation fluide tout en préservant responsabilité et fiabilité dans des secteurs à enjeux élevés. Si Claude gagne la confiance des régulateurs, il pourrait devenir le standard des marchés — ou dévoiler la face cachée d’une automatisation rampante.

Agents à la pelle

AWS présente Amazon Bedrock AgentCore, plateforme modulaire pour créer, déployer et superviser des agents IA “agentic” à grande échelle via le cloud. Composée de sept briques — Runtime (exécution serverless isolée), Memory (gestion du contexte), Identity (authentification), Gateway (connecteurs APIs/MCP), Code Interpreter, Browser Tool et Observability — elle couvre tout le cycle : prototypage, montée en charge, monitoring. Disponible en preview, compatible avec tout framework (CrewAI, Strands, LangGraph) et modèle, elle promet un déploiement sécurisé, flexible et sans houle.

Enjeux et perspectives

Avec AgentCore, AWS franchit un cap : fintech, e‑commerce, santé, tout secteur veut ses agents autonomes. Mais cette “botisation” soulève des défis techniques et éthiques. D’un côté, on accélère la mise en production, l’interopérabilité et la gouvernance ; de l’autre, la complexité croît : une faille dans le Gateway ou Browser Tool suffit à compromettre tout un écosystème. Le tout concentré sur AWS crée une dépendance critique : quid de la portabilité ? Parallèlement, l’arrivée de standards comme MCP ou A2A promet une émancipation face aux silos, mais leur adoption reste à prouver. Le prochain défi : rendre cette armée d’agents intelligents à la fois robuste, transparente et modulable — sans transformer chaque déploiement en labyrinthe bureaucratique. L’avenir de l’agentic AI dépendra moins des lignes de code que de la résilience et de la gouvernance collective.

Phish & Trics

Source

Un chercheur du programme de bug bounty GenAI de Mozilla a mis au jour une faille dans l’assistance Gemini intégrée à Gmail : un pirate peut dissimuler un prompt malveillant dans un email en jouant avec HTML/CSS (police blanche, taille zéro). L’utilisateur ne voit rien, mais Gemini le lit et génère dans son résumé un faux message d’alerte – par exemple, un appel à un faux numéro de support. Simple et redoutablement efficace, l’attaque déjoue les filtres anti-spam et abuse la confiance portée à l’IA. Google a reconnu la vulnérabilité et a déclenché des exercices de red‑teaming et des déploiements de correctifs. Aucun cas réel n’a encore été signalé, mais la menace indique déjà une nouvelle ère de phishing, où l’IA devient vecteur involontaire de tromperie.

Enjeux et perspectives

Cette vulnérabilité illustre une mutation stratégique du phishing : déléguer l’attaque non plus seulement au mail, mais à l’algorithme qui le lit. Des recherches montrent que les LLM peuvent aussi générer des schémas de phishing plus convaincants qu’humains, affaiblissant les systèmes de détection traditionnels. D’un côté, la réponse de Google – filtrage du HTML, post‑traitement des résumés – est bienvenue. De l’autre, l’enjeu devient systémique : l’IA en contexte utilisateur est un nouveau vecteur d’attaque. Entre adoption généralisée et maturité sécuritaire, l’écart se creuse.Les entreprises doivent maintenant prendre en compte le risque d’infiltration de requête (prompt inject) associé à des assistants IA intégrés tandis que les régulateurs doivent clarifier les obligations de sécurité pour les IA intégrées. À l’aube de cette révolution phishing‑IA, la créativité des attaquants est à la hauteur de l’innovation : vigilance et encadrement restent nos meilleurs alliés.

App sous le prisme : Operator Chat GPT

1. Qu’est-ce que c’est ?
C’est un agent IA intégré à ChatGPT capable d’interagir avec votre environnement numérique via un navigateur virtuel.


2. Ce que ça fait ?
Il navigue, clique, remplit des formulaires, analyse, code et produit des résultats de façon autonome.


3. À quoi ça sert ?
Il sert à automatiser des tâches web complexes comme réserver, rechercher, créer des rapports ou gérer des présentations.


4. Pourquoi c’est fascinant ?
C’est fascinant car il transforme ChatGPT en assistant actif, capable de passer de la réflexion à l’action sans code ni API.


5. Pourquoi c’est limité ?
C’est limité par sa fiabilité inégale, des interfaces web fragiles, et des garde-fous nécessaires pour protéger vos données sensibles.

Related Posts

Edition #14

Il y a des révolutions qui laissent le temps de se préparer, de s’adapter. Et puis il y a l’intelligence artificielle.

Elle avance sans cesse, s’immisce dans nos vies, nos métiers, et redéfinit les règles plus vite qu’on ne les écrit.

Elle diagnostique des maladies mieux que des médecins, génère des groupes de rock entiers sans musiciens, et s’improvise correctrice de vérité sur les réseaux sociaux. Elle invente aussi, parfois, de faux contrats plus vrais que nature — tout en gardant en mémoire des conversations qu’on croyait effacées.

La frontière entre prouesse technologique et glissement de terrain est mince. Car si l’IA impressionne par sa rapidité, c’est notre lenteur à en saisir les enjeux qui inquiète. Responsabilité, confidentialité, droit d’auteur, éthique, transparence… Les mots sont connus, mais les réponses, elles, restent floues.

Alors entre fièvre technologique et frissons éthiques, il reste une solution : plongez dans le grand bAIn.

Read More

Edition #13

Il y a ceux qui observent l’IA depuis le bord… et ceux qui choisissent de plonger.

Votre newsletter signée PrismIA fait peau neuve avec un nouveau concept :
« Plongez dans le grand bAIn » — une invitation à passer à l’action, en Suisse comme ailleurs, que vous soyez professionnel ou particulier.

Un format repensé pour une immersion maîtrisée dans l’univers de l’intelligence artificielle :

  • Une sélection d’actualités clés
  • Des cas d’usage concrets
  • Des bonnes pratiques et des décryptages clairs

Le tout pensé pour vous guider dans vos décisions, sans vous noyer dans la complexité.

Pourquoi ce nom ?

Parce qu’il est temps d’y aller franchement.
Parce qu’un monde d’opportunités vous attend de l’autre côté du plongeoir.
Et surtout, parce que l’IA n’attend pas.

Read More