Plongez dans le grand bAIn

Edition #16

Partager cette édition :

On pourrait croire que les entreprises Suisses ont franchi un cap: plus de la moitié déclarent désormais déployer l’IA à grande échelle. Pourtant, la fusée ne décolle pas vraiment dans la bonne direction. Seules 35 % l’intègrent réellement au cœur de leur stratégie, preuve que l’on sait propulser la technologie sans toujours savoir où la faire atterrir. Les usages se concentrent encore sur le marketing et la relation client, tandis que les fonctions support commencent timidement à sortir du bois.

Le vrai frein n’est pas technique, mais organisationnel. Gouvernance fragmentée, compétences mal alignées, acculturation hésitante : c’est moins un problème d’algorithmes qu’un casse-tête de coordination. la confusion entre IA générative, modèles “classiques” et agents autonomes n’arrange rien: les entreprises avancent, mais sans boussole.

Autour, l’écosystème s’agite pour donner le rythme. Bruxelles veut accélérer avec Apply AI et AI in Science, plus de compute, des hubs, un institut virtuel pour coordonner talents et données, encore faut-il transformer les promesses en réalisations mesurables. Genève trace un cadre clair, objectifs d’intérêt général, supervision humaine, registre public, pas de biométrie, une gouvernance qui met la table avant de servir le plat. Pendant ce temps, les Jeux de LA s’annoncent en mode plateforme, personnalisation et opérations dopées à l’IA, efficacité espérée, dépendances à surveiller.

En entreprise, l’agent devient collègue plus que gadget, Microsoft pousse un travail assité par agent qui planifie et exécute, mais la précision impose la relecture. Certains l’ont appris à leurs dépens, rapport bâclé, crédibilité écornée. OpenAI teste un assistant qui se réveille avant vous pour résumer votre monde, utile, à encadrer. La recette gagnante tient en trois verbes, spécialiser, brancher, mesurer, et un quatrième, vérifier.

Sans mode d'emploi

Les entreprises suisses passent à l’échelle, mais pas encore à la stratégie. Selon l’Observatoire Data & IA, 52% déclarent déployer l’IA largement, la maturité progresse et les cas d’usage s’ancrent dans les métiers. Pourtant, seuls 35% intègrent réellement l’IA au cœur de leur feuille de route. Les usages restent concentrés sur la relation client et le marketing, même si les fonctions support gagnent du terrain. Les données s’améliorent, mais 58% jugent le ROI encore basique ou absent. Les experts pointent moins la technique que l’organisation: gouvernance, compétences et acculturation. Confusion persistante entre IA générative, IA “traditionnelle” et agents autonomes: l’industrialisation avance, la clarté conceptuelle moins.
Enjeux et perspectives

Le diagnostic suisse résonne en Europe: beaucoup courent vers l’IA sans fondations numériques solides — jusqu’à 46% des PME utilisent des outils type ChatGPT au quotidien alors qu’elles manquent de gestion documentaire, d’analytics ou de processus digitaux basiques. Résultat: “pilot purgatory”. Un rapport du MIT martèle que 95% des pilotes GenAI n’affectent pas le P&L. Les rares succès viennent de cas précis, souvent en back-office (finance, achats), intégrés au workflow avec gouvernance et mesure d’impact. En Suisse, les PME montent vite mais la sécurité des données et les règles d’usage restent lacunaires. Exemple concret: traductions et correspondance cartonnent, mais la valeur durable vient lorsqu’on relie l’IA à la compta, au contrôle interne ou à la supply chain, avec des indicateurs de qualité, de traçabilité et d’empreinte. Bref: spécialiser, brancher, mesurer.
 
À ce propos, nous vous aidons à comprendre et maîtriser les enjeux de la stratégie IA dans votre organisation. Parlons-en ! info@prismia.ch

L'europe joue des coudes

La Commission européenne a dévoilé deux nouvelles stratégies pour catapulter l’Europe vers l’avant de l’IA : Apply AI, qui vise à promouvoir le déploiement de l’IA dans les secteurs industriels et publics, et AI in Science, qui cherche à intégrer l’IA au cœur du processus scientifique. Elle engage 600 millions d’euros via Horizon Europe pour donner aux chercheurs l’accès à plus de puissance de calcul, annonce le doublement des financements annuels pour l’IA dans la recherche — au-delà de 3 milliards — et structure la gouvernance via un institut virtuel nommé RAISE, chargé de coordonner données, talents et ressources. Un milliard d’euros (issus de Horizon Europe, Digital Europe, cofinancements) sera mobilisé pour encourager l’adoption d’IA “de proximité” dans la santé, l’énergie, l’industrie, l’agriculture, la mobilité, etc. Les pôles d’innovation, les hubs numériques et les centres d’expérimentation seront réorientés afin de servir de tremplins pour PME et grands groupes.
Enjeux et perspectives

L’initiative européenne reflète une ambition — et une crainte. Elle témoigne de la conscience que l’UE ne peut rester spectatrice face à la domination américaine et chinoise du secteur, accentuée par les coûts énergétiques européens élevés et le manque d’acteurs “full stack” locaux. (Exemple : l’UE peine à produire ses propres puces et reste dépendante des hyperscalers outre-Atlantique.)
Mais les défis sont nombreux : transformer des perspectives en réalisations concrètes, éviter que l’argent conduise à des projets dispersés, garantir l’équilibre entre la vigueur industrielle et la vigilance éthique — surtout dans un contexte où certains membres du Parlement appellent à ne pas affaiblir les obligations du régulateur. L’explosion potentielle des données, la fragmentation réglementaire selon les États et le risque de “Greenwashing technologique” ne sont pas des motifs anecdotiques.
Prenons l’exemple : des centres de dépistage IA en santé peuvent améliorer la détection du cancer, mais sans protocoles robustes de vérification, l’IA trompeuse” pourrait provoquer des diagnostics erronés. Ou encore : l’UE peut forcer un “buy European” dans les marchés publics d’IA — mais cela pourrait réduire l’exposition aux innovations mondiales les plus pointues.
Si Bruxelles veut éviter de devenir le cimetière des bonnes idées AI, il lui faudra ménager ses contraintes internes, encourager les projets de “moonshots” coordonnés, tout en assurant que l’éthique, la transparence et l’indépendance ne soient pas dévorées par l’efficacité affichée.

L’agent acrobate

Microsoft présente dans son billet la révolution “vibe working”, incarnée par Agent Mode (Word, Excel) et Office Agent (Copilot Chat). Agent Mode offre à l’utilisateur l’illusion d’un copilote intégré : tapez un besoin, l’agent planifie, exécute, valide, itère. Il ne vous reste plus qu’à « piloter » les étapes. En Excel, il génère formules, graphiques, rapports et vérifie ses propres résultats (57,2 % de précision selon SpreadsheetBench). En Word, il initie une conversation pour rédiger, reformuler, structurer. Office Agent, lui, opère depuis le chat Copilot : il interroge vos intentions, mène des recherches, et fournit des documents ou présentations fin prêtes, notamment sur PowerPoint via modèle Anthropic. Le lancement est progressif en version web (programme Frontier). Tandis que la version desktop et le support complet de PowerPoint restent à venir.
Enjeux et perspectives

Avec “vibe working”, Microsoft ne fait pas que sophistiquer Copilot : il désigne une évolution du rapport humain IA, dans lequel l’agent agit comme un collaborateur plutôt que comme un sous-traitant. Mais ce virage d’“agentie” recèle des risques. Déjà, la précision reste limitée pour les tâches critiques : l’IA atteint environ 57 % de fiabilité, contre plus de 71 % pour un humain, ce qui impose un contrôle constant. Ensuite, Microsoft route certaines tâches vers les modèles d’Anthropic, ce qui soulève des questions de gouvernance, de résidence des données, de conformité, un point saillant pour les organisations sensibles. Enfin, ce glissement vers une IA qui écrit, calcule et structure engage des questions culturelles : qui décide encore ? Qui vérifie ? Qui assume l’erreur ? Les premiers pilotes devront jouer les funambules entre gain de temps et rigueur pour ne pas transformer “vibe working” en “vibe gamble”.

Mais j'hallucine !

Deloitte s’est fait épingler après avoir livré à un organisme australien un rapport « rédigé » à l’aide d’une intelligence artificielle, puis facturé à prix fort. Le document, censé fournir des analyses, s’est révélé truffé d’erreurs factuelles, de données inventées et de citations fabriquées — une sorte de hallucination institutionnelle. Le cabinet s’est engagé à rembourser partiellement le contrat tout en assurant que ce fut une « utilisation assistée » de l’IA. L’affaire déclenche un épisode embarrassant pour l’un des géants du conseil, et une question immédiate : à quel point l’IA est-elle vraiment fiable dans les domaines sensibles ?

Enjeux et perspectives

Ce scandale n’est pas une querelle anecdotique : il illustre la fracture entre l’outil et le métier. Le recours aux intelligences génératives dans des missions critiques (audit, conseil, expertise) impose une rigueur que les hallucinations algorithmiques bafouent. D’autres incidents du même ordre ont émergé dans les services juridiques, les services médicaux ou la rédaction de contenus, où des modèles ont créé des références fictives, ce que l’on nomme le « hallucination problem ». Pour s’en prémunir, les cabinets doivent mettre en place des garde-fous humains : relecture experte, vérification rigoureuse, transparence sur les sources. L’affaiblissement de la confiance est le véritable coût, non seulement pour Deloitte, mais pour l’ensemble du secteur du conseil. Et si ce n’est pas la dernière bévue du genre, cela doit au moins servir de leçon : l’IA n’est pas un copiste impeccable, mais un collaborateur risqué qu’il faut surveiller.

ChatGPT enfile son costume

Source

OpenAI muscle son pivot vers l’entreprise avec une pluie de partenariats (Spotify, Zillow, Mattel) et des outils pour brancher directement des apps à ChatGPT. Démo à l’appui : playlist sur demande, tri immobilier assisté, le tout dans une logique de “portail” unique où l’utilisateur orchestre ses tâches. En interne, la ligne est claire : transformer ChatGPT en quasi système d’exploitation et bâtir “la meilleure plateforme” pour les usages pros. Les marchés suivent la musique : plusieurs partenaires voient leurs titres frémir, pendant qu’un accord massif avec AMD alimente l’offensive matérielle. Côté gouvernance, promesse de respecter les réglages de confidentialité, et un partenaire, Spotify, qui précise ne pas partager de contenus avec OpenAI pour l’entraînement.

Enjeux et perspectives

Derrière le show, la bataille est celle des plateformes d’agents et des intégrations profondes. Salesforce pousse Agentforce et s’arrime à OpenAI et Anthropic : la guerre des hubs commence. Les bénéfices existent, Citigroup revendique d’énormes gains d’heures, mais l’addition est salée : compute gargantuesque, dépendances fournisseurs, pression sur la marge. Le FMI voit un risque de bulle sans catastrophe systémique, signe qu’entre promesses de productivité et réalité terrain, le test grandeur nature débute. Les gagnants seront ceux qui marient intégration élégante, garde-fous data (à la Spotify) et ROI mesurable, pas seulement des démos séduisantes.

Des jeux intelligents

Source

Les organisateurs de LA28 ont enrôlé Google comme partenaire “founding” et fournisseur officiel cloud et Search. Traduction : Gemini alimente la personnalisation, l’info en temps réel et la navigation des spectateurs ; Google Cloud muscle les opérations, du routage des foules aux besoins des 70 000 travailleurs et bénévoles ; YouTube et NBCUniversal étendent la couverture, avec des métriques d’audience dopées à l’IA. Côté sport, l’écosystème promet analyses d’entraînements pour Team USA et mise en forme de données sportives complexes. L’ambition : des Jeux plus fluides, plus “personnels”, sans sur-construire — la tech sert de colonne vertébrale, du billet jusqu’au replay.

Enjeux et perspectives

Bienvenue dans l’Olympisme plateforme : sponsors tech devenus fournisseurs d’infrastructure, contenus et données. Gain d’efficacité, mais concentration redoutable : quand la billetterie, la circulation, l’engagement et la mesure TV s’alignent sur un seul acteur, le verrouillage et l’arbitrage des priorités ne sont jamais loin. La chaîne de valeur se datafie (Snowflake déjà au tableau), promettant des expériences “personnalisées” et des surfaces d’exposition pour la vie privée à chaque badge, recherche ou trajet. Paris a testé la recette (IA côté diffusion, modération, guidage), LA28 l’industrialise. Exigences minimales : transparence sur les modèles et les jeux de données, audits indépendants, garde-fous sur la collecte in situ et des options “faible trace” pour les fans. Sans cela, la victoire pourrait être nette au tableau… et plus floue dans les droits numériques.

L'IA sous contrôle à Genève

La Ville de Genève officialise un cadre d’usage de l’IA dans ses services : objectif d’intérêt général, transparence et supervision humaine systématique. La charte bannit reconnaissance biométrique et scoring social, installe un comité de suivi et un registre public des systèmes. Elle mise sur la formation des agents (éthique, maîtrise d’outils, réseau de référents) et cible des usages concrets : automatisation de tâches, aide à la décision, contenus multilingues, analyses prédictives. Bref, pas de techno-solutionnisme : chaque déploiement doit être documenté, évaluable et réversible. Cette approche installe une responsabilité claire côté administration et offre au citoyen un droit de regard structuré.

Enjeux et perspectives

Ce mouvement s’aligne avec les lignes directrices suisses et anticipe les exigences européennes : transparence, gouvernance, obligations accrues pour les “déployeurs” du secteur public. Concrètement, un registre public facilite l’auditabilité et la conformité au futur régime de risques, tandis que l’interdiction de la biométrie en espace public réduit l’exposition aux dérives. Reste le nerf de la guerre : passer des principes aux procédures (tests de robustesse, documentation des données, plan de retrait) et à la culture (agents formés, marchés publics exigeants). Exemples à suivre : publier les cartes d’évaluation des systèmes, lister les prompts institutionnels et ouvrir les incidents en post-mortem. Gouverner l’IA, ici, c’est rendre la machine lisible et donc contestable par défaut.

Vous prendrez bien un peu d'IA au réveil ?

Source

OpenAI lance ChatGPT Pulse, une nouvelle fonctionnalité destinée aux abonnés Pro (mobile) : l’IA passe en mode “veille active”. Chaque nuit, elle analyse votre historique de chats, vos mémoires activées, vos retours et éventuellement vos apps connectées comme calendrier ou mail. Le lendemain, elle vous propose une série de cartes visuelles synthétiques : 5 à 10 points saillants que vous pouvez parcourir en un coup d’œil ou ouvrir pour plus de détails. L’idée : transformer ChatGPT d’outil réactif en compagnon proactif. Vous pouvez guider ce qu’il doit surveiller, désactiver Pulse à tout moment et ajuster les connecteurs. Cette version est proposée en avant-première aux utilisateurs Pro sur mobile.

Enjeux et perspectives

Avec Pulse, OpenAI entérine un basculement : du “demandez-moi” vers “je vous dis”. Ce modèle positionne ChatGPT comme un assistant personnel qui anticipe et ça change la nature même du dialogue humain IA. Le risque ? La frontière entre service et surveillance s’amenuise. Qui contrôle les filtres, les priorités que l’IA juge pertinentes ? Sur le plan économique, ce type de flux “matinal” peut devenir un espace convoité pour la publicité ou la suggestion invisible. OpenAI affirme n’avoir aucun plan concret pour les pubs dans Pulse pour l’instant mais sans les exclure.
Mais le péril réel est cognitif. En vous épargnant l’effort de décider ce qu’il faut lire, l’IA peut vous convaincre que ce qu’elle propose est ce qu’il fallait découvrir, censure douce, enfermement intellectuel. Des concurrents comme Microsoft Copilot ou Google Gemini jetteront leur chapeau dans l’arène du “briefing intelligent”, ce qui, multiplié à l’échelle, pourrait redéfinir nos habitudes d’attention. Enfin, la gouvernance des mémoires et des connecteurs devra être transparente : l’IA prête à penser pour vous mérite des garde-fous clairs.

App sous le prisme : AgentKit

Qu’est-ce que c’est ?

AgentKit (Agent Builder) est un ensemble d’outils d’OpenAI conçu pour créer, intégrer et optimiser des agents IA, grâce à un éditeur visuel, une bibliothèque de chat, un registre de connecteurs et des outils d’évaluation. Il permet de développer rapidement des assistants intelligents pour le support client, la recherche ou les applications internes.

Pourquoi c’est fascinant ?

Il unifie et automatise ce qui était auparavant des processus manuels et chronophages — conception, versioning, évaluation — ce qui accélère fortement l’innovation.
 

Pourquoi c’est limité ?
C’est encore en phase de déploiement partiel (certaines composantes en bêta), les risques de comportement imprévu persistent.

Related Posts

Edition #20

Cette édition illustre un même basculement, observé sur plusieurs fronts. À Davos, les dirigeants d’Anthropic, Google DeepMind et Microsoft actent une transformation rapide du développement logiciel, où l’IA automatise déjà une large part du travail des ingénieurs. Au CES, NVIDIA ouvre une nouvelle voie pour les véhicules autonomes avec Alpamayo, en misant sur le raisonnement explicable plutôt que sur la simple perception.

Nous revenons aussi sur l’évolution des modèles économiques de l’IA, avec l’arrivée annoncée de la publicité dans ChatGPT, et sur la montée en puissance des agents autonomes, illustrée par Claude Cowork, capable d’exécuter des tâches réelles sur un poste de travail. Enfin, côté régulation et gouvernance, l’adoption massive de l’IA dans la finance suisse rappelle que la maîtrise des risques et de la conformité devient un facteur clé de compétitivité.

Autrement dit, l’IA n’est plus une promesse : elle s’installe dans les opérations, les organisations et les décisions stratégiques.

Read More