Plongez dans le grand bAIn

Edition #16

Partager cette édition :

On pourrait croire que les entreprises Suisses ont franchi un cap: plus de la moitié déclarent désormais déployer l’IA à grande échelle. Pourtant, la fusée ne décolle pas vraiment dans la bonne direction. Seules 35 % l’intègrent réellement au cœur de leur stratégie, preuve que l’on sait propulser la technologie sans toujours savoir où la faire atterrir. Les usages se concentrent encore sur le marketing et la relation client, tandis que les fonctions support commencent timidement à sortir du bois.

Le vrai frein n’est pas technique, mais organisationnel. Gouvernance fragmentée, compétences mal alignées, acculturation hésitante : c’est moins un problème d’algorithmes qu’un casse-tête de coordination. la confusion entre IA générative, modèles “classiques” et agents autonomes n’arrange rien: les entreprises avancent, mais sans boussole.

Autour, l’écosystème s’agite pour donner le rythme. Bruxelles veut accélérer avec Apply AI et AI in Science, plus de compute, des hubs, un institut virtuel pour coordonner talents et données, encore faut-il transformer les promesses en réalisations mesurables. Genève trace un cadre clair, objectifs d’intérêt général, supervision humaine, registre public, pas de biométrie, une gouvernance qui met la table avant de servir le plat. Pendant ce temps, les Jeux de LA s’annoncent en mode plateforme, personnalisation et opérations dopées à l’IA, efficacité espérée, dépendances à surveiller.

En entreprise, l’agent devient collègue plus que gadget, Microsoft pousse un travail assité par agent qui planifie et exécute, mais la précision impose la relecture. Certains l’ont appris à leurs dépens, rapport bâclé, crédibilité écornée. OpenAI teste un assistant qui se réveille avant vous pour résumer votre monde, utile, à encadrer. La recette gagnante tient en trois verbes, spécialiser, brancher, mesurer, et un quatrième, vérifier.

Sans mode d'emploi

Les entreprises suisses passent à l’échelle, mais pas encore à la stratégie. Selon l’Observatoire Data & IA, 52% déclarent déployer l’IA largement, la maturité progresse et les cas d’usage s’ancrent dans les métiers. Pourtant, seuls 35% intègrent réellement l’IA au cœur de leur feuille de route. Les usages restent concentrés sur la relation client et le marketing, même si les fonctions support gagnent du terrain. Les données s’améliorent, mais 58% jugent le ROI encore basique ou absent. Les experts pointent moins la technique que l’organisation: gouvernance, compétences et acculturation. Confusion persistante entre IA générative, IA “traditionnelle” et agents autonomes: l’industrialisation avance, la clarté conceptuelle moins.
Enjeux et perspectives

Le diagnostic suisse résonne en Europe: beaucoup courent vers l’IA sans fondations numériques solides — jusqu’à 46% des PME utilisent des outils type ChatGPT au quotidien alors qu’elles manquent de gestion documentaire, d’analytics ou de processus digitaux basiques. Résultat: “pilot purgatory”. Un rapport du MIT martèle que 95% des pilotes GenAI n’affectent pas le P&L. Les rares succès viennent de cas précis, souvent en back-office (finance, achats), intégrés au workflow avec gouvernance et mesure d’impact. En Suisse, les PME montent vite mais la sécurité des données et les règles d’usage restent lacunaires. Exemple concret: traductions et correspondance cartonnent, mais la valeur durable vient lorsqu’on relie l’IA à la compta, au contrôle interne ou à la supply chain, avec des indicateurs de qualité, de traçabilité et d’empreinte. Bref: spécialiser, brancher, mesurer.
 
À ce propos, nous vous aidons à comprendre et maîtriser les enjeux de la stratégie IA dans votre organisation. Parlons-en ! info@prismia.ch

L'europe joue des coudes

La Commission européenne a dévoilé deux nouvelles stratégies pour catapulter l’Europe vers l’avant de l’IA : Apply AI, qui vise à promouvoir le déploiement de l’IA dans les secteurs industriels et publics, et AI in Science, qui cherche à intégrer l’IA au cœur du processus scientifique. Elle engage 600 millions d’euros via Horizon Europe pour donner aux chercheurs l’accès à plus de puissance de calcul, annonce le doublement des financements annuels pour l’IA dans la recherche — au-delà de 3 milliards — et structure la gouvernance via un institut virtuel nommé RAISE, chargé de coordonner données, talents et ressources. Un milliard d’euros (issus de Horizon Europe, Digital Europe, cofinancements) sera mobilisé pour encourager l’adoption d’IA “de proximité” dans la santé, l’énergie, l’industrie, l’agriculture, la mobilité, etc. Les pôles d’innovation, les hubs numériques et les centres d’expérimentation seront réorientés afin de servir de tremplins pour PME et grands groupes.
Enjeux et perspectives

L’initiative européenne reflète une ambition — et une crainte. Elle témoigne de la conscience que l’UE ne peut rester spectatrice face à la domination américaine et chinoise du secteur, accentuée par les coûts énergétiques européens élevés et le manque d’acteurs “full stack” locaux. (Exemple : l’UE peine à produire ses propres puces et reste dépendante des hyperscalers outre-Atlantique.)
Mais les défis sont nombreux : transformer des perspectives en réalisations concrètes, éviter que l’argent conduise à des projets dispersés, garantir l’équilibre entre la vigueur industrielle et la vigilance éthique — surtout dans un contexte où certains membres du Parlement appellent à ne pas affaiblir les obligations du régulateur. L’explosion potentielle des données, la fragmentation réglementaire selon les États et le risque de “Greenwashing technologique” ne sont pas des motifs anecdotiques.
Prenons l’exemple : des centres de dépistage IA en santé peuvent améliorer la détection du cancer, mais sans protocoles robustes de vérification, l’IA trompeuse” pourrait provoquer des diagnostics erronés. Ou encore : l’UE peut forcer un “buy European” dans les marchés publics d’IA — mais cela pourrait réduire l’exposition aux innovations mondiales les plus pointues.
Si Bruxelles veut éviter de devenir le cimetière des bonnes idées AI, il lui faudra ménager ses contraintes internes, encourager les projets de “moonshots” coordonnés, tout en assurant que l’éthique, la transparence et l’indépendance ne soient pas dévorées par l’efficacité affichée.

L’agent acrobate

Microsoft présente dans son billet la révolution “vibe working”, incarnée par Agent Mode (Word, Excel) et Office Agent (Copilot Chat). Agent Mode offre à l’utilisateur l’illusion d’un copilote intégré : tapez un besoin, l’agent planifie, exécute, valide, itère. Il ne vous reste plus qu’à « piloter » les étapes. En Excel, il génère formules, graphiques, rapports et vérifie ses propres résultats (57,2 % de précision selon SpreadsheetBench). En Word, il initie une conversation pour rédiger, reformuler, structurer. Office Agent, lui, opère depuis le chat Copilot : il interroge vos intentions, mène des recherches, et fournit des documents ou présentations fin prêtes, notamment sur PowerPoint via modèle Anthropic. Le lancement est progressif en version web (programme Frontier). Tandis que la version desktop et le support complet de PowerPoint restent à venir.
Enjeux et perspectives

Avec “vibe working”, Microsoft ne fait pas que sophistiquer Copilot : il désigne une évolution du rapport humain IA, dans lequel l’agent agit comme un collaborateur plutôt que comme un sous-traitant. Mais ce virage d’“agentie” recèle des risques. Déjà, la précision reste limitée pour les tâches critiques : l’IA atteint environ 57 % de fiabilité, contre plus de 71 % pour un humain, ce qui impose un contrôle constant. Ensuite, Microsoft route certaines tâches vers les modèles d’Anthropic, ce qui soulève des questions de gouvernance, de résidence des données, de conformité, un point saillant pour les organisations sensibles. Enfin, ce glissement vers une IA qui écrit, calcule et structure engage des questions culturelles : qui décide encore ? Qui vérifie ? Qui assume l’erreur ? Les premiers pilotes devront jouer les funambules entre gain de temps et rigueur pour ne pas transformer “vibe working” en “vibe gamble”.

Mais j'hallucine !

Deloitte s’est fait épingler après avoir livré à un organisme australien un rapport « rédigé » à l’aide d’une intelligence artificielle, puis facturé à prix fort. Le document, censé fournir des analyses, s’est révélé truffé d’erreurs factuelles, de données inventées et de citations fabriquées — une sorte de hallucination institutionnelle. Le cabinet s’est engagé à rembourser partiellement le contrat tout en assurant que ce fut une « utilisation assistée » de l’IA. L’affaire déclenche un épisode embarrassant pour l’un des géants du conseil, et une question immédiate : à quel point l’IA est-elle vraiment fiable dans les domaines sensibles ?

Enjeux et perspectives

Ce scandale n’est pas une querelle anecdotique : il illustre la fracture entre l’outil et le métier. Le recours aux intelligences génératives dans des missions critiques (audit, conseil, expertise) impose une rigueur que les hallucinations algorithmiques bafouent. D’autres incidents du même ordre ont émergé dans les services juridiques, les services médicaux ou la rédaction de contenus, où des modèles ont créé des références fictives, ce que l’on nomme le « hallucination problem ». Pour s’en prémunir, les cabinets doivent mettre en place des garde-fous humains : relecture experte, vérification rigoureuse, transparence sur les sources. L’affaiblissement de la confiance est le véritable coût, non seulement pour Deloitte, mais pour l’ensemble du secteur du conseil. Et si ce n’est pas la dernière bévue du genre, cela doit au moins servir de leçon : l’IA n’est pas un copiste impeccable, mais un collaborateur risqué qu’il faut surveiller.

ChatGPT enfile son costume

Source

OpenAI muscle son pivot vers l’entreprise avec une pluie de partenariats (Spotify, Zillow, Mattel) et des outils pour brancher directement des apps à ChatGPT. Démo à l’appui : playlist sur demande, tri immobilier assisté, le tout dans une logique de “portail” unique où l’utilisateur orchestre ses tâches. En interne, la ligne est claire : transformer ChatGPT en quasi système d’exploitation et bâtir “la meilleure plateforme” pour les usages pros. Les marchés suivent la musique : plusieurs partenaires voient leurs titres frémir, pendant qu’un accord massif avec AMD alimente l’offensive matérielle. Côté gouvernance, promesse de respecter les réglages de confidentialité, et un partenaire, Spotify, qui précise ne pas partager de contenus avec OpenAI pour l’entraînement.

Enjeux et perspectives

Derrière le show, la bataille est celle des plateformes d’agents et des intégrations profondes. Salesforce pousse Agentforce et s’arrime à OpenAI et Anthropic : la guerre des hubs commence. Les bénéfices existent, Citigroup revendique d’énormes gains d’heures, mais l’addition est salée : compute gargantuesque, dépendances fournisseurs, pression sur la marge. Le FMI voit un risque de bulle sans catastrophe systémique, signe qu’entre promesses de productivité et réalité terrain, le test grandeur nature débute. Les gagnants seront ceux qui marient intégration élégante, garde-fous data (à la Spotify) et ROI mesurable, pas seulement des démos séduisantes.

Des jeux intelligents

Source

Les organisateurs de LA28 ont enrôlé Google comme partenaire “founding” et fournisseur officiel cloud et Search. Traduction : Gemini alimente la personnalisation, l’info en temps réel et la navigation des spectateurs ; Google Cloud muscle les opérations, du routage des foules aux besoins des 70 000 travailleurs et bénévoles ; YouTube et NBCUniversal étendent la couverture, avec des métriques d’audience dopées à l’IA. Côté sport, l’écosystème promet analyses d’entraînements pour Team USA et mise en forme de données sportives complexes. L’ambition : des Jeux plus fluides, plus “personnels”, sans sur-construire — la tech sert de colonne vertébrale, du billet jusqu’au replay.

Enjeux et perspectives

Bienvenue dans l’Olympisme plateforme : sponsors tech devenus fournisseurs d’infrastructure, contenus et données. Gain d’efficacité, mais concentration redoutable : quand la billetterie, la circulation, l’engagement et la mesure TV s’alignent sur un seul acteur, le verrouillage et l’arbitrage des priorités ne sont jamais loin. La chaîne de valeur se datafie (Snowflake déjà au tableau), promettant des expériences “personnalisées” et des surfaces d’exposition pour la vie privée à chaque badge, recherche ou trajet. Paris a testé la recette (IA côté diffusion, modération, guidage), LA28 l’industrialise. Exigences minimales : transparence sur les modèles et les jeux de données, audits indépendants, garde-fous sur la collecte in situ et des options “faible trace” pour les fans. Sans cela, la victoire pourrait être nette au tableau… et plus floue dans les droits numériques.

L'IA sous contrôle à Genève

La Ville de Genève officialise un cadre d’usage de l’IA dans ses services : objectif d’intérêt général, transparence et supervision humaine systématique. La charte bannit reconnaissance biométrique et scoring social, installe un comité de suivi et un registre public des systèmes. Elle mise sur la formation des agents (éthique, maîtrise d’outils, réseau de référents) et cible des usages concrets : automatisation de tâches, aide à la décision, contenus multilingues, analyses prédictives. Bref, pas de techno-solutionnisme : chaque déploiement doit être documenté, évaluable et réversible. Cette approche installe une responsabilité claire côté administration et offre au citoyen un droit de regard structuré.

Enjeux et perspectives

Ce mouvement s’aligne avec les lignes directrices suisses et anticipe les exigences européennes : transparence, gouvernance, obligations accrues pour les “déployeurs” du secteur public. Concrètement, un registre public facilite l’auditabilité et la conformité au futur régime de risques, tandis que l’interdiction de la biométrie en espace public réduit l’exposition aux dérives. Reste le nerf de la guerre : passer des principes aux procédures (tests de robustesse, documentation des données, plan de retrait) et à la culture (agents formés, marchés publics exigeants). Exemples à suivre : publier les cartes d’évaluation des systèmes, lister les prompts institutionnels et ouvrir les incidents en post-mortem. Gouverner l’IA, ici, c’est rendre la machine lisible et donc contestable par défaut.

Vous prendrez bien un peu d'IA au réveil ?

Source

OpenAI lance ChatGPT Pulse, une nouvelle fonctionnalité destinée aux abonnés Pro (mobile) : l’IA passe en mode “veille active”. Chaque nuit, elle analyse votre historique de chats, vos mémoires activées, vos retours et éventuellement vos apps connectées comme calendrier ou mail. Le lendemain, elle vous propose une série de cartes visuelles synthétiques : 5 à 10 points saillants que vous pouvez parcourir en un coup d’œil ou ouvrir pour plus de détails. L’idée : transformer ChatGPT d’outil réactif en compagnon proactif. Vous pouvez guider ce qu’il doit surveiller, désactiver Pulse à tout moment et ajuster les connecteurs. Cette version est proposée en avant-première aux utilisateurs Pro sur mobile.

Enjeux et perspectives

Avec Pulse, OpenAI entérine un basculement : du “demandez-moi” vers “je vous dis”. Ce modèle positionne ChatGPT comme un assistant personnel qui anticipe et ça change la nature même du dialogue humain IA. Le risque ? La frontière entre service et surveillance s’amenuise. Qui contrôle les filtres, les priorités que l’IA juge pertinentes ? Sur le plan économique, ce type de flux “matinal” peut devenir un espace convoité pour la publicité ou la suggestion invisible. OpenAI affirme n’avoir aucun plan concret pour les pubs dans Pulse pour l’instant mais sans les exclure.
Mais le péril réel est cognitif. En vous épargnant l’effort de décider ce qu’il faut lire, l’IA peut vous convaincre que ce qu’elle propose est ce qu’il fallait découvrir, censure douce, enfermement intellectuel. Des concurrents comme Microsoft Copilot ou Google Gemini jetteront leur chapeau dans l’arène du “briefing intelligent”, ce qui, multiplié à l’échelle, pourrait redéfinir nos habitudes d’attention. Enfin, la gouvernance des mémoires et des connecteurs devra être transparente : l’IA prête à penser pour vous mérite des garde-fous clairs.

App sous le prisme : AgentKit

Qu’est-ce que c’est ?

AgentKit (Agent Builder) est un ensemble d’outils d’OpenAI conçu pour créer, intégrer et optimiser des agents IA, grâce à un éditeur visuel, une bibliothèque de chat, un registre de connecteurs et des outils d’évaluation. Il permet de développer rapidement des assistants intelligents pour le support client, la recherche ou les applications internes.

Pourquoi c’est fascinant ?

Il unifie et automatise ce qui était auparavant des processus manuels et chronophages — conception, versioning, évaluation — ce qui accélère fortement l’innovation.
 

Pourquoi c’est limité ?
C’est encore en phase de déploiement partiel (certaines composantes en bêta), les risques de comportement imprévu persistent.

Related Posts

Edition #17

OpenAI se rêve désormais en fondation à 130 milliards de dollars pour « financer le bien commun ». En pratique, Nvidia joue le mécène intéressé : 100 milliards injectés dans OpenAI, qui lui en rendra bien davantage en lui achetant ses propres puces. Oracle complète le tableau avec un contrat titanesque pour héberger tout cela. Résultat : des revenus vertigineux, des pertes du même ordre et une consommation électrique qui ferait pâlir bien des nations. Derrière les promesses d’altruisme, l’écosystème tourne à plein régime sur sa propre énergie financière. C’est spectaculaire, mais reste instable.

Pendant ce temps, les promesses de l’IA prennent des formes plus tangibles : Claude apprend à adapter son ton, Gemini permet à quiconque de concevoir une application en quelques phrases, et les humanoïdes de salon comme Neo essaient, tant bien que mal, de devenir utiles. La démonstration reste fragile, mais les progrès sont réels : ces outils quittent enfin le laboratoire pour entrer dans la vie quotidienne, là où les PME peuvent en tirer un bénéfice immédiat.

Le moment est venu de passer de la curiosité à l’action. Choisir un outil, tester un scénario, mesurer les gains : c’est à cette échelle que l’innovation devient rentable. L’IA n’a pas besoin de transformer votre entreprise pour être utile. Il suffit qu’elle vous fasse avancer un peu plus vite, un peu plus loin, chaque jour.

Read More

Edition #15

Il y a, dans l’actualité technologique, un petit miracle qui passe souvent inaperçu : malgré la déferlante, malgré les agents qui codent, les IA qui sculptent des scènes de film à la voix, les modèles financiers qui raisonnent mieux que nous, il reste encore – tenace, vibrant – ce réflexe humain : vouloir comprendre, vouloir ouvrir, vouloir transmettre.

À contre-courant des silos géants et des IA fermées, une poignée d’initiatives européennes et open-source émergent. Le LLM suisse, entraîné sur “Alps”, n’est pas juste un exploit technique : c’est une déclaration d’intention. Une manière de dire que la puissance ne doit pas forcément rimer avec opacité, que l’innovation peut s’enraciner dans la coopération, pas uniquement dans le marché.

Oui, l’IA remplace. Oui, elle standardise, accélère, fracture. Mais elle révèle aussi. Nos angles morts. Nos faiblesses structurelles. Notre besoin d’outils qui nous respectent. Derrière les robots de bureau, les Claude financiers, les Bedrock d’AWS, on entrevoit un autre récit possible : celui d’une technologie choisie, orientée, contextualisée.

Rien n’est joué. Ce n’est pas parce que les géants avancent plus vite qu’ils vont forcément plus loin. Il y a dans les marges – dans ces Reachy Mini, ces IA publiques, ces expérimentations humaines – les prémices d’une alternative. Une IA qui ne se contente pas de prédire ou de remplacer, mais qui accompagne, complète, renforce.

Et si c’était ça, le futur désirable ? Une intelligence collective, augmentée par des outils qu’on comprend, qu’on corrige, qu’on peut démonter et améliorer. Une IA qui ne fait pas écran entre nous et le monde, mais qui nous aide à mieux l’habiter.

Read More