Deloitte s’est fait épingler après avoir livré à un organisme australien un rapport « rédigé » à l’aide d’une intelligence artificielle, puis facturé à prix fort. Le document, censé fournir des analyses, s’est révélé truffé d’erreurs factuelles, de données inventées et de citations fabriquées — une sorte de hallucination institutionnelle. Le cabinet s’est engagé à rembourser partiellement le contrat tout en assurant que ce fut une « utilisation assistée » de l’IA. L’affaire déclenche un épisode embarrassant pour l’un des géants du conseil, et une question immédiate : à quel point l’IA est-elle vraiment fiable dans les domaines sensibles ?
Ce scandale n’est pas une querelle anecdotique : il illustre la fracture entre l’outil et le métier. Le recours aux intelligences génératives dans des missions critiques (audit, conseil, expertise) impose une rigueur que les hallucinations algorithmiques bafouent. D’autres incidents du même ordre ont émergé dans les services juridiques, les services médicaux ou la rédaction de contenus, où des modèles ont créé des références fictives, ce que l’on nomme le « hallucination problem ». Pour s’en prémunir, les cabinets doivent mettre en place des garde-fous humains : relecture experte, vérification rigoureuse, transparence sur les sources. L’affaiblissement de la confiance est le véritable coût, non seulement pour Deloitte, mais pour l’ensemble du secteur du conseil. Et si ce n’est pas la dernière bévue du genre, cela doit au moins servir de leçon : l’IA n’est pas un copiste impeccable, mais un collaborateur risqué qu’il faut surveiller.
OpenAI muscle son pivot vers l’entreprise avec une pluie de partenariats (Spotify, Zillow, Mattel) et des outils pour brancher directement des apps à ChatGPT. Démo à l’appui : playlist sur demande, tri immobilier assisté, le tout dans une logique de “portail” unique où l’utilisateur orchestre ses tâches. En interne, la ligne est claire : transformer ChatGPT en quasi système d’exploitation et bâtir “la meilleure plateforme” pour les usages pros. Les marchés suivent la musique : plusieurs partenaires voient leurs titres frémir, pendant qu’un accord massif avec AMD alimente l’offensive matérielle. Côté gouvernance, promesse de respecter les réglages de confidentialité, et un partenaire, Spotify, qui précise ne pas partager de contenus avec OpenAI pour l’entraînement.
Les organisateurs de LA28 ont enrôlé Google comme partenaire “founding” et fournisseur officiel cloud et Search. Traduction : Gemini alimente la personnalisation, l’info en temps réel et la navigation des spectateurs ; Google Cloud muscle les opérations, du routage des foules aux besoins des 70 000 travailleurs et bénévoles ; YouTube et NBCUniversal étendent la couverture, avec des métriques d’audience dopées à l’IA. Côté sport, l’écosystème promet analyses d’entraînements pour Team USA et mise en forme de données sportives complexes. L’ambition : des Jeux plus fluides, plus “personnels”, sans sur-construire — la tech sert de colonne vertébrale, du billet jusqu’au replay.
Bienvenue dans l’Olympisme plateforme : sponsors tech devenus fournisseurs d’infrastructure, contenus et données. Gain d’efficacité, mais concentration redoutable : quand la billetterie, la circulation, l’engagement et la mesure TV s’alignent sur un seul acteur, le verrouillage et l’arbitrage des priorités ne sont jamais loin. La chaîne de valeur se datafie (Snowflake déjà au tableau), promettant des expériences “personnalisées” et des surfaces d’exposition pour la vie privée à chaque badge, recherche ou trajet. Paris a testé la recette (IA côté diffusion, modération, guidage), LA28 l’industrialise. Exigences minimales : transparence sur les modèles et les jeux de données, audits indépendants, garde-fous sur la collecte in situ et des options “faible trace” pour les fans. Sans cela, la victoire pourrait être nette au tableau… et plus floue dans les droits numériques.
La Ville de Genève officialise un cadre d’usage de l’IA dans ses services : objectif d’intérêt général, transparence et supervision humaine systématique. La charte bannit reconnaissance biométrique et scoring social, installe un comité de suivi et un registre public des systèmes. Elle mise sur la formation des agents (éthique, maîtrise d’outils, réseau de référents) et cible des usages concrets : automatisation de tâches, aide à la décision, contenus multilingues, analyses prédictives. Bref, pas de techno-solutionnisme : chaque déploiement doit être documenté, évaluable et réversible. Cette approche installe une responsabilité claire côté administration et offre au citoyen un droit de regard structuré.
OpenAI lance ChatGPT Pulse, une nouvelle fonctionnalité destinée aux abonnés Pro (mobile) : l’IA passe en mode “veille active”. Chaque nuit, elle analyse votre historique de chats, vos mémoires activées, vos retours et éventuellement vos apps connectées comme calendrier ou mail. Le lendemain, elle vous propose une série de cartes visuelles synthétiques : 5 à 10 points saillants que vous pouvez parcourir en un coup d’œil ou ouvrir pour plus de détails. L’idée : transformer ChatGPT d’outil réactif en compagnon proactif. Vous pouvez guider ce qu’il doit surveiller, désactiver Pulse à tout moment et ajuster les connecteurs. Cette version est proposée en avant-première aux utilisateurs Pro sur mobile.
Qu’est-ce que c’est ?
Pourquoi c’est fascinant ?
Pourquoi c’est limité ?
C’est encore en phase de déploiement partiel (certaines composantes en bêta), les risques de comportement imprévu persistent.

