Une panne mondiale de ChatGPT a plongé des millions d’utilisateurs dans le silence numérique. Avec plus de 400 millions d’usagers hebdomadaires, l’outil d’OpenAI n’est plus un gadget, mais un pilier du quotidien professionnel. Le 4 juin, tout s’arrête : les flux Slack s’enrayent, les pitchs PowerPoint prennent du retard, et même des services d’assistance médicale basés sur GPT doivent couper temporairement leur hotline. Résultat : une explosion de requêtes sur Google, des forums Reddit en surchauffe, et un hashtag #ChatGPTDown en trending topic planétaire. OpenAI a rétabli la situation en quelques heures, mais l’incident a suffi à relancer les téléchargements de Grok, Gemini et Claude. L’IA n’est plus un outil parmi d’autres — c’est le moteur invisible d’un monde qui tourne (trop ?) vite.
Ce blackout global a agi comme un révélateur. Selon une étude relayée par The Conversation, 58 % des professionnels utilisent aujourd’hui l’IA de manière régulière. Quand l’outil flanche, c’est tout un écosystème qui s’effondre. Cette dépendance pose deux problèmes majeurs : la résilience des infrastructures numériques d’un côté, la diversification des outils de l’autre. Dans les grandes entreprises comme les PME, la question n’est plus de savoir si on utilise l’IA, mais quoi faire quand elle plante. Il devient donc urgent de penser des architectures hybrides, de tester des solutions alternatives — y compris locales ou open source — et d’inclure la gestion des pannes IA dans les plans de continuité d’activité.
Le projet AI.gov, censé inaugurer une nouvelle ère numérique dans l’administration américaine, a été révélé au grand public… via un dépôt GitHub ! Pendant plusieurs heures, n’importe qui a pu consulter les grandes lignes de cette plateforme pilotée par l’ancien ingénieur de Tesla, Thomas Shedd : assistant conversationnel inter-agences, connexions aux modèles d’OpenAI, Google, Anthropic, et un outil de monitoring baptisé CONSOLE. Le lancement ? Prévu pour le 4 juillet. L’effet waouh ? Plutôt une démonstration éclatante d’amateurisme.
L’administration Trump n’en est pas à sa première bourde, ici il n’est pas question de partager des plans militaires confidentiels sur Signal avec un journaliste, mais le niveau d’amateurisme est proche.
Sur le fond, AI.gov pose un vrai dilemme : comment moderniser l’administration sans compromettre la sécurité, la souveraineté, ni la confiance citoyenne ? Injecter l’IA dans les rouages étatiques peut renforcer l’efficacité, à condition que les fondations soient solides.
Si un assistant IA fédéral peut être exposé comme un projet de hackathon mal géré, que se passera-t-il quand il traitera des données médicales, fiscales ou judiciaires ? Il ne suffit pas de coller du « AI » sur les serveurs d’État : encore faut-il une stratégie, une gouvernance et un minimum de contrôle. Sinon, ce n’est pas une révolution numérique, c’est juste un bug en attente de devenir viral.
Clairity, une startup basée à Boston, a récemment obtenu l’autorisation de la FDA pour son outil innovant, Clairity Breast. Ce logiciel d’intelligence artificielle est le premier de son genre à prédire le risque de développer un cancer du sein dans les cinq prochaines années, en se basant uniquement sur une mammographie standard . Contrairement aux modèles traditionnels qui s’appuient sur des facteurs tels que l’âge ou les antécédents familiaux, Clairity Breast analyse des caractéristiques subtiles dans les images mammographiques, souvent imperceptibles à l’œil humain.
L’algorithme a été entraîné sur des millions d’images et validé sur plus de 77 000 mammographies provenant de cinq centres de dépistage géographiquement diversifiés, garantissant ainsi une représentativité ethnique et raciale . Cette approche permet de fournir aux professionnels de santé un score de risque personnalisé, facilitant des décisions cliniques plus adaptées, telles que des examens complémentaires ou des interventions préventives.
L’approbation de Clairity Breast marque une avancée significative dans la personnalisation des soins de santé. En identifiant les femmes à risque avant l’apparition de signes cliniques, cet outil ouvre la voie à une médecine plus proactive. De plus, en réduisant la dépendance à des facteurs de risque traditionnels, souvent absents chez de nombreuses patientes, Clairity Breast contribue à une détection plus équitable du cancer du sein.
Cependant, cette innovation soulève également des questions éthiques et pratiques. Comment garantir la confidentialité des données utilisées pour entraîner l’algorithme ? Quelle sera la place de l’IA dans la relation patient-médecin ? Et comment éviter une dépendance excessive à ces outils technologiques au détriment du jugement clinique ?
En somme, Clairity Breast représente une avancée prometteuse dans la lutte contre le cancer du sein, mais son intégration dans le système de santé nécessitera une réflexion approfondie sur les implications éthiques, pratiques et sociales de l’utilisation de l’IA en médecine.
Hugging Face, connu pour son activisme open source en IA, vient de dévoiler SmolVLA, un modèle de langage-action-vision (VLA) si compact qu’il tourne sur un simple MacBook — pas besoin de supercalculateurs ni de GPU liquéfiés. Avec seulement 450 millions de paramètres, SmolVLA pèse 450 Mo et est capable de piloter un robot dans des environnements complexes. Il fonctionne en deux modules distincts : un pour la vision (perception de l’environnement) et un pour l’action (décision et mouvement). Cette séparation permet une meilleure modularité et efficacité, surtout pour les petits systèmes embarqués.
Entraîné à partir de données issues de la communauté LeRobot, ce modèle mise sur une approche décentralisée : plutôt que de concentrer la puissance dans de gros serveurs, on distribue l’intelligence là où elle est utilisée. Et tout cela est bien sûr open source, dans l’ADN Hugging Face.
SmolVLA pourrait changer la donne dans la robotique embarquée. Son faible poids computationnel ouvre des possibilités dans des secteurs où chaque watt et chaque gramme comptent : drones, robots domestiques, applications éducatives… En rendant ces technologies accessibles sans infrastructure cloud, Hugging Face pousse vers une IA plus locale, plus éthique et plus contrôlable. Le modèle est aussi une réponse élégante à la démesure des LLM actuels : ici, pas de milliards de paramètres, mais une performance ciblée, maîtrisable, et démocratisable. L’IA se dégonfle peut-être un peu… mais pour aller plus loin.
Microsoft dévoile Copilot Vision, une fonctionnalité qui donne littéralement des yeux à son assistant IA. Disponible sur Windows 10 et 11, cette nouveauté permet à l’IA de voir en temps réel ce que l’utilisateur affiche à l’écran — que ce soit un document Word, un e-mail ou une interface logicielle. Concrètement, il suffit de partager une fenêtre active via une icône “lunettes” pour que Copilot analyse son contenu et fournisse des réponses contextualisées. Contrairement à Recall, la très controversée fonction de mémoire automatique, Vision ne capture rien de façon permanente et ne s’active que sur demande.
Accessible sans abonnement payant, cette fonctionnalité vise à fluidifier les interactions homme-machine. Elle est aussi disponible sur mobile, renforçant la stratégie de Microsoft de faire de Copilot un assistant transversal, intégrable dans n’importe quel environnement applicatif.
Avec Vision, Microsoft ne propose pas seulement un gadget d’assistance, mais une nouvelle couche d’intelligence embarquée qui transforme l’ordinateur en collaborateur actif.
L’assistant n’est plus une app parmi d’autres : il observe l’ensemble du flux de travail. Cela rebat les cartes de la productivité : pourquoi apprendre un logiciel quand l’IA peut vous guider dedans ? Pourquoi structurer ses données quand l’IA peut les interpréter à la volée ? Pour les entreprises, c’est une promesse de gains de formation et d’agilité, mais aussi une dépendance accrue à l’écosystème Microsoft, qui devient la couche d’orchestration par défaut.
De plus, Vision permet à l’IA de lire n’importe quel logiciel ou service à l’écran, y compris ceux de concurrents. On peut donc imaginer que l’IA offre des tutoriels, traduise des interfaces, voire détourne des usages… sans que ces éditeurs ne soient partie prenante. Un peu comme si un assistant universel venait squatter toutes les plateformes, sans licence ni invitation. Ce n’est pas anodin : des acteurs comme Adobe, par exemple, ont déjà limité les accès API de leurs logiciels à des IA concurrentes pour cette raison.
La start-up Builder.AI, vantée comme une révolution du développement sans code grâce à l’IA, s’est effondrée après la révélation d’un secret industriel : l’“intelligence artificielle” vantée reposait en réalité sur le travail manuel de 700 développeurs, principalement sous-traitants. Alors que l’entreprise assurait à ses clients que son assistant “Natasha” générait automatiquement des applications, il s’agissait en grande partie d’une façade dissimulant une armée humaine, sollicitée à la tâche.
Des sources internes et des rapports d’investigation ont démontré que les modèles d’IA utilisés étaient rudimentaires, souvent inefficaces, et que la majorité des projets reposaient sur des interventions humaines non divulguées. Résultat : chute de confiance des investisseurs, interruption des contrats clients, et départ précipité du PDG.
Cet épisode met en lumière une tension croissante dans l’écosystème de l’IA : celle entre storytelling technologique et réalité opérationnelle. Derrière les discours d’automatisation magique se cache souvent une chaîne humaine invisible — précarisée, sous-payée, et rendue invisible au nom de l’innovation. Builder.AI n’est probablement pas un cas isolé, mais un symptôme d’un marché avide de promesses trop belles. Si l’IA veut garder sa légitimité, elle doit s’accompagner de transparence sur ses limites, ses dépendances et ses mécanismes internes. À défaut, ce ne sont pas seulement les start-up qui tomberont… mais aussi la confiance dans tout un secteur.
Une équipe de chercheurs pilotée par l’EPFL a mis au point INCLUDE, un benchmark monumental qui évalue la capacité des IA génératives à comprendre des contenus dans 44 langues tout en tenant compte du contexte culturel. Les modèles testés (GPT-4, Gemini, LLaMA-3) ont été confrontés à plus de 197 000 questions issues d’examens réglementaires, médicaux, professionnels ou académiques du monde entier. Verdict : les modèles brillent sur les connaissances générales globalisées, mais s’effondrent dès que les questions abordent des réalités culturelles ou historiques locales. L’IA reconnaît le mot “kimono” dans 40 langues, mais sèche sur le droit coutumier malgache ou l’histoire régionale brésilienne.
Cette faille linguistico-culturelle illustre un problème structurel : la dépendance à des corpus d’entraînement occidentalo-centrés. Les IA génératives, conçues pour fonctionner “partout”, finissent par ressembler à des globe-trotters qui photographient beaucoup mais ne comprennent rien. Ce biais de fond peut avoir des conséquences concrètes, notamment lorsque l’IA est utilisée dans l’éducation, la santé ou le droit : elle risque de projeter des interprétations inadaptées, voire erronées, sur des réalités locales. Pour créer une IA véritablement inclusive, il ne suffit pas d’ajouter des langues, il faut introduire des narrations, des visions du monde, des voix enracinées dans leur territoire. Parce qu’une IA qui parle tous les dialectes mais ignore l’essence des cultures, ce n’est pas une intelligence globale, c’est juste une encyclopédie sous stéroïdes.
Google a récemment fait face à une controverse suite à une réponse erronée de son moteur IA intégré dans Search. Lors d’une recherche concernant le crash d’Air India, l’IA a affirmé à tort que l’avion impliqué était un Airbus, alors qu’il s’agissait en réalité d’un Boeing 737 MAX. Cette réponse incorrecte, rendue visible dans les AI Overviews, a semé la confusion et a rapidement attiré l’attention des médias spécialisés et des utilisateurs en ligne. L’erreur provient de la synthèse automatique d’informations en ligne, où le système IA a mal interprété ou mal corrélé les sources, confondant le fabricant de l’avion.
Google a reconnu l’erreur et a indiqué avoir désactivé les Overviews pour cette requête le temps d’une correction. Ce n’est pas la première fois que le système génère des informations erronées, mais l’incident souligne la fragilité du système.
Cette bévue, en apparence anodine, soulève des questions sérieuses sur la fiabilité des systèmes IA intégrés dans des interfaces aussi stratégiques que Google Search. Lorsqu’une IA donne une réponse unique et présumée fiable, elle devient instantanément un arbitre de la vérité. Et si cette vérité est fausse ? L’impact est démultiplié. À mesure que les moteurs de recherche deviennent moteurs de réponse, la question de la vérification humaine, de la transparence des sources et de la responsabilité éditoriale devient centrale. Car une IA qui confond les ailes d’un Airbus avec celles d’un Boeing ne met pas seulement en jeu la précision… mais la confiance globale dans tout un écosystème informationnel.
Wegic est une plateforme de création de sites web propulsée par intelligence artificielle, offrant une interface conversationnelle intuitive qui permet aux utilisateurs de concevoir, personnaliser et publier des sites sans compétences en codage.
Qu’est-ce que c’est ?
Wegic est un constructeur de sites web basé sur l’IA, utilisant une interface de chat pour faciliter la création de sites personnalisés.
Ce que ça fait ?
Il génère des sites web multipages en quelques minutes, permet des modifications via des commandes conversationnelles et gère automatiquement les mises à jour.
À quoi ça sert ?
Wegic est conçu pour aider les entrepreneurs, freelances et créateurs à établir une présence en ligne professionnelle rapidement et sans effort technique.
Pourquoi c’est fascinant ?
Son utilisation de l’IA, notamment du modèle GPT-4o, permet une personnalisation poussée et une expérience utilisateur fluide, rendant la création de sites accessible à tous.
Pourquoi c’est limité ?
Bien que puissant, Wegic peut présenter des limitations dans l’édition de contenus complexes et peut ne pas convenir aux projets nécessitant des fonctionnalités très spécifiques ou avancées.