OpenAI ne se contente plus de parler avec nous. Elle veut maintenant nous montrer ce qu’on pense. Selon The Verge, Sam Altman planche en coulisses sur un réseau social centré sur la génération d’images IA. Un prototype serait déjà en test, avec un flux d’images crées via ChatGPT, à partager comme on scrolle des stories. Après le cerveau, les yeux : OpenAI vise l’attention totale.
L’idée ? Une appli dédiée, ou un module intégré à ChatGPT — déjà couronné modèle génératif le plus téléchargé au monde, avec 400 millions d’utilisateurs hebdomadaires. Altman teste le concept en cercle restreint, façon dîner entre puissants : quelques images de chats, quelques feed-back bien sentis, et beaucoup d’ambition.
Derrière l’interface léchée, une stratégie limpide : créer un espace captif où l’IA génère, l’utilisateur diffuse, et OpenAI engrange. Plus besoin de s’appuyer sur les réseaux existants pour collecter des données ou tester ses modèles : elle fabrique son propre bac à sable. Une expérimentation sociale à ciel ouvert — sans garde-fous, ni questions gênantes.
Cette incursion d’OpenAI dans le territoire des réseaux sociaux est aussi subtile qu’un éléphant dans un magasin de porcelaine. Elle révèle une stratégie limpide : collecter ses propres données sociales en temps réel pour améliorer ses modèles d’IA, tout en capitalisant sur la viralité des images générées par ChatGPT. Parce qu’après tout, pourquoi laisser Meta et X s’empiffrer seuls au buffet de nos données personnelles ?
La question n’est plus de savoir si l’IA va transformer les réseaux sociaux, mais qui contrôlera ces nouveaux espaces d’interaction. Entre Zuckerberg, Musk et Altman, le match ne fait que commencer, avec nos images, nos créations et nos données comme trophées. Préparez le pop-corn, le spectacle promet d’être aussi divertissant qu’inquiétant. Et pendant que ces géants se disputent le contrôle de nos vies numériques, nous continuons gentiment à nourrir leurs algorithmes. Comme quoi, même en 2025, nous restons de bons petits cobayes consentants.
Vous pensiez pouvoir poster tranquillement vos photos de vacances ? Détrompez-vous ! OpenAI (encore eux) joue désormais au détective privé grâce à ses modèles o3 et o4-mini. La dernière lubie virale sur X ? La « localisation inversée », où les internautes testent si l’IA peut deviner l’endroit exact d’une photo. Spoiler : elle le peut, et avec une précision glaçante.
Un coin de rue flou, une devanture de bar à peine visible, un menu en arrière-plan… Il n’en faut pas plus à ces modèles pour identifier la ville, le quartier, voire l’établissement précis. Et tout cela sans métadonnées EXIF. L’IA fait mouche dans la plupart des cas, identifiant jusqu’à des bibliothèques spécifiques à partir de simples détails architecturaux.
Derrière ce jeu apparemment innocent se cache un outil de surveillance redoutable. N’importe qui peut prendre une photo que vous avez publiée et demander à ChatGPT de déterminer où vous étiez. Le doxxing vient de recevoir son assistant personnel dopé à l’IA.
OpenAI affirme avoir mis en place des garde-fous, mais entre les promesses des entreprises tech et la réalité, il y a souvent un gouffre aussi large que celui séparant leurs déclarations fiscales de leurs profits réels.
La prochaine fois que vous posterez fièrement votre cocktail sur fond de coucher de soleil, rappelez-vous que vous partagez potentiellement votre adresse. Dans ce monde où même les murs ont des algorithmes, la paranoïa n’est plus un trouble mental – c’est juste une forme de lucidité.
Rangez les stéthoscopes, annulez vos examens de contrôle, et remerciez votre toubib préféré pour ses bons et loyaux services : dans dix ans, il pourrait bien être au chômage. C’est en tout cas ce que promet Demis Hassabis, PDG de Google DeepMind, pour qui l’IA éradiquera toutes les maladies d’ici 2035. Oui, toutes. Même celle du genou qui ne prévient qu’à l’orage.
Dans 60 Minutes, le chercheur devenu gourou de l’IA annonce que l’âge d’or de la médecine computationnelle est arrivé. L’argument est simple : dix ans et des milliards pour créer un médicament aujourd’hui, quelques mois ou semaines demain. AlphaFold, son modèle-phare, a cartographié plus de 200 millions de structures protéiques en un an — un exploit qui, selon lui, aurait pris un milliard d’années à une armée de doctorants insomniaques.
La promesse est limpide : médecine accélérée, recherche décuplée, traitements personnalisés. L’humanité ? Juste une variable d’ajustement.
On croirait presque à une bande-annonce : “Dans un futur proche… l’IA vaincra le cancer, l’Alzheimer, et ce fichu rhume qui vous cloue au lit chaque printemps.” La promesse est belle, presque trop. Car entre identifier une protéine et guérir une maladie, il y a un gouffre que même AlphaFold ne peut franchir seul.
La vitesse de calcul n’élimine pas l’incertitude biologique, ni les effets secondaires, ni les biais dans les données cliniques. Et pendant que Demis Hassabis rêve d’un monde sans douleurs, d’autres redoutent un monde où l’on ne comprend plus comment les traitements ont été trouvés. Une médecine guidée par des algorithmes qu’on ne peut pas auditer, des décisions de santé dictées par des boîtes noires.
L’intuition humaine va-t-elle devenir un bug à corriger ? Et si demain, l’IA nous dit que vous êtes « statistiquement mort », qui aura le dernier mot : votre médecin, ou votre modèle prédictif ?
Alors, faut-il croire à cette utopie médicale ? Peut-être. Après tout, les prédictions les plus audacieuses d’hier sont parfois les banalités de demain. Mais en attendant ce paradis sanitaire promis par Google, n’arrêtez pas de payer votre mutuelle. Et continuez de manger vos cinq fruits et légumes par jour – même l’IA la plus sophistiquée ne pourra pas vous sauver d’un régime composé exclusivement de pizzas surgelées.
Vous pensiez que la performance au travail était une simple courbe en cloche ? Détrompez-vous ! L’IA est en train de la transformer en montagnes russes. Selon Forbes, l’intelligence artificielle ne se contente pas de modifier cette courbe, elle l’étire comme un élastique : les meilleurs s’envolent, le milieu s’essouffle, et les moins performants… eh bien, disons qu’ils feraient mieux de mettre à jour leur CV.
La question n’est donc plus « Qui est compétitif ? » mais « Qui sait s’adapter et à quelle vitesse ? » Une nuance qui fait toute la différence à l’heure où le Forum économique mondial prédit la disparition de 92 millions d’emplois d’ici 2030. Et devinez quoi ? Ce sont principalement les postes répétitifs ou régis par des règles qui sont dans le viseur – exactement ceux que l’IA s’approprie avec un appétit vorace.
Voici le paradoxe de notre époque : pendant des décennies, on a valorisé la conformité. Aujourd’hui, on exige créativité et adaptabilité. C’est comme demander à un poisson rouge de grimper à un arbre après l’avoir convaincu que nager en rond était la clé du succès.
Selon le rapport Global Talent Trends 2024, 74% des dirigeants s’inquiètent de la capacité de leurs équipes à s’adapter, alors même que seul un salarié sur cinq a une vision claire de son développement professionnel. La médiocrité discrète, autrefois camouflée dans les grandes organisations, devient soudain visible comme le nez au milieu de la figure.
Alors, êtes-vous prêt à redéfinir votre valeur dans ce nouveau monde où l’on ne mesure plus ce que vous faites, mais votre capacité à penser et à vous adapter ? Si non, peut-être est-il temps de considérer une reconversion en dresseur de pigeons voyageurs – un métier que l’IA aura du mal à remplacer… du moins jusqu’à la prochaine mise à jour.
À Genève Aéroport, le futur débarque en porte d’embarquement : la reconnaissance faciale s’invite dans votre parcours passager. Objectif ? Vous faire voyager sans sortir un seul papier. Plus besoin de chercher frénétiquement votre passeport au fond du sac ou de fouiller vos poches pour cette carte d’embarquement qui s’était planquée entre deux mouchoirs : votre visage fera office de sésame.
L’idée est simple : associer votre visage à vos données de voyage pour traverser les étapes du check-in à la porte d’embarquement d’un simple coup d’œil. Le directeur technique de l’aéroport y voit à juste titre une solution plus rapide et « plus fiable qu’une reconnaissance humaine ». C’est vrai qu’un algorithme ne cligne pas des yeux quand il est fatigué… Mais ces technologies ont encore quelques petits ratés : confusion entre des profils proches, reconnaissance moins efficace selon les types de visages, ou erreurs si vous avez changé de coiffure ou de lunettes. Bref, c’est high-tech, mais pas magique.
Cette innovation soulève un point de vigilance : en Suisse, il n’existe actuellement aucune loi fédérale encadrant l’usage de la reconnaissance faciale. Un flou juridique qui fait réagir plusieurs parlementaires, lesquels demandent un vrai débat public. Le lancement du système est prévu au plus tôt fin 2026, une échéance qui laisse (heureusement) le temps de cadrer les choses.
D’ici là, chacun peut continuer à embarquer à l’ancienne, sans transformer son visage en QR code. La technologie avance, mais la confiance, elle, ne se programme pas en quelques lignes de code. Et si on gagnait quelques minutes à l’aéroport sans perdre de vue l’essentiel : le respect de nos libertés individuelles.
La Thaïlande vient de dévoiler son nouveau joujou sécuritaire : « AI Police Cyborg 1.0 », un robot policier déployé dans la province de Nakhon Pathom pendant le festival de Songkran. Affectueusement surnommé « Pol Col Nakhonpathom Plod Phai » (ce qui signifie « Nakhon Pathom est sûr »), ce RoboCop local est équipé de caméras IA à 360 degrés et intègre les flux vidéo des caméras de surveillance et des drones du secteur.
Développé conjointement par la police et la municipalité de Nakhon Pathom, ce cyborg est directement connecté au Centre de Commandement et de Contrôle de la province. Une merveille technologique qui promet de révolutionner la sécurité publique… ou du moins de fournir de magnifiques photos pour les réseaux sociaux de la police royale thaïlandaise.
Alors que l’Occident s’inquiète des dérives potentielles de la surveillance de masse, la Thaïlande embrasse joyeusement le concept avec un enthousiasme digne d’un épisode de Black Mirror. Ce robot policier représente la parfaite fusion entre l’autoritarisme traditionnel et l’innovation technologique – comme quoi, même la répression peut être disruptive.
Le timing est particulièrement savoureux : déployer un cyborg de surveillance pendant Songkran, un festival où les gens s’aspergent d’eau pour se souhaiter une bonne année et se laver de leurs péchés, c’est techniquement légal, mais éthiquement douteux. On se demande si le robot est waterproof ou s’il a risqué le court-circuit au premier jet d’eau festif.
La vraie question reste : qui programmera le discernement des surveillants robotiques ? Dans un pays où la liberté d’expression tient déjà sur un post-it, l’arrivée de policiers bardés d’IA interroge. Car si les matraques deviennent numériques, les intentions, elles, restent humaines.
La Thaïlande avance masquée, entre folklore digital et contrôle algorithmique. Les outils changent, la musique aussi, mais la partition est toujours la même. Juste un peu plus calibrée. Et nettement plus piquante.
Le Pape François nous a quitté le lundi de Pâques, 21 avril 2025, victime d’un AVC suivi d’une défaillance cardiocirculatoire. Tristesse, recueillement… et pronostics génératifs. Car à peine la fumée noire dissipée, les journalistes de Presse-Citron ont eu une idée lumineuse : confier le résultat du conclave aux trois IA les plus populaires du moment — ChatGPT-4o, Claude 3.7 et Gemini.
Mission : désigner le prochain souverain pontife. Méthodologie ? Annoncée comme « précise », mais on vous laisse juger. Résultats ? ChatGPT mise sur Matteo Zuppi (30 %), Gemini sur Pietro Parolin (20 à 30 %), et Claude joue la prudence : “la prédiction papale est un exercice hautement spéculatif” — soit la version polie de “je vais meubler trois paragraphes pour ne pas dire que je n’en ai aucune idée”.
La divine providence version API. À ce rythme, le prochain conclave se jouera peut-être sur Twitch. Avec un plugin pour voter en direct.
Voilà donc où nous en sommes en 2025 : incapables de prévoir la météo à plus de trois jours, mais persuadés qu’une IA peut deviner l’issue d’un conclave — un processus opaque, spirituel et politique, par définition imperméable à toute logique statistique.
Pourquoi s’arrêter là ? Demandons-lui aussi les numéros du Loto, la date de la fin du monde ou le vainqueur de la Champion’s Cup. Ah, on me souffle dans l’oreillette que c’est déjà fait…
Cette manie de consulter les IA comme des boules de cristal high-tech en dit long sur notre époque : un besoin de certitude dans un monde devenu illisible. Hier, on lisait les astres ou les entrailles. Aujourd’hui, on interroge des modèles entraînés sur Wikipédia.
Le plus ironique ? Ces IA censées prédire l’avenir de l’Église ont été nourries de données qui s’arrêtent bien avant la mort du pape. C’est comme demander à quelqu’un qui n’a vu que la saison 1 de Game of Thrones de raconter la fin. Amusant, oui. Mais inutile.
Qu’est-ce que c’est ?
Un agent IA autonome qui planifie, agit, et utilise des outils à votre place. Oui, même pour appeler quelqu’un. Avec une voix IA, bien sûr.
Pourquoi on en parle ?
Parce qu’il marque une bascule : on ne parle plus à l’IA, on lui délègue. GenSpark ne répond pas, il exécute.
Pour qui ?
Les débordés, les paresseux organisés, ou ceux qui rêvent de sous-traiter leur vie à une API.
Comment ça marche ?
Vous donnez une instruction, il décompose, planifie, lance les actions. Le tout avec un plan gratuit à 200 crédits par jour — de quoi automatiser sans trop culpabiliser.
Ce qu’on en pense ?
C’est bluffant, oui. Mais à force de tout lui confier, il ne restera bientôt plus que l’angoisse à gérer soi-même. Et pour ça, aucun agent IA n’a encore trouvé le prompt.