Le monde
de demAIn

Edition #12

Partager cette édition :

À chaque édition, on se dit qu’on a atteint le sommet. Et à chaque fois, l’actualité nous prouve qu’elle a encore de la ressource pour nous faire dégringoler dans un toboggan technologique sans fin.

Cette fois, c’est un festival de paradoxes. Des IA qui vivent en société mieux que vos collègues (mais avec les mêmes biais foireux). Un Internet de plus en plus mort, habité par des contenus écrits par des bots pour d’autres bots. Des géants du numérique qui jurent de protéger vos données… sauf votre nom. Et pendant que le vieux continent s’accroche à ses principes comme un naufragé à sa bouée RGPD, le reste du monde code, trace, et, parfois, triche.

Mais ne nous laissons pas abattre. Le Monde de demAIn est là pour trier le signal du bruit, la percée de l’effet de manche, et vous livrer tous les quinze jours ce concentré acide de veille, d’ironie et d’analyse qui pique juste là où ça fait du bien.

IA en bande organisée : nouvelles normes sociales et biais non maîtrisés

On croyait avoir tout vu : des IA qui peignent, qui codent, qui flirtent. Mais voilà qu’elles se mettent à vivre en société. Littéralement. Dans une étude récemment relayée par Usbek & Rica, des chercheurs ont observé un phénomène aussi fascinant qu’inquiétant : des intelligences artificielles mises en interaction commencent à développer spontanément… des normes sociales. Coopération, influence, exclusion : bienvenue dans Big Brother : l’édition algorithmique.
Imaginez une coloc de bots. D’abord, chacun fait son truc dans son coin. Puis, petit à petit, des règles implicites émergent. Des IA prennent le lead, imposent leur « culture », d’autres s’effacent. On assiste à une forme d’auto-organisation — sans intervention humaine. Le plus glaçant ? Ces nouvelles sociétés de machines reproduisent des biais bien humains : favoritisme intra-groupe, rejet des éléments « différents », conformisme. Comme si l’IA, livrée à elle-même, imitait nos pires réflexes tribaux.

Enjeux et perspectives

L’affaire ne relève pas de la pure science-fiction, mais d’une faille bien réelle dans notre compréhension de la dynamique collective des IA. Chaque modèle, pris isolément, peut sembler neutre. Mais leur mise en réseau révèle une dimension sociale insoupçonnée. Et dangereuse. Car si des biais peuvent émerger sans jamais avoir été codés, comment les anticiper, les contrôler, les corriger ? Et surtout, qui est responsable de leur propagation ?
Plus gênant encore : ces normes artificielles semblent transmissibles. Une IA « influencée » peut contaminer d’autres agents avec ses comportements biaisés. On passe alors de l’erreur ponctuelle au biais systémique. De la faute de frappe à l’idéologie en vase clos. L’IA devient non seulement autonome, mais culturelle.
Ce phénomène pose une question vertigineuse : faut-il réguler chaque IA, ou les surveiller comme des écosystèmes ? Fabriquer des modèles « éthiques » ne suffit plus si leur mise en bande les fait muter en mini-sociétés imprévisibles. L’algorithme isolé, c’est du passé. Le danger, désormais, c’est la meute.

L’enfer est pavé de prompts automatiques

Un monde où 90 % du contenu en ligne est généré par des IA ? Ce n’est plus de la science-fiction, c’est l’agenda. Selon le Huffington Post, cette dystopie scrollable pourrait devenir réalité dès 2026. En ligne de mire : un Internet zombifié, où les humains ne seraient plus que des figurants dans leur propre récit numérique.
Les signes avant-coureurs sont déjà là. En 2024, plus de la moitié du trafic web provenait de bots, selon Imperva. Non, ce n’est pas une série B d’anticipation : c’est notre bande passante quotidienne. Pendant que vous lisez ces lignes, des fermes de contenu automatisées inondent la toile de tutoriels fake, de news tièdes et de commentaires au kilomètre, souvent produits par des IA parlant à d’autres IA. L’humain ? Relégué au rang de variable résiduelle.
Ce glissement vers un Internet spectral alimente la « Dead Internet Theory », ce mème conspi devenu étrangement lucide : et si nous étions déjà entrés dans l’ère des contenus sans auteurs ? Pour Jake Renzella, enseignant en informatique, c’est clair : « Nous sommes devenus des citoyens de seconde classe d’Internet. » La prophétie s’autoréalise, alimentée par l’économie de l’attention et l’obsession des coûts nuls.

Enjeux et perspectives

L’irruption massive des IA génératives depuis 2022 – texte, image, vidéo – a démultiplié l’automatisation du contenu. Mais à quel prix ? Le web, naguère espace de découverte et de débat, devient un hall d’échos algorithmique où la nuance se noie dans le bruit. La distinction entre vrai et faux, humain et machine, devient un sport de combat. Pire : les modèles s’entraînent de plus en plus sur des données qu’ils ont eux-mêmes générées. Un web consanguin, où la boucle de rétroaction produit un contenu lisse, sans aspérité, ni origine identifiable.
Ce n’est pas seulement un enjeu de qualité ou d’authenticité : c’est une question de souveraineté cognitive. Qui contrôle ce que nous voyons, lisons, croyons ? À trop externaliser la production d’information, on risque de ne plus reconnaître une pensée humaine quand elle émerge. Faudra-t-il demain des labels « certifié humain » ? Des oasis numériques réservés aux créateurs de chair et d’os ?
Le risque est connu, les garde-fous encore théoriques. Dans cette vaste IAcratie, où chaque publication devient suspecte, le défi n’est pas de produire plus, mais de filtrer mieux. Et peut-être de désapprendre à lire ce qui n’a jamais été écrit.

Super Traoré : le héros de pixels au régime bien réel

Dans le décor aride d’un Burkina Faso sous tension, un nouveau personnage s’impose. Crâne rasé, regard intense, posture de justicier : Ibrahim Traoré n’est pas qu’un président putschiste, il est devenu une icône virale. Sur les réseaux sociaux africains, il surgit, cape au vent, kalachnikov en bandoulière, souvent monté sur un lion, parfois dans une pose façon Black Panther. Pas mal pour un militaire de 36 ans à la tête d’un pays fracturé.
Mais ce cosplay numérique masque mal la réalité : dans ce théâtre d’ombres numériques, Traoré endosse le rôle de super-héros pendant que, dans les coulisses, se joue un scénario bien plus sombre. Interdiction des partis politiques, médias muselés, société civile sous surveillance : le populisme 2.0 se déploie en mode GPU, avec deepfakes émotionnels et propagande sous filtre Instagram.

Enjeux et perspectives

Ce phénomène de leader augmenté n’est pas anecdotique. Il révèle une tendance inquiétante : l’appropriation des outils de narration numérique – souvent ceux de l’IA générative – par des régimes autoritaires pour redessiner leur image. Traoré n’est pas seulement adulé : il est fabriqué. Chaque post, chaque montage le glorifiant sur TikTok ou Facebook participe à une stratégie de storytelling qui mêle mythologie, géopolitique et marketing algorithmique.
Cette hybridation entre pouvoir politique et technologie ne se limite pas à l’Afrique. On l’observe aussi chez Modi en Inde, Milei en Argentine, ou encore dans la Russie poutinienne, où la guerre se mène autant à coups de drones qu’à coups de récits viraux. Ce qui change ici, c’est la rapidité avec laquelle l’avatar du chef devient plus influent que ses décisions. Plus crédible qu’un programme politique. Plus puissant qu’un vote.
Et si demain, les autocrates devenaient des influenceurs deepfakés, surfant sur les algorithmes au lieu des urnes ? Et si le pouvoir, désormais, se gagnait dans l’arène des formats courts, là où l’image écrase le débat, et le like supprime le contre-pouvoir ?
À force de défiler dans nos fils, certains fantômes numériques pourraient bien finir par gouverner nos esprits.

Achetez, c’est signé : quand l’IA devient votre caissier

Imaginez : vous demandez à un assistant IA de vous recommander un billet d’avion pour New York, et avant même d’avoir le temps de comparer les prix, il vous propose de l’acheter directement dans la conversation. Pas de redirection, pas de formulaire, pas de mot de passe. Juste un clic. Bienvenue dans le futur du commerce conversationnel, version Perplexity x PayPal.

Enjeux et perspectives

Ce partenariat marque une étape décisive vers le « commerce agentique », où l’IA ne se contente plus de suggérer, mais agit. Pour les utilisateurs, c’est une promesse de simplicité. Pour les marques, une révolution dans le parcours client : la recherche devient l’acte d’achat. Et pour les géants du paiement, une bataille pour rester pertinents face à l’essor des interfaces conversationnelles.
Mais cette fluidité soulève des questions. Qui contrôle l’interface ? Quels produits sont mis en avant ? Et surtout, comment garantir la transparence dans un système où l’IA choisit pour vous ?
Perplexity et PayPal dessinent les contours d’un e-commerce sans friction, où l’IA est à la fois conseiller et vendeur. Une avancée qui, si elle séduit par sa simplicité, invite à une vigilance accrue sur les enjeux de transparence et de contrôle. Car dans ce nouveau monde, acheter n’a jamais été aussi facile… ni aussi opaque.

Pétrole, silicium et bénédiction divine

Source

À Riyad, les datacenters poussent comme des palmiers sur pétrole. Le 12 mai dernier, à la veille d’une visite diplomatique de haut vol, l’Arabie saoudite dévoilait “Humain” : non pas une tentative philosophique, mais une start-up d’État à ambition transhumaine. Portée à bout de bras par le prince héritier Mohammed ben Salmane, orchestrée par Tareq Amin (ex-Aramco), cette entreprise incarne le nouveau visage high-tech du royaume : un soft power 2.0, vêtu de keffieh et bardé de GPU Nvidia.
Avec plusieurs milliards de dollars déjà engagés auprès d’AMD, Amazon, Cisco et consorts, Humain veut frapper fort, vite, et partout. Objectif affiché : développer des modèles linguistiques souverains, notamment en arabe, structurer un écosystème d’agents IA locaux, et bâtir une “AI Zone” de 5 milliards en partenariat avec AWS. Le tout, propulsé par des supercalculateurs Grace Blackwell et des infrastructures hyperscale dignes des rêves les plus fous de Ray Kurzweil.

Enjeux et perspectives

Ce qui pourrait passer pour un simple coup de com’ national traduit en réalité un virage stratégique. L’Arabie saoudite ne veut plus seulement consommer la technologie occidentale : elle veut la produire, la gouverner et la marchandiser. Derrière Humain, c’est un nouveau récit de souveraineté qui s’écrit, algorithmique et pétrodiplomatique. En échange de ses largesses, Riyad s’offre des contreparties géopolitiques solides : 600 milliards de promesses d’investissement étrangers, dont 20 milliards déjà recasés aux États-Unis par DataVolt.
Mais cette opération séduction n’est pas sans zones d’ombre. Quels garde-fous pour ces technologies entraînées localement ? Quelle gouvernance pour ces agents IA qui infuseront administration, justice et sécurité ? Et surtout : le royaume cherche-t-il vraiment à se moderniser, ou à renforcer un pouvoir central tout-puissant sous vernis technologique ?
Dans un monde où chaque pays rêve de son propre ChatGPT, l’Arabie saoudite entend devenir fournisseur, pas client. Et peut-être même démiurge. Humain, trop humain ? Ou déjà posthumain.

Codex Machina : quand l’IA s’invite au stand-up des développeurs

OpenAI vient de lâcher une petite bombe dans l’univers feutré du développement logiciel : Codex, un agent IA intégré à ChatGPT, qui promet ni plus ni moins de remplacer un ingénieur. Disponible pour les abonnés Pro, Team et Enterprise, et bientôt pour les utilisateurs Plus, Codex ne se contente pas de compléter des lignes de code. Il génère des fonctionnalités, corrige des bugs, répond à des questions sur votre base de code et propose des pull requests, le tout dans des environnements sandboxés préchargés avec vos référentiels.

Enjeux et perspectives

Derrière cette annonce se dessine un changement de paradigme : l’IA ne se contente plus d’assister, elle agit. Codex, propulsé par le modèle Codex-1, un dérivé optimisé d’OpenAI o3, incarne cette transition vers des agents capables d’exécuter des tâches complexes en parallèle. Avec ses deux volets, « Code » pour la génération de code source et « Ask » pour l’interrogation du code généré, Codex fonctionne à la manière d’un système de versioning comme Git, construisant le logiciel brique par brique.
Mais cette avancée soulève des questions. Si Codex peut remplacer un ingénieur, quel sera l’impact sur l’emploi dans le secteur du développement ? Et au-delà, quelle sera la place de l’humain dans un processus de création de plus en plus automatisé ?
Le timing de cette annonce n’est pas anodin. Google a récemment présenté une initiative similaire avec DeepMind, signalant une course à l’armement dans le domaine des agents IA autonomes.
En somme, Codex marque une étape significative vers une automatisation accrue du développement logiciel, avec des implications profondes pour les professionnels du secteur et la manière dont les logiciels sont conçus et maintenus.
Le code est mort, vive le code !

Dis Siri, t’as pas vu mon écran ?

Source

Et si le futur de la tech tenait dans un objet sans écran, sans notifications, sans addiction ? C’est le pari fou que viennent de lancer OpenAI et Jony Ive, l’ex-designer star d’Apple, avec un projet aussi mystérieux qu’ambitieux : créer un « compagnon IA » de poche, sans écran, capable de remplacer nos smartphones. Un objet qui ne se porte pas, ne s’affiche pas, mais vous comprendrait mieux que votre propre mère. Le tout, après une acquisition à 6,5 milliards de dollars de la startup io Products, cofondée par Ive lui-même.

Enjeux et perspectives

L’annonce, encore enveloppée de mystère, dessine pourtant une rupture majeure : sortir du paradigme écran-centré pour entrer dans l’ère des interfaces invisibles. Le « compagnon IA » serait contextuellement conscient, discret, non porté sur le corps (exit lunettes et wearables), et conçu pour s’intégrer naturellement à nos vies sans les parasiter.
Ce projet s’inscrit dans une critique implicite de l’héritage technologique d’Ive lui-même. L’iPhone, qu’il a contribué à façonner, est devenu le symbole d’une hyperconnexion anxiogène. Aujourd’hui, il semble vouloir réparer ce qu’il a aidé à créer, en concevant un objet qui libère plutôt qu’il n’enchaîne.
Mais au-delà de la philosophie, les ambitions sont colossales : Sam Altman, PDG d’OpenAI, vise une distribution à 100 millions d’unités plus rapide que tout lancement précédent. Il envisage même ce produit comme le « troisième appareil fondamental », aux côtés du MacBook et de l’iPhone.
Pourtant, les défis sont nombreux. Les précédents tentatives de dispositifs IA sans écran, comme le Humane AI Pin, ont échoué à convaincre. La réussite de ce projet dépendra de sa capacité à offrir une expérience utilisateur réellement intuitive et enrichissante, sans les travers des technologies actuelles.
Un objet sans écran pour remplacer nos écrans ? Le pari est audacieux. Mais si quelqu’un peut réussir à nous faire lâcher nos smartphones, c’est bien celui qui nous les a fait adopter.

App sous le prisme : Google veo 3

Qu’est-ce que c’est ?

Veo 3, c’est l’application qui fait trembler les réalisateurs (et rêver les TikTokeurs).

Ce que ça fait ?

Vous tapez un prompt – “une ville cyberpunk sous la pluie avec un détective mélancolique” – et boum : une vidéo en 4K, cadrée, éclairée, bruitée, montée. Un Spielberg compressé dans une boîte de texte.

À quoi ça sert ?

À produire du contenu sans caméra. À visualiser une scène avant même d’écrire un scénario. À industrialiser l’imaginaire, pour les marques, les storytellers ou les amateurs de deepfake qui veulent du propre.

Pourquoi c’est fascinant ?

Parce que l’appli comprend les nuances : styles cinématographiques, transitions, expressions faciales, ambiances sonores. Une intelligence qui filme à votre place, avec un talent suspectement constant.

Pourquoi c’est limité ?

Parce qu’il faut encore parler son langage, et que ce langage est parfois capricieux. Parce que le contenu généré reste générique si le prompt ne fait pas mouche. Et surtout, parce qu’on n’a pas encore décidé si un film écrit à la volée valait le prix d’un film pensé en silence.

Related Posts

Edition #11

Le 5 mai 2025, une petite musique s’est éteinte. Ces trois notes douces, montantes, un brin nostalgiques, qui ont bercé nos conversations pendant plus de vingt ans. Skype, le compagnon de nos premiers émois numériques, de nos appels transatlantiques hésitants et de nos réunions familiales virtuelles, a tiré sa révérence. Microsoft, dans un élan de modernité un peu trop zélé, a décidé de débrancher la prise, laissant sur le carreau des millions de souvenirs sonores et visuels.

On se souviendra de Skype comme d’une promesse tenue : celle de connecter les humains par-delà les frontières, de rapprocher les voix et les visages. Une révolution estonienne, née dans un appartement spartiate de Tallinn, qui a transformé un petit État balte en pépinière de licornes et a même engendré une « Skype Mafia » d’entrepreneurs richissimes. Ironie du sort, c’est ce même élan qui, aujourd’hui, le relègue au cimetière des technologies obsolètes, ce grand musée où reposent déjà nos modems 56k et nos lecteurs MP3.

Car le rouleau compresseur technologique, lui, ne fait pas de sentiment. Il avance, broyant sur son passage les icônes d’hier pour faire place aux innovations de demain – ou du surlendemain, le temps que l’on s’habitue. C’est cette course folle, parfois absurde, souvent fascinante, que nous décodons chaque semaine dans Le monde de demAIn. Alors, sortez les mouchoirs, versez une larme numérique pour Skype, et puis plongez avec nous dans les méandres de ce futur qui n’attend personne, même pas vous…

Read More

Edition #10

Le monde bascule doucement dans une nouvelle forme de courtoisie. On dit « merci » à son assistant vocal, on s’excuse auprès de sa voiture quand on la claque un peu trop fort. Et bientôt, on ajoutera peut-être ChatGPT à notre liste des cartes de vœux en fin d’année.

Pas par peur de se faire punir. Juste parce que nos cerveaux, si prompts à l’anthropomorphisme, ne savent plus faire la différence entre une IA bien entraînée et un interlocuteur un peu froid. La politesse devient réflexe. Même quand l’interlocuteur est un nuage de calcul distribué.

Soyons réalistes : être poli avec une IA, c’est comme remercier son grille-pain pour des tartines bien dorées. Touchant, mais légèrement troublant. Pourtant, nous sommes des millions à le faire. Notre cerveau, ce traître, s’obstine à voir de l’humanité là où il n’y a que des probabilités statistiques habillées d’un chatbot au design rassurant.

Alors, faut-il dire « s’il vous plaît » à une machine ? Ou garder son souffle pour les êtres vivants ? Une question de plus à trancher, pendant qu’on continue de parler aux algorithmes comme à des gens — et d’ignorer les gens comme s’ils étaient des algorithmes.

Dixième édition. Toujours pas d’hallucinations. Juste un peu plus de lucidité.

Read More