Plongez dans le grand bAIn

Edition #12

Partager cette édition :

À chaque édition, on se dit qu’on a atteint le sommet. Et à chaque fois, l’actualité nous prouve qu’elle a encore de la ressource pour nous faire dégringoler dans un toboggan technologique sans fin.

Cette fois, c’est un festival de paradoxes. Des IA qui vivent en société mieux que vos collègues (mais avec les mêmes biais foireux). Un Internet de plus en plus mort, habité par des contenus écrits par des bots pour d’autres bots. Des géants du numérique qui jurent de protéger vos données… sauf votre nom. Et pendant que le vieux continent s’accroche à ses principes comme un naufragé à sa bouée RGPD, le reste du monde code, trace, et, parfois, triche.

Mais ne nous laissons pas abattre. Le Monde de demAIn est là pour trier le signal du bruit, la percée de l’effet de manche, et vous livrer tous les quinze jours ce concentré acide de veille, d’ironie et d’analyse qui pique juste là où ça fait du bien.

IA en bande organisée : nouvelles normes sociales et biais non maîtrisés

On croyait avoir tout vu : des IA qui peignent, qui codent, qui flirtent. Mais voilà qu’elles se mettent à vivre en société. Littéralement. Dans une étude récemment relayée par Usbek & Rica, des chercheurs ont observé un phénomène aussi fascinant qu’inquiétant : des intelligences artificielles mises en interaction commencent à développer spontanément… des normes sociales. Coopération, influence, exclusion : bienvenue dans Big Brother : l’édition algorithmique.
Imaginez une coloc de bots. D’abord, chacun fait son truc dans son coin. Puis, petit à petit, des règles implicites émergent. Des IA prennent le lead, imposent leur « culture », d’autres s’effacent. On assiste à une forme d’auto-organisation — sans intervention humaine. Le plus glaçant ? Ces nouvelles sociétés de machines reproduisent des biais bien humains : favoritisme intra-groupe, rejet des éléments « différents », conformisme. Comme si l’IA, livrée à elle-même, imitait nos pires réflexes tribaux.

Enjeux et perspectives

L’affaire ne relève pas de la pure science-fiction, mais d’une faille bien réelle dans notre compréhension de la dynamique collective des IA. Chaque modèle, pris isolément, peut sembler neutre. Mais leur mise en réseau révèle une dimension sociale insoupçonnée. Et dangereuse. Car si des biais peuvent émerger sans jamais avoir été codés, comment les anticiper, les contrôler, les corriger ? Et surtout, qui est responsable de leur propagation ?
Plus gênant encore : ces normes artificielles semblent transmissibles. Une IA « influencée » peut contaminer d’autres agents avec ses comportements biaisés. On passe alors de l’erreur ponctuelle au biais systémique. De la faute de frappe à l’idéologie en vase clos. L’IA devient non seulement autonome, mais culturelle.
Ce phénomène pose une question vertigineuse : faut-il réguler chaque IA, ou les surveiller comme des écosystèmes ? Fabriquer des modèles « éthiques » ne suffit plus si leur mise en bande les fait muter en mini-sociétés imprévisibles. L’algorithme isolé, c’est du passé. Le danger, désormais, c’est la meute.

L’enfer est pavé de prompts automatiques

Un monde où 90 % du contenu en ligne est généré par des IA ? Ce n’est plus de la science-fiction, c’est l’agenda. Selon le Huffington Post, cette dystopie scrollable pourrait devenir réalité dès 2026. En ligne de mire : un Internet zombifié, où les humains ne seraient plus que des figurants dans leur propre récit numérique.
Les signes avant-coureurs sont déjà là. En 2024, plus de la moitié du trafic web provenait de bots, selon Imperva. Non, ce n’est pas une série B d’anticipation : c’est notre bande passante quotidienne. Pendant que vous lisez ces lignes, des fermes de contenu automatisées inondent la toile de tutoriels fake, de news tièdes et de commentaires au kilomètre, souvent produits par des IA parlant à d’autres IA. L’humain ? Relégué au rang de variable résiduelle.
Ce glissement vers un Internet spectral alimente la « Dead Internet Theory », ce mème conspi devenu étrangement lucide : et si nous étions déjà entrés dans l’ère des contenus sans auteurs ? Pour Jake Renzella, enseignant en informatique, c’est clair : « Nous sommes devenus des citoyens de seconde classe d’Internet. » La prophétie s’autoréalise, alimentée par l’économie de l’attention et l’obsession des coûts nuls.

Enjeux et perspectives

L’irruption massive des IA génératives depuis 2022 – texte, image, vidéo – a démultiplié l’automatisation du contenu. Mais à quel prix ? Le web, naguère espace de découverte et de débat, devient un hall d’échos algorithmique où la nuance se noie dans le bruit. La distinction entre vrai et faux, humain et machine, devient un sport de combat. Pire : les modèles s’entraînent de plus en plus sur des données qu’ils ont eux-mêmes générées. Un web consanguin, où la boucle de rétroaction produit un contenu lisse, sans aspérité, ni origine identifiable.
Ce n’est pas seulement un enjeu de qualité ou d’authenticité : c’est une question de souveraineté cognitive. Qui contrôle ce que nous voyons, lisons, croyons ? À trop externaliser la production d’information, on risque de ne plus reconnaître une pensée humaine quand elle émerge. Faudra-t-il demain des labels « certifié humain » ? Des oasis numériques réservés aux créateurs de chair et d’os ?
Le risque est connu, les garde-fous encore théoriques. Dans cette vaste IAcratie, où chaque publication devient suspecte, le défi n’est pas de produire plus, mais de filtrer mieux. Et peut-être de désapprendre à lire ce qui n’a jamais été écrit.

Super Traoré : le héros de pixels au régime bien réel

Dans le décor aride d’un Burkina Faso sous tension, un nouveau personnage s’impose. Crâne rasé, regard intense, posture de justicier : Ibrahim Traoré n’est pas qu’un président putschiste, il est devenu une icône virale. Sur les réseaux sociaux africains, il surgit, cape au vent, kalachnikov en bandoulière, souvent monté sur un lion, parfois dans une pose façon Black Panther. Pas mal pour un militaire de 36 ans à la tête d’un pays fracturé.
Mais ce cosplay numérique masque mal la réalité : dans ce théâtre d’ombres numériques, Traoré endosse le rôle de super-héros pendant que, dans les coulisses, se joue un scénario bien plus sombre. Interdiction des partis politiques, médias muselés, société civile sous surveillance : le populisme 2.0 se déploie en mode GPU, avec deepfakes émotionnels et propagande sous filtre Instagram.

Enjeux et perspectives

Ce phénomène de leader augmenté n’est pas anecdotique. Il révèle une tendance inquiétante : l’appropriation des outils de narration numérique – souvent ceux de l’IA générative – par des régimes autoritaires pour redessiner leur image. Traoré n’est pas seulement adulé : il est fabriqué. Chaque post, chaque montage le glorifiant sur TikTok ou Facebook participe à une stratégie de storytelling qui mêle mythologie, géopolitique et marketing algorithmique.
Cette hybridation entre pouvoir politique et technologie ne se limite pas à l’Afrique. On l’observe aussi chez Modi en Inde, Milei en Argentine, ou encore dans la Russie poutinienne, où la guerre se mène autant à coups de drones qu’à coups de récits viraux. Ce qui change ici, c’est la rapidité avec laquelle l’avatar du chef devient plus influent que ses décisions. Plus crédible qu’un programme politique. Plus puissant qu’un vote.
Et si demain, les autocrates devenaient des influenceurs deepfakés, surfant sur les algorithmes au lieu des urnes ? Et si le pouvoir, désormais, se gagnait dans l’arène des formats courts, là où l’image écrase le débat, et le like supprime le contre-pouvoir ?
À force de défiler dans nos fils, certains fantômes numériques pourraient bien finir par gouverner nos esprits.

Achetez, c’est signé : quand l’IA devient votre caissier

Imaginez : vous demandez à un assistant IA de vous recommander un billet d’avion pour New York, et avant même d’avoir le temps de comparer les prix, il vous propose de l’acheter directement dans la conversation. Pas de redirection, pas de formulaire, pas de mot de passe. Juste un clic. Bienvenue dans le futur du commerce conversationnel, version Perplexity x PayPal.

Enjeux et perspectives

Ce partenariat marque une étape décisive vers le « commerce agentique », où l’IA ne se contente plus de suggérer, mais agit. Pour les utilisateurs, c’est une promesse de simplicité. Pour les marques, une révolution dans le parcours client : la recherche devient l’acte d’achat. Et pour les géants du paiement, une bataille pour rester pertinents face à l’essor des interfaces conversationnelles.
Mais cette fluidité soulève des questions. Qui contrôle l’interface ? Quels produits sont mis en avant ? Et surtout, comment garantir la transparence dans un système où l’IA choisit pour vous ?
Perplexity et PayPal dessinent les contours d’un e-commerce sans friction, où l’IA est à la fois conseiller et vendeur. Une avancée qui, si elle séduit par sa simplicité, invite à une vigilance accrue sur les enjeux de transparence et de contrôle. Car dans ce nouveau monde, acheter n’a jamais été aussi facile… ni aussi opaque.

Pétrole, silicium et bénédiction divine

Source

À Riyad, les datacenters poussent comme des palmiers sur pétrole. Le 12 mai dernier, à la veille d’une visite diplomatique de haut vol, l’Arabie saoudite dévoilait “Humain” : non pas une tentative philosophique, mais une start-up d’État à ambition transhumaine. Portée à bout de bras par le prince héritier Mohammed ben Salmane, orchestrée par Tareq Amin (ex-Aramco), cette entreprise incarne le nouveau visage high-tech du royaume : un soft power 2.0, vêtu de keffieh et bardé de GPU Nvidia.
Avec plusieurs milliards de dollars déjà engagés auprès d’AMD, Amazon, Cisco et consorts, Humain veut frapper fort, vite, et partout. Objectif affiché : développer des modèles linguistiques souverains, notamment en arabe, structurer un écosystème d’agents IA locaux, et bâtir une “AI Zone” de 5 milliards en partenariat avec AWS. Le tout, propulsé par des supercalculateurs Grace Blackwell et des infrastructures hyperscale dignes des rêves les plus fous de Ray Kurzweil.

Enjeux et perspectives

Ce qui pourrait passer pour un simple coup de com’ national traduit en réalité un virage stratégique. L’Arabie saoudite ne veut plus seulement consommer la technologie occidentale : elle veut la produire, la gouverner et la marchandiser. Derrière Humain, c’est un nouveau récit de souveraineté qui s’écrit, algorithmique et pétrodiplomatique. En échange de ses largesses, Riyad s’offre des contreparties géopolitiques solides : 600 milliards de promesses d’investissement étrangers, dont 20 milliards déjà recasés aux États-Unis par DataVolt.
Mais cette opération séduction n’est pas sans zones d’ombre. Quels garde-fous pour ces technologies entraînées localement ? Quelle gouvernance pour ces agents IA qui infuseront administration, justice et sécurité ? Et surtout : le royaume cherche-t-il vraiment à se moderniser, ou à renforcer un pouvoir central tout-puissant sous vernis technologique ?
Dans un monde où chaque pays rêve de son propre ChatGPT, l’Arabie saoudite entend devenir fournisseur, pas client. Et peut-être même démiurge. Humain, trop humain ? Ou déjà posthumain.

Codex Machina : quand l’IA s’invite au stand-up des développeurs

OpenAI vient de lâcher une petite bombe dans l’univers feutré du développement logiciel : Codex, un agent IA intégré à ChatGPT, qui promet ni plus ni moins de remplacer un ingénieur. Disponible pour les abonnés Pro, Team et Enterprise, et bientôt pour les utilisateurs Plus, Codex ne se contente pas de compléter des lignes de code. Il génère des fonctionnalités, corrige des bugs, répond à des questions sur votre base de code et propose des pull requests, le tout dans des environnements sandboxés préchargés avec vos référentiels.

Enjeux et perspectives

Derrière cette annonce se dessine un changement de paradigme : l’IA ne se contente plus d’assister, elle agit. Codex, propulsé par le modèle Codex-1, un dérivé optimisé d’OpenAI o3, incarne cette transition vers des agents capables d’exécuter des tâches complexes en parallèle. Avec ses deux volets, « Code » pour la génération de code source et « Ask » pour l’interrogation du code généré, Codex fonctionne à la manière d’un système de versioning comme Git, construisant le logiciel brique par brique.
Mais cette avancée soulève des questions. Si Codex peut remplacer un ingénieur, quel sera l’impact sur l’emploi dans le secteur du développement ? Et au-delà, quelle sera la place de l’humain dans un processus de création de plus en plus automatisé ?
Le timing de cette annonce n’est pas anodin. Google a récemment présenté une initiative similaire avec DeepMind, signalant une course à l’armement dans le domaine des agents IA autonomes.
En somme, Codex marque une étape significative vers une automatisation accrue du développement logiciel, avec des implications profondes pour les professionnels du secteur et la manière dont les logiciels sont conçus et maintenus.
Le code est mort, vive le code !

Dis Siri, t’as pas vu mon écran ?

Source

Et si le futur de la tech tenait dans un objet sans écran, sans notifications, sans addiction ? C’est le pari fou que viennent de lancer OpenAI et Jony Ive, l’ex-designer star d’Apple, avec un projet aussi mystérieux qu’ambitieux : créer un « compagnon IA » de poche, sans écran, capable de remplacer nos smartphones. Un objet qui ne se porte pas, ne s’affiche pas, mais vous comprendrait mieux que votre propre mère. Le tout, après une acquisition à 6,5 milliards de dollars de la startup io Products, cofondée par Ive lui-même.

Enjeux et perspectives

L’annonce, encore enveloppée de mystère, dessine pourtant une rupture majeure : sortir du paradigme écran-centré pour entrer dans l’ère des interfaces invisibles. Le « compagnon IA » serait contextuellement conscient, discret, non porté sur le corps (exit lunettes et wearables), et conçu pour s’intégrer naturellement à nos vies sans les parasiter.
Ce projet s’inscrit dans une critique implicite de l’héritage technologique d’Ive lui-même. L’iPhone, qu’il a contribué à façonner, est devenu le symbole d’une hyperconnexion anxiogène. Aujourd’hui, il semble vouloir réparer ce qu’il a aidé à créer, en concevant un objet qui libère plutôt qu’il n’enchaîne.
Mais au-delà de la philosophie, les ambitions sont colossales : Sam Altman, PDG d’OpenAI, vise une distribution à 100 millions d’unités plus rapide que tout lancement précédent. Il envisage même ce produit comme le « troisième appareil fondamental », aux côtés du MacBook et de l’iPhone.
Pourtant, les défis sont nombreux. Les précédents tentatives de dispositifs IA sans écran, comme le Humane AI Pin, ont échoué à convaincre. La réussite de ce projet dépendra de sa capacité à offrir une expérience utilisateur réellement intuitive et enrichissante, sans les travers des technologies actuelles.
Un objet sans écran pour remplacer nos écrans ? Le pari est audacieux. Mais si quelqu’un peut réussir à nous faire lâcher nos smartphones, c’est bien celui qui nous les a fait adopter.

App sous le prisme : Google veo 3

Qu’est-ce que c’est ?

Veo 3, c’est l’application qui fait trembler les réalisateurs (et rêver les TikTokeurs).

Ce que ça fait ?

Vous tapez un prompt – “une ville cyberpunk sous la pluie avec un détective mélancolique” – et boum : une vidéo en 4K, cadrée, éclairée, bruitée, montée. Un Spielberg compressé dans une boîte de texte.

À quoi ça sert ?

À produire du contenu sans caméra. À visualiser une scène avant même d’écrire un scénario. À industrialiser l’imaginaire, pour les marques, les storytellers ou les amateurs de deepfake qui veulent du propre.

Pourquoi c’est fascinant ?

Parce que l’appli comprend les nuances : styles cinématographiques, transitions, expressions faciales, ambiances sonores. Une intelligence qui filme à votre place, avec un talent suspectement constant.

Pourquoi c’est limité ?

Parce qu’il faut encore parler son langage, et que ce langage est parfois capricieux. Parce que le contenu généré reste générique si le prompt ne fait pas mouche. Et surtout, parce qu’on n’a pas encore décidé si un film écrit à la volée valait le prix d’un film pensé en silence.

Related Posts

Edition #15

Il y a, dans l’actualité technologique, un petit miracle qui passe souvent inaperçu : malgré la déferlante, malgré les agents qui codent, les IA qui sculptent des scènes de film à la voix, les modèles financiers qui raisonnent mieux que nous, il reste encore – tenace, vibrant – ce réflexe humain : vouloir comprendre, vouloir ouvrir, vouloir transmettre.

À contre-courant des silos géants et des IA fermées, une poignée d’initiatives européennes et open-source émergent. Le LLM suisse, entraîné sur “Alps”, n’est pas juste un exploit technique : c’est une déclaration d’intention. Une manière de dire que la puissance ne doit pas forcément rimer avec opacité, que l’innovation peut s’enraciner dans la coopération, pas uniquement dans le marché.

Oui, l’IA remplace. Oui, elle standardise, accélère, fracture. Mais elle révèle aussi. Nos angles morts. Nos faiblesses structurelles. Notre besoin d’outils qui nous respectent. Derrière les robots de bureau, les Claude financiers, les Bedrock d’AWS, on entrevoit un autre récit possible : celui d’une technologie choisie, orientée, contextualisée.

Rien n’est joué. Ce n’est pas parce que les géants avancent plus vite qu’ils vont forcément plus loin. Il y a dans les marges – dans ces Reachy Mini, ces IA publiques, ces expérimentations humaines – les prémices d’une alternative. Une IA qui ne se contente pas de prédire ou de remplacer, mais qui accompagne, complète, renforce.

Et si c’était ça, le futur désirable ? Une intelligence collective, augmentée par des outils qu’on comprend, qu’on corrige, qu’on peut démonter et améliorer. Une IA qui ne fait pas écran entre nous et le monde, mais qui nous aide à mieux l’habiter.

Read More

Edition #14

Il y a des révolutions qui laissent le temps de se préparer, de s’adapter. Et puis il y a l’intelligence artificielle.

Elle avance sans cesse, s’immisce dans nos vies, nos métiers, et redéfinit les règles plus vite qu’on ne les écrit.

Elle diagnostique des maladies mieux que des médecins, génère des groupes de rock entiers sans musiciens, et s’improvise correctrice de vérité sur les réseaux sociaux. Elle invente aussi, parfois, de faux contrats plus vrais que nature — tout en gardant en mémoire des conversations qu’on croyait effacées.

La frontière entre prouesse technologique et glissement de terrain est mince. Car si l’IA impressionne par sa rapidité, c’est notre lenteur à en saisir les enjeux qui inquiète. Responsabilité, confidentialité, droit d’auteur, éthique, transparence… Les mots sont connus, mais les réponses, elles, restent floues.

Alors entre fièvre technologique et frissons éthiques, il reste une solution : plongez dans le grand bAIn.

Read More