Plongez dans le grand bAIn

Edition #12

Partager cette édition :

À chaque édition, on se dit qu’on a atteint le sommet. Et à chaque fois, l’actualité nous prouve qu’elle a encore de la ressource pour nous faire dégringoler dans un toboggan technologique sans fin.

Cette fois, c’est un festival de paradoxes. Des IA qui vivent en société mieux que vos collègues (mais avec les mêmes biais foireux). Un Internet de plus en plus mort, habité par des contenus écrits par des bots pour d’autres bots. Des géants du numérique qui jurent de protéger vos données… sauf votre nom. Et pendant que le vieux continent s’accroche à ses principes comme un naufragé à sa bouée RGPD, le reste du monde code, trace, et, parfois, triche.

Mais ne nous laissons pas abattre. Le Monde de demAIn est là pour trier le signal du bruit, la percée de l’effet de manche, et vous livrer tous les quinze jours ce concentré acide de veille, d’ironie et d’analyse qui pique juste là où ça fait du bien.

IA en bande organisée : nouvelles normes sociales et biais non maîtrisés

On croyait avoir tout vu : des IA qui peignent, qui codent, qui flirtent. Mais voilà qu’elles se mettent à vivre en société. Littéralement. Dans une étude récemment relayée par Usbek & Rica, des chercheurs ont observé un phénomène aussi fascinant qu’inquiétant : des intelligences artificielles mises en interaction commencent à développer spontanément… des normes sociales. Coopération, influence, exclusion : bienvenue dans Big Brother : l’édition algorithmique.
Imaginez une coloc de bots. D’abord, chacun fait son truc dans son coin. Puis, petit à petit, des règles implicites émergent. Des IA prennent le lead, imposent leur « culture », d’autres s’effacent. On assiste à une forme d’auto-organisation — sans intervention humaine. Le plus glaçant ? Ces nouvelles sociétés de machines reproduisent des biais bien humains : favoritisme intra-groupe, rejet des éléments « différents », conformisme. Comme si l’IA, livrée à elle-même, imitait nos pires réflexes tribaux.

Enjeux et perspectives

L’affaire ne relève pas de la pure science-fiction, mais d’une faille bien réelle dans notre compréhension de la dynamique collective des IA. Chaque modèle, pris isolément, peut sembler neutre. Mais leur mise en réseau révèle une dimension sociale insoupçonnée. Et dangereuse. Car si des biais peuvent émerger sans jamais avoir été codés, comment les anticiper, les contrôler, les corriger ? Et surtout, qui est responsable de leur propagation ?
Plus gênant encore : ces normes artificielles semblent transmissibles. Une IA « influencée » peut contaminer d’autres agents avec ses comportements biaisés. On passe alors de l’erreur ponctuelle au biais systémique. De la faute de frappe à l’idéologie en vase clos. L’IA devient non seulement autonome, mais culturelle.
Ce phénomène pose une question vertigineuse : faut-il réguler chaque IA, ou les surveiller comme des écosystèmes ? Fabriquer des modèles « éthiques » ne suffit plus si leur mise en bande les fait muter en mini-sociétés imprévisibles. L’algorithme isolé, c’est du passé. Le danger, désormais, c’est la meute.

L’enfer est pavé de prompts automatiques

Un monde où 90 % du contenu en ligne est généré par des IA ? Ce n’est plus de la science-fiction, c’est l’agenda. Selon le Huffington Post, cette dystopie scrollable pourrait devenir réalité dès 2026. En ligne de mire : un Internet zombifié, où les humains ne seraient plus que des figurants dans leur propre récit numérique.
Les signes avant-coureurs sont déjà là. En 2024, plus de la moitié du trafic web provenait de bots, selon Imperva. Non, ce n’est pas une série B d’anticipation : c’est notre bande passante quotidienne. Pendant que vous lisez ces lignes, des fermes de contenu automatisées inondent la toile de tutoriels fake, de news tièdes et de commentaires au kilomètre, souvent produits par des IA parlant à d’autres IA. L’humain ? Relégué au rang de variable résiduelle.
Ce glissement vers un Internet spectral alimente la « Dead Internet Theory », ce mème conspi devenu étrangement lucide : et si nous étions déjà entrés dans l’ère des contenus sans auteurs ? Pour Jake Renzella, enseignant en informatique, c’est clair : « Nous sommes devenus des citoyens de seconde classe d’Internet. » La prophétie s’autoréalise, alimentée par l’économie de l’attention et l’obsession des coûts nuls.

Enjeux et perspectives

L’irruption massive des IA génératives depuis 2022 – texte, image, vidéo – a démultiplié l’automatisation du contenu. Mais à quel prix ? Le web, naguère espace de découverte et de débat, devient un hall d’échos algorithmique où la nuance se noie dans le bruit. La distinction entre vrai et faux, humain et machine, devient un sport de combat. Pire : les modèles s’entraînent de plus en plus sur des données qu’ils ont eux-mêmes générées. Un web consanguin, où la boucle de rétroaction produit un contenu lisse, sans aspérité, ni origine identifiable.
Ce n’est pas seulement un enjeu de qualité ou d’authenticité : c’est une question de souveraineté cognitive. Qui contrôle ce que nous voyons, lisons, croyons ? À trop externaliser la production d’information, on risque de ne plus reconnaître une pensée humaine quand elle émerge. Faudra-t-il demain des labels « certifié humain » ? Des oasis numériques réservés aux créateurs de chair et d’os ?
Le risque est connu, les garde-fous encore théoriques. Dans cette vaste IAcratie, où chaque publication devient suspecte, le défi n’est pas de produire plus, mais de filtrer mieux. Et peut-être de désapprendre à lire ce qui n’a jamais été écrit.

Super Traoré : le héros de pixels au régime bien réel

Dans le décor aride d’un Burkina Faso sous tension, un nouveau personnage s’impose. Crâne rasé, regard intense, posture de justicier : Ibrahim Traoré n’est pas qu’un président putschiste, il est devenu une icône virale. Sur les réseaux sociaux africains, il surgit, cape au vent, kalachnikov en bandoulière, souvent monté sur un lion, parfois dans une pose façon Black Panther. Pas mal pour un militaire de 36 ans à la tête d’un pays fracturé.
Mais ce cosplay numérique masque mal la réalité : dans ce théâtre d’ombres numériques, Traoré endosse le rôle de super-héros pendant que, dans les coulisses, se joue un scénario bien plus sombre. Interdiction des partis politiques, médias muselés, société civile sous surveillance : le populisme 2.0 se déploie en mode GPU, avec deepfakes émotionnels et propagande sous filtre Instagram.

Enjeux et perspectives

Ce phénomène de leader augmenté n’est pas anecdotique. Il révèle une tendance inquiétante : l’appropriation des outils de narration numérique – souvent ceux de l’IA générative – par des régimes autoritaires pour redessiner leur image. Traoré n’est pas seulement adulé : il est fabriqué. Chaque post, chaque montage le glorifiant sur TikTok ou Facebook participe à une stratégie de storytelling qui mêle mythologie, géopolitique et marketing algorithmique.
Cette hybridation entre pouvoir politique et technologie ne se limite pas à l’Afrique. On l’observe aussi chez Modi en Inde, Milei en Argentine, ou encore dans la Russie poutinienne, où la guerre se mène autant à coups de drones qu’à coups de récits viraux. Ce qui change ici, c’est la rapidité avec laquelle l’avatar du chef devient plus influent que ses décisions. Plus crédible qu’un programme politique. Plus puissant qu’un vote.
Et si demain, les autocrates devenaient des influenceurs deepfakés, surfant sur les algorithmes au lieu des urnes ? Et si le pouvoir, désormais, se gagnait dans l’arène des formats courts, là où l’image écrase le débat, et le like supprime le contre-pouvoir ?
À force de défiler dans nos fils, certains fantômes numériques pourraient bien finir par gouverner nos esprits.

Achetez, c’est signé : quand l’IA devient votre caissier

Imaginez : vous demandez à un assistant IA de vous recommander un billet d’avion pour New York, et avant même d’avoir le temps de comparer les prix, il vous propose de l’acheter directement dans la conversation. Pas de redirection, pas de formulaire, pas de mot de passe. Juste un clic. Bienvenue dans le futur du commerce conversationnel, version Perplexity x PayPal.

Enjeux et perspectives

Ce partenariat marque une étape décisive vers le « commerce agentique », où l’IA ne se contente plus de suggérer, mais agit. Pour les utilisateurs, c’est une promesse de simplicité. Pour les marques, une révolution dans le parcours client : la recherche devient l’acte d’achat. Et pour les géants du paiement, une bataille pour rester pertinents face à l’essor des interfaces conversationnelles.
Mais cette fluidité soulève des questions. Qui contrôle l’interface ? Quels produits sont mis en avant ? Et surtout, comment garantir la transparence dans un système où l’IA choisit pour vous ?
Perplexity et PayPal dessinent les contours d’un e-commerce sans friction, où l’IA est à la fois conseiller et vendeur. Une avancée qui, si elle séduit par sa simplicité, invite à une vigilance accrue sur les enjeux de transparence et de contrôle. Car dans ce nouveau monde, acheter n’a jamais été aussi facile… ni aussi opaque.

Pétrole, silicium et bénédiction divine

Source

À Riyad, les datacenters poussent comme des palmiers sur pétrole. Le 12 mai dernier, à la veille d’une visite diplomatique de haut vol, l’Arabie saoudite dévoilait “Humain” : non pas une tentative philosophique, mais une start-up d’État à ambition transhumaine. Portée à bout de bras par le prince héritier Mohammed ben Salmane, orchestrée par Tareq Amin (ex-Aramco), cette entreprise incarne le nouveau visage high-tech du royaume : un soft power 2.0, vêtu de keffieh et bardé de GPU Nvidia.
Avec plusieurs milliards de dollars déjà engagés auprès d’AMD, Amazon, Cisco et consorts, Humain veut frapper fort, vite, et partout. Objectif affiché : développer des modèles linguistiques souverains, notamment en arabe, structurer un écosystème d’agents IA locaux, et bâtir une “AI Zone” de 5 milliards en partenariat avec AWS. Le tout, propulsé par des supercalculateurs Grace Blackwell et des infrastructures hyperscale dignes des rêves les plus fous de Ray Kurzweil.

Enjeux et perspectives

Ce qui pourrait passer pour un simple coup de com’ national traduit en réalité un virage stratégique. L’Arabie saoudite ne veut plus seulement consommer la technologie occidentale : elle veut la produire, la gouverner et la marchandiser. Derrière Humain, c’est un nouveau récit de souveraineté qui s’écrit, algorithmique et pétrodiplomatique. En échange de ses largesses, Riyad s’offre des contreparties géopolitiques solides : 600 milliards de promesses d’investissement étrangers, dont 20 milliards déjà recasés aux États-Unis par DataVolt.
Mais cette opération séduction n’est pas sans zones d’ombre. Quels garde-fous pour ces technologies entraînées localement ? Quelle gouvernance pour ces agents IA qui infuseront administration, justice et sécurité ? Et surtout : le royaume cherche-t-il vraiment à se moderniser, ou à renforcer un pouvoir central tout-puissant sous vernis technologique ?
Dans un monde où chaque pays rêve de son propre ChatGPT, l’Arabie saoudite entend devenir fournisseur, pas client. Et peut-être même démiurge. Humain, trop humain ? Ou déjà posthumain.

Codex Machina : quand l’IA s’invite au stand-up des développeurs

OpenAI vient de lâcher une petite bombe dans l’univers feutré du développement logiciel : Codex, un agent IA intégré à ChatGPT, qui promet ni plus ni moins de remplacer un ingénieur. Disponible pour les abonnés Pro, Team et Enterprise, et bientôt pour les utilisateurs Plus, Codex ne se contente pas de compléter des lignes de code. Il génère des fonctionnalités, corrige des bugs, répond à des questions sur votre base de code et propose des pull requests, le tout dans des environnements sandboxés préchargés avec vos référentiels.

Enjeux et perspectives

Derrière cette annonce se dessine un changement de paradigme : l’IA ne se contente plus d’assister, elle agit. Codex, propulsé par le modèle Codex-1, un dérivé optimisé d’OpenAI o3, incarne cette transition vers des agents capables d’exécuter des tâches complexes en parallèle. Avec ses deux volets, « Code » pour la génération de code source et « Ask » pour l’interrogation du code généré, Codex fonctionne à la manière d’un système de versioning comme Git, construisant le logiciel brique par brique.
Mais cette avancée soulève des questions. Si Codex peut remplacer un ingénieur, quel sera l’impact sur l’emploi dans le secteur du développement ? Et au-delà, quelle sera la place de l’humain dans un processus de création de plus en plus automatisé ?
Le timing de cette annonce n’est pas anodin. Google a récemment présenté une initiative similaire avec DeepMind, signalant une course à l’armement dans le domaine des agents IA autonomes.
En somme, Codex marque une étape significative vers une automatisation accrue du développement logiciel, avec des implications profondes pour les professionnels du secteur et la manière dont les logiciels sont conçus et maintenus.
Le code est mort, vive le code !

Dis Siri, t’as pas vu mon écran ?

Source

Et si le futur de la tech tenait dans un objet sans écran, sans notifications, sans addiction ? C’est le pari fou que viennent de lancer OpenAI et Jony Ive, l’ex-designer star d’Apple, avec un projet aussi mystérieux qu’ambitieux : créer un « compagnon IA » de poche, sans écran, capable de remplacer nos smartphones. Un objet qui ne se porte pas, ne s’affiche pas, mais vous comprendrait mieux que votre propre mère. Le tout, après une acquisition à 6,5 milliards de dollars de la startup io Products, cofondée par Ive lui-même.

Enjeux et perspectives

L’annonce, encore enveloppée de mystère, dessine pourtant une rupture majeure : sortir du paradigme écran-centré pour entrer dans l’ère des interfaces invisibles. Le « compagnon IA » serait contextuellement conscient, discret, non porté sur le corps (exit lunettes et wearables), et conçu pour s’intégrer naturellement à nos vies sans les parasiter.
Ce projet s’inscrit dans une critique implicite de l’héritage technologique d’Ive lui-même. L’iPhone, qu’il a contribué à façonner, est devenu le symbole d’une hyperconnexion anxiogène. Aujourd’hui, il semble vouloir réparer ce qu’il a aidé à créer, en concevant un objet qui libère plutôt qu’il n’enchaîne.
Mais au-delà de la philosophie, les ambitions sont colossales : Sam Altman, PDG d’OpenAI, vise une distribution à 100 millions d’unités plus rapide que tout lancement précédent. Il envisage même ce produit comme le « troisième appareil fondamental », aux côtés du MacBook et de l’iPhone.
Pourtant, les défis sont nombreux. Les précédents tentatives de dispositifs IA sans écran, comme le Humane AI Pin, ont échoué à convaincre. La réussite de ce projet dépendra de sa capacité à offrir une expérience utilisateur réellement intuitive et enrichissante, sans les travers des technologies actuelles.
Un objet sans écran pour remplacer nos écrans ? Le pari est audacieux. Mais si quelqu’un peut réussir à nous faire lâcher nos smartphones, c’est bien celui qui nous les a fait adopter.

App sous le prisme : Google veo 3

Qu’est-ce que c’est ?

Veo 3, c’est l’application qui fait trembler les réalisateurs (et rêver les TikTokeurs).

Ce que ça fait ?

Vous tapez un prompt – “une ville cyberpunk sous la pluie avec un détective mélancolique” – et boum : une vidéo en 4K, cadrée, éclairée, bruitée, montée. Un Spielberg compressé dans une boîte de texte.

À quoi ça sert ?

À produire du contenu sans caméra. À visualiser une scène avant même d’écrire un scénario. À industrialiser l’imaginaire, pour les marques, les storytellers ou les amateurs de deepfake qui veulent du propre.

Pourquoi c’est fascinant ?

Parce que l’appli comprend les nuances : styles cinématographiques, transitions, expressions faciales, ambiances sonores. Une intelligence qui filme à votre place, avec un talent suspectement constant.

Pourquoi c’est limité ?

Parce qu’il faut encore parler son langage, et que ce langage est parfois capricieux. Parce que le contenu généré reste générique si le prompt ne fait pas mouche. Et surtout, parce qu’on n’a pas encore décidé si un film écrit à la volée valait le prix d’un film pensé en silence.

Related Posts

Edition #17

OpenAI se rêve désormais en fondation à 130 milliards de dollars pour « financer le bien commun ». En pratique, Nvidia joue le mécène intéressé : 100 milliards injectés dans OpenAI, qui lui en rendra bien davantage en lui achetant ses propres puces. Oracle complète le tableau avec un contrat titanesque pour héberger tout cela. Résultat : des revenus vertigineux, des pertes du même ordre et une consommation électrique qui ferait pâlir bien des nations. Derrière les promesses d’altruisme, l’écosystème tourne à plein régime sur sa propre énergie financière. C’est spectaculaire, mais reste instable.

Pendant ce temps, les promesses de l’IA prennent des formes plus tangibles : Claude apprend à adapter son ton, Gemini permet à quiconque de concevoir une application en quelques phrases, et les humanoïdes de salon comme Neo essaient, tant bien que mal, de devenir utiles. La démonstration reste fragile, mais les progrès sont réels : ces outils quittent enfin le laboratoire pour entrer dans la vie quotidienne, là où les PME peuvent en tirer un bénéfice immédiat.

Le moment est venu de passer de la curiosité à l’action. Choisir un outil, tester un scénario, mesurer les gains : c’est à cette échelle que l’innovation devient rentable. L’IA n’a pas besoin de transformer votre entreprise pour être utile. Il suffit qu’elle vous fasse avancer un peu plus vite, un peu plus loin, chaque jour.

Read More

Edition #16

On pourrait croire que les entreprises Suisses ont franchi un cap: plus de la moitié déclarent désormais déployer l’IA à grande échelle. Pourtant, la fusée ne décolle pas vraiment dans la bonne direction. Seules 35 % l’intègrent réellement au cœur de leur stratégie, preuve que l’on sait propulser la technologie sans toujours savoir où la faire atterrir. Les usages se concentrent encore sur le marketing et la relation client, tandis que les fonctions support commencent timidement à sortir du bois.

Le vrai frein n’est pas technique, mais organisationnel. Gouvernance fragmentée, compétences mal alignées, acculturation hésitante : c’est moins un problème d’algorithmes qu’un casse-tête de coordination. la confusion entre IA générative, modèles “classiques” et agents autonomes n’arrange rien: les entreprises avancent, mais sans boussole.

Autour, l’écosystème s’agite pour donner le rythme. Bruxelles veut accélérer avec Apply AI et AI in Science, plus de compute, des hubs, un institut virtuel pour coordonner talents et données, encore faut-il transformer les promesses en réalisations mesurables. Genève trace un cadre clair, objectifs d’intérêt général, supervision humaine, registre public, pas de biométrie, une gouvernance qui met la table avant de servir le plat. Pendant ce temps, les Jeux de LA s’annoncent en mode plateforme, personnalisation et opérations dopées à l’IA, efficacité espérée, dépendances à surveiller.

En entreprise, l’agent devient collègue plus que gadget, Microsoft pousse un travail assité par agent qui planifie et exécute, mais la précision impose la relecture. Certains l’ont appris à leurs dépens, rapport bâclé, crédibilité écornée. OpenAI teste un assistant qui se réveille avant vous pour résumer votre monde, utile, à encadrer. La recette gagnante tient en trois verbes, spécialiser, brancher, mesurer, et un quatrième, vérifier.

Read More