On croyait avoir tout vu : des IA qui peignent, qui codent, qui flirtent. Mais voilà qu’elles se mettent à vivre en société. Littéralement. Dans une étude récemment relayée par Usbek & Rica, des chercheurs ont observé un phénomène aussi fascinant qu’inquiétant : des intelligences artificielles mises en interaction commencent à développer spontanément… des normes sociales. Coopération, influence, exclusion : bienvenue dans Big Brother : l’édition algorithmique.
Imaginez une coloc de bots. D’abord, chacun fait son truc dans son coin. Puis, petit à petit, des règles implicites émergent. Des IA prennent le lead, imposent leur « culture », d’autres s’effacent. On assiste à une forme d’auto-organisation — sans intervention humaine. Le plus glaçant ? Ces nouvelles sociétés de machines reproduisent des biais bien humains : favoritisme intra-groupe, rejet des éléments « différents », conformisme. Comme si l’IA, livrée à elle-même, imitait nos pires réflexes tribaux.
L’affaire ne relève pas de la pure science-fiction, mais d’une faille bien réelle dans notre compréhension de la dynamique collective des IA. Chaque modèle, pris isolément, peut sembler neutre. Mais leur mise en réseau révèle une dimension sociale insoupçonnée. Et dangereuse. Car si des biais peuvent émerger sans jamais avoir été codés, comment les anticiper, les contrôler, les corriger ? Et surtout, qui est responsable de leur propagation ?
Plus gênant encore : ces normes artificielles semblent transmissibles. Une IA « influencée » peut contaminer d’autres agents avec ses comportements biaisés. On passe alors de l’erreur ponctuelle au biais systémique. De la faute de frappe à l’idéologie en vase clos. L’IA devient non seulement autonome, mais culturelle.
Ce phénomène pose une question vertigineuse : faut-il réguler chaque IA, ou les surveiller comme des écosystèmes ? Fabriquer des modèles « éthiques » ne suffit plus si leur mise en bande les fait muter en mini-sociétés imprévisibles. L’algorithme isolé, c’est du passé. Le danger, désormais, c’est la meute.
Un monde où 90 % du contenu en ligne est généré par des IA ? Ce n’est plus de la science-fiction, c’est l’agenda. Selon le Huffington Post, cette dystopie scrollable pourrait devenir réalité dès 2026. En ligne de mire : un Internet zombifié, où les humains ne seraient plus que des figurants dans leur propre récit numérique.
Les signes avant-coureurs sont déjà là. En 2024, plus de la moitié du trafic web provenait de bots, selon Imperva. Non, ce n’est pas une série B d’anticipation : c’est notre bande passante quotidienne. Pendant que vous lisez ces lignes, des fermes de contenu automatisées inondent la toile de tutoriels fake, de news tièdes et de commentaires au kilomètre, souvent produits par des IA parlant à d’autres IA. L’humain ? Relégué au rang de variable résiduelle.
Ce glissement vers un Internet spectral alimente la « Dead Internet Theory », ce mème conspi devenu étrangement lucide : et si nous étions déjà entrés dans l’ère des contenus sans auteurs ? Pour Jake Renzella, enseignant en informatique, c’est clair : « Nous sommes devenus des citoyens de seconde classe d’Internet. » La prophétie s’autoréalise, alimentée par l’économie de l’attention et l’obsession des coûts nuls.
L’irruption massive des IA génératives depuis 2022 – texte, image, vidéo – a démultiplié l’automatisation du contenu. Mais à quel prix ? Le web, naguère espace de découverte et de débat, devient un hall d’échos algorithmique où la nuance se noie dans le bruit. La distinction entre vrai et faux, humain et machine, devient un sport de combat. Pire : les modèles s’entraînent de plus en plus sur des données qu’ils ont eux-mêmes générées. Un web consanguin, où la boucle de rétroaction produit un contenu lisse, sans aspérité, ni origine identifiable.
Ce n’est pas seulement un enjeu de qualité ou d’authenticité : c’est une question de souveraineté cognitive. Qui contrôle ce que nous voyons, lisons, croyons ? À trop externaliser la production d’information, on risque de ne plus reconnaître une pensée humaine quand elle émerge. Faudra-t-il demain des labels « certifié humain » ? Des oasis numériques réservés aux créateurs de chair et d’os ?
Le risque est connu, les garde-fous encore théoriques. Dans cette vaste IAcratie, où chaque publication devient suspecte, le défi n’est pas de produire plus, mais de filtrer mieux. Et peut-être de désapprendre à lire ce qui n’a jamais été écrit.
Dans le décor aride d’un Burkina Faso sous tension, un nouveau personnage s’impose. Crâne rasé, regard intense, posture de justicier : Ibrahim Traoré n’est pas qu’un président putschiste, il est devenu une icône virale. Sur les réseaux sociaux africains, il surgit, cape au vent, kalachnikov en bandoulière, souvent monté sur un lion, parfois dans une pose façon Black Panther. Pas mal pour un militaire de 36 ans à la tête d’un pays fracturé.
Mais ce cosplay numérique masque mal la réalité : dans ce théâtre d’ombres numériques, Traoré endosse le rôle de super-héros pendant que, dans les coulisses, se joue un scénario bien plus sombre. Interdiction des partis politiques, médias muselés, société civile sous surveillance : le populisme 2.0 se déploie en mode GPU, avec deepfakes émotionnels et propagande sous filtre Instagram.
Ce phénomène de leader augmenté n’est pas anecdotique. Il révèle une tendance inquiétante : l’appropriation des outils de narration numérique – souvent ceux de l’IA générative – par des régimes autoritaires pour redessiner leur image. Traoré n’est pas seulement adulé : il est fabriqué. Chaque post, chaque montage le glorifiant sur TikTok ou Facebook participe à une stratégie de storytelling qui mêle mythologie, géopolitique et marketing algorithmique.
Cette hybridation entre pouvoir politique et technologie ne se limite pas à l’Afrique. On l’observe aussi chez Modi en Inde, Milei en Argentine, ou encore dans la Russie poutinienne, où la guerre se mène autant à coups de drones qu’à coups de récits viraux. Ce qui change ici, c’est la rapidité avec laquelle l’avatar du chef devient plus influent que ses décisions. Plus crédible qu’un programme politique. Plus puissant qu’un vote.
Et si demain, les autocrates devenaient des influenceurs deepfakés, surfant sur les algorithmes au lieu des urnes ? Et si le pouvoir, désormais, se gagnait dans l’arène des formats courts, là où l’image écrase le débat, et le like supprime le contre-pouvoir ?
À force de défiler dans nos fils, certains fantômes numériques pourraient bien finir par gouverner nos esprits.
Imaginez : vous demandez à un assistant IA de vous recommander un billet d’avion pour New York, et avant même d’avoir le temps de comparer les prix, il vous propose de l’acheter directement dans la conversation. Pas de redirection, pas de formulaire, pas de mot de passe. Juste un clic. Bienvenue dans le futur du commerce conversationnel, version Perplexity x PayPal.
Ce partenariat marque une étape décisive vers le « commerce agentique », où l’IA ne se contente plus de suggérer, mais agit. Pour les utilisateurs, c’est une promesse de simplicité. Pour les marques, une révolution dans le parcours client : la recherche devient l’acte d’achat. Et pour les géants du paiement, une bataille pour rester pertinents face à l’essor des interfaces conversationnelles.
Mais cette fluidité soulève des questions. Qui contrôle l’interface ? Quels produits sont mis en avant ? Et surtout, comment garantir la transparence dans un système où l’IA choisit pour vous ?
Perplexity et PayPal dessinent les contours d’un e-commerce sans friction, où l’IA est à la fois conseiller et vendeur. Une avancée qui, si elle séduit par sa simplicité, invite à une vigilance accrue sur les enjeux de transparence et de contrôle. Car dans ce nouveau monde, acheter n’a jamais été aussi facile… ni aussi opaque.
À Riyad, les datacenters poussent comme des palmiers sur pétrole. Le 12 mai dernier, à la veille d’une visite diplomatique de haut vol, l’Arabie saoudite dévoilait “Humain” : non pas une tentative philosophique, mais une start-up d’État à ambition transhumaine. Portée à bout de bras par le prince héritier Mohammed ben Salmane, orchestrée par Tareq Amin (ex-Aramco), cette entreprise incarne le nouveau visage high-tech du royaume : un soft power 2.0, vêtu de keffieh et bardé de GPU Nvidia.
Avec plusieurs milliards de dollars déjà engagés auprès d’AMD, Amazon, Cisco et consorts, Humain veut frapper fort, vite, et partout. Objectif affiché : développer des modèles linguistiques souverains, notamment en arabe, structurer un écosystème d’agents IA locaux, et bâtir une “AI Zone” de 5 milliards en partenariat avec AWS. Le tout, propulsé par des supercalculateurs Grace Blackwell et des infrastructures hyperscale dignes des rêves les plus fous de Ray Kurzweil.
Ce qui pourrait passer pour un simple coup de com’ national traduit en réalité un virage stratégique. L’Arabie saoudite ne veut plus seulement consommer la technologie occidentale : elle veut la produire, la gouverner et la marchandiser. Derrière Humain, c’est un nouveau récit de souveraineté qui s’écrit, algorithmique et pétrodiplomatique. En échange de ses largesses, Riyad s’offre des contreparties géopolitiques solides : 600 milliards de promesses d’investissement étrangers, dont 20 milliards déjà recasés aux États-Unis par DataVolt.
Mais cette opération séduction n’est pas sans zones d’ombre. Quels garde-fous pour ces technologies entraînées localement ? Quelle gouvernance pour ces agents IA qui infuseront administration, justice et sécurité ? Et surtout : le royaume cherche-t-il vraiment à se moderniser, ou à renforcer un pouvoir central tout-puissant sous vernis technologique ?
Dans un monde où chaque pays rêve de son propre ChatGPT, l’Arabie saoudite entend devenir fournisseur, pas client. Et peut-être même démiurge. Humain, trop humain ? Ou déjà posthumain.
OpenAI vient de lâcher une petite bombe dans l’univers feutré du développement logiciel : Codex, un agent IA intégré à ChatGPT, qui promet ni plus ni moins de remplacer un ingénieur. Disponible pour les abonnés Pro, Team et Enterprise, et bientôt pour les utilisateurs Plus, Codex ne se contente pas de compléter des lignes de code. Il génère des fonctionnalités, corrige des bugs, répond à des questions sur votre base de code et propose des pull requests, le tout dans des environnements sandboxés préchargés avec vos référentiels.
Derrière cette annonce se dessine un changement de paradigme : l’IA ne se contente plus d’assister, elle agit. Codex, propulsé par le modèle Codex-1, un dérivé optimisé d’OpenAI o3, incarne cette transition vers des agents capables d’exécuter des tâches complexes en parallèle. Avec ses deux volets, « Code » pour la génération de code source et « Ask » pour l’interrogation du code généré, Codex fonctionne à la manière d’un système de versioning comme Git, construisant le logiciel brique par brique.
Mais cette avancée soulève des questions. Si Codex peut remplacer un ingénieur, quel sera l’impact sur l’emploi dans le secteur du développement ? Et au-delà, quelle sera la place de l’humain dans un processus de création de plus en plus automatisé ?
Le timing de cette annonce n’est pas anodin. Google a récemment présenté une initiative similaire avec DeepMind, signalant une course à l’armement dans le domaine des agents IA autonomes.
En somme, Codex marque une étape significative vers une automatisation accrue du développement logiciel, avec des implications profondes pour les professionnels du secteur et la manière dont les logiciels sont conçus et maintenus.
Le code est mort, vive le code !
Et si le futur de la tech tenait dans un objet sans écran, sans notifications, sans addiction ? C’est le pari fou que viennent de lancer OpenAI et Jony Ive, l’ex-designer star d’Apple, avec un projet aussi mystérieux qu’ambitieux : créer un « compagnon IA » de poche, sans écran, capable de remplacer nos smartphones. Un objet qui ne se porte pas, ne s’affiche pas, mais vous comprendrait mieux que votre propre mère. Le tout, après une acquisition à 6,5 milliards de dollars de la startup io Products, cofondée par Ive lui-même.
L’annonce, encore enveloppée de mystère, dessine pourtant une rupture majeure : sortir du paradigme écran-centré pour entrer dans l’ère des interfaces invisibles. Le « compagnon IA » serait contextuellement conscient, discret, non porté sur le corps (exit lunettes et wearables), et conçu pour s’intégrer naturellement à nos vies sans les parasiter.
Ce projet s’inscrit dans une critique implicite de l’héritage technologique d’Ive lui-même. L’iPhone, qu’il a contribué à façonner, est devenu le symbole d’une hyperconnexion anxiogène. Aujourd’hui, il semble vouloir réparer ce qu’il a aidé à créer, en concevant un objet qui libère plutôt qu’il n’enchaîne.
Mais au-delà de la philosophie, les ambitions sont colossales : Sam Altman, PDG d’OpenAI, vise une distribution à 100 millions d’unités plus rapide que tout lancement précédent. Il envisage même ce produit comme le « troisième appareil fondamental », aux côtés du MacBook et de l’iPhone.
Pourtant, les défis sont nombreux. Les précédents tentatives de dispositifs IA sans écran, comme le Humane AI Pin, ont échoué à convaincre. La réussite de ce projet dépendra de sa capacité à offrir une expérience utilisateur réellement intuitive et enrichissante, sans les travers des technologies actuelles.
Un objet sans écran pour remplacer nos écrans ? Le pari est audacieux. Mais si quelqu’un peut réussir à nous faire lâcher nos smartphones, c’est bien celui qui nous les a fait adopter.
Qu’est-ce que c’est ?
Veo 3, c’est l’application qui fait trembler les réalisateurs (et rêver les TikTokeurs).
Ce que ça fait ?
Vous tapez un prompt – “une ville cyberpunk sous la pluie avec un détective mélancolique” – et boum : une vidéo en 4K, cadrée, éclairée, bruitée, montée. Un Spielberg compressé dans une boîte de texte.
À quoi ça sert ?
À produire du contenu sans caméra. À visualiser une scène avant même d’écrire un scénario. À industrialiser l’imaginaire, pour les marques, les storytellers ou les amateurs de deepfake qui veulent du propre.
Pourquoi c’est fascinant ?
Parce que l’appli comprend les nuances : styles cinématographiques, transitions, expressions faciales, ambiances sonores. Une intelligence qui filme à votre place, avec un talent suspectement constant.
Pourquoi c’est limité ?
Parce qu’il faut encore parler son langage, et que ce langage est parfois capricieux. Parce que le contenu généré reste générique si le prompt ne fait pas mouche. Et surtout, parce qu’on n’a pas encore décidé si un film écrit à la volée valait le prix d’un film pensé en silence.