L’économie du brainrot, une machine à argent et à idiots ?

Bienvenue dans l’univers du « brainrot » où cohabitent joyeusement un singe qui chante Papaoutai, des fake news sur des célébrités et Jesus‑crevette dit le Christacé.

Slop, brainrot : une nouvelle grammaire numérique 

On appelle « slop » le flux infini de contenu de faible qualité produit par l’IA. Généralement, il s’agit de vidéos courtes mais cela concerne aussi les sons IA remplissant le catalogue de Spotify et les bots qui répondent en masse à des Tweets. 

Le brainrot, conséquence du slop, désigne quant à lui, cette sensation de « pourrissement du cerveau », après avoir scrollé trop longtemps sur son téléphone. Le terme est devenu suffisamment répandu pour être reconnu comme un marqueur de notre époque. On consomme du brainrot, on produit du brainrot, on est atteint de brainrot.

La culture brainrot c’est une esthétique qui intègre la culture meme d’Internet et c’est parfois même une expression artistique à part entière. Vous connaissez certainement la post-vérité de Trump mais est-ce que vous pouvez en dire autant de la post-ironie ? Une nouvelle ère mise en lumière par le brainrot avec son humour hyper ironique et ses montages volontairement grotesques. Les internautes « chronically online » (qui s’auto-proclament connectés en permanence aux réseaux sociaux) affirment leur appartenance à un groupe en usant de codes culturels partagés sur ces réseaux. Cela crée un effet d’entre‑soi excluant ceux qui n’ont pas la « ref ». 

Même si on met souvent ce phénomène sur le dos de jeunes accros à leur téléphone, le brainrot est une économie organisée et dopée à l’intelligence artificielle. Ce marché structuré est une sous-branche de l’économie de l’attention, qui comme son nom l’indique, cherche à capter notre attention à tout prix. En effet, les contenus brainrot exposent les utilisateurs à 40% de publicités supplémentaires. Meta et Google auraient ainsi déjà engrangé environ 400 milliards de dollars sur ce segment. 

Même les séries Netflix sont maintenant conçues pour pouvoir être suivies en même temps que l’on scroll sur notre téléphone parce que plus nous passons de temps sur une plateforme, plus elle peut afficher des publicités et collecter des données comportementales. Le brainrot altère donc toutes les dimensions du divertissement. Un autre exemple… Lorsque l’on ouvre l’application YouTube, on tombe sur une flopée de suggestions de courtes vidéos. Il faut ainsi réussir à scroller sans se faire happer par ces “Shorts” pour arriver aux suggestions de formats longs. On reproche donc souvent aux jeunes de passer trop de temps sur Internet alors que des plateformes ont pour seul objectif de transformer leur attention en chiffre d’affaires. 

Produire plus pour gagner plus 

L’IA permet de publier des centaines de variantes d’une même vidéo courte pour tester celle qui performera le mieux. Le contenu incohérent est alors un simple outil pour générer des réactions, et qui dit audience, dit monétisation. Certains l’ont bien compris ; des fermes de “slop” IA génèrent des formats automatisées 24h/24 sans aucune intervention humaine. Le but principal de ces « slop farms » est d’inonder les réseaux de contenus qui font réagir. Elles analysent ce qui crée le succès pour le reproduire. Les contenus s’uniformisent donc de plus en plus. Sur TikTok, des chaînes publient 50 parfois même 100 vidéos par jour, évidemment au détriment de la pertinence. Ce déluge de contenus appauvrit les flux d’information. Les fermes prospèrent grâce aux algorithmes de recommandation, qui privilégient la quantité d’engagement plutôt que la qualité intellectuelle. Au passage, la créativité humaine est diluée dans un bruit de fond automatisé. Une étude Kapwing montre que, pour un tout nouveau compte YouTube, plus de 20% des Shorts recommandées sont des contenus de slop IA.

Dans un contexte où la frontière entre contenu organique et publicité se brouille de plus en plus, les plateformes, elles, captent la plus grande part de la valeur économique grâce à la publicité et à leurs abonnements payants. Le slop offre un immense volume d’espaces publicitaires avec des capacités de ciblage très précises. Les plateformes n’ont donc aucun intérêt à réguler elles-mêmes le déferlement de slop et font d’ailleurs le contraire. En face, les effets négatifs sont subis par les utilisateurs, qui expérimentent une fatigue cognitive et une saturation de l’espace public par des contenus trompeurs. 

Tant que les indicateurs de performance resteront centrés sur l’engagement brut, la pression pour produire du slop demeurera forte et les créateurs de contenus longs peineront à rivaliser avec la puissance de propagation du slop.

Le brainrot : ce que TPMP est à la télé ?

Dans une étude expérimentale menée sur de jeunes adultes chinois à propos de TikTok, les chercheurs montrent que le visionnage de vidéos courtes réduit temporairement la pensée analytique. Après 20 à 30 minutes d’exposition, les participants obtiennent de moins bons scores à des tests de réflexion logique et se montrent plus enclins à croire de fausses informations. Le problème ne réside pas dans le contenu, les résultats étant sensiblement les mêmes pour des vidéos divertissantes d’animaux que des vidéos sur des expériences scientifiques, mais dans le geste du swipe lui-même, c’est-à-dire du défilement rapide et répétitif, qui pousserait les utilisateurs vers un traitement plus intuitif et donc moins critique de l’information. En organisant notre attention autour d’un flux de contenu, les plateformes favorisent un état mental dans lequel il devient plus difficile d’évaluer et de douter. Alors que comme dirait le philosophe Alain « le doute est le sel de l’esprit », les feed rendent la réflexion après une vidéo courte plus coûteuse que de passer directement à la prochaine. On retrouve finalement un mécanisme d’interface proche des jeux d’argent avec des gains de dopamines.

D’autres études ont examiné l’impact des vidéos courtes sur la mémoire prospective, soit la capacité à se souvenir de faire une machine de linge ou de remplir son avis d’imposition. Et c’est en réalité, le défilement rapide de contenus souvent totalement différents les uns des autres qui constitue un facteur déterminant dans la perturbation des capacités cognitives. Alors oui, le mécanisme des plateformes sociales doit être remis en question mais pas uniquement. Les autres plateformes ne sont pas en reste puisque Spotify se place comme concurrent du silence et Netflix de notre sommeil. On peut donc voir se dessiner un enjeu mondial de santé mentale et physique dans la régulation plus largement des plateformes numériques.

Le brainrot, nouvel opium du peuple ?

Ce n’est pas nouveau que l’on redoute le progrès technique. Platon craignait que l’écriture ne ruine notre esprit et notre mémoire tandis qu’au XVIIe et XVIIIe siècles, des moralistes et des médecins comparaient la lecture romanesque à une drogue voire à une habitude perverse. Ils avaient peur que certains deviennent dépendant aux romans qu’ils dévoraient et que les jeunes filles deviennent obsédées par les histoires d’amour, les détournant ainsi du travail et du mariage raisonnable. Puis, plus récemment, dans les années 2010, on a commencé à craindre le « Google effect », cette tendance à oublier les informations facilement accessibles en ligne, comme l’anniversaire de son petit cousin.

Mais le brainrot franchit aujourd’hui un nouveau cap. Sur les réseaux sociaux, la page d’accueil qui propose des contenus personnalisés s’appelle un “feed”. Poussons donc l’analogie de l’alimentation. On pourrait comparer le slop au fast food ; tous deux industrialisent un processus pour maximiser leur profit. Mais en réalité cela va même plus loin, si l’on continue de filer la métaphore, on peut dire que le streaming est l’équivalent d’un restaurant classique où l’on parcourt le menu avant de choisir, YouTube est l’équivalent d’Uber eats qui enregistre notre historique de commandes et nous fait des suggestions en fonction. TikTok, quant à lui, est une machine qui nous sert des amuses bouches en continu sans que l’on ait rien commandé. Nous n’avons plus qu’à ouvrir la bouche et avaler. On pourrait même aller plus loin et dire que cette machine calcule notre taux de satisfaction pour savoir avec quel amuse-bouche enchaîné pour que l’on ne s’arrête jamais de manger. Bref, on perd la capacité de choisir mais on gagne l’expérience d’être surpris. Et pour la grande indécise que je suis, ça pourrait être tentant. 

L’économie du brainrot, loin d’être un simple phénomène culturel, est un vrai modèle d’affaires basé sur l’IA et promu par les réseaux sociaux eux-mêmes. Ce système repose sur une séquence infinie de micro‑choix que sont les swipes, les likes, les partages et les republications. Cela nous donne l’illusion de garder notre libre arbitre alors même que nous sommes pris dans une boucle de renforcement. Un mécanisme qui consiste à ce qu’une action produise un résultat positif qui en retour encourage la répétition de cette action, créant ainsi un cycle auto-entretenu et même amplificateur. On se retrouve avec un cocktail molotov, un doux mélange de formats courts, d’un scroll infini et d’une optimisation algorithmique. Alors, doit-on interdire le scroll infini ou améliorer la modération ou bien assumer un capitalisme effréné ? 

Pour l’instant, les grandes gagnantes de l’économie du brainrot sont les plateformes, et les grandes perdantes, nos capacités attentionnelles. Plus notre cerveau « pourrit », plus Mark Zuckerberg et ses homologues gagnent de l’argent. Il y a donc un sujet d’éthique et de gouvernance des réseaux sociaux concernant leur conception même. 

Le fonctionnement des plateformes dicte leur contenu. En effet, les créateurs produisent ce qui performe le mieux donc il faut d’abord changer le fonctionnement des plateformes et son contenu suivra naturellement. Le brainrot n’est d’ailleurs pas induit par un contenu en particulier mais par sa forme : le scroll et le format court. Les contenus peuvent être aussi informationnels, scientifiques et créatifs possibles, c’est la forme qui affecte notre cerveau. Sora 2, dévoilé fin septembre 2025 par OpenAI est le successeur de Sora 1, lancé fin 2024. Le nouveau modèle de génération vidéo ultra‑réaliste est intégré à Sora, l’app iOS gratuite, concurrente directe de TikTok. Dessus, les utilisateurs consomment et créent des clips de 16 secondes 100% générés par IA et peuvent même y insérer leur visage et leur voix. Le jour du lancement de Sora 2, des deepfakes de l’assaut du Capitole remixées et des contenus racistes sont devenus virales. Par ailleurs, OpenAi a passé un accord avec l’armée américaine autorisant cette dernière à utiliser son assistant IA sans avoir instauré de garde-fous au préalable. Il est donc temps de poser de vraies limites.

Juliette WOLFRUM

Sources

Chiossi, F., Haliburton, L., Ou, C., Butz, A., & Schmidt, A. (2023). Short-form videos degrade our capacity to retain intentions: Effect of context switching on prospective memory. Proceedings of the 2023 CHI Conference on Human Factors in Computing Systemshttps://doi.org/10.1145/3544548.3580778

Barton, N., & Smyth, M. (2025). Context-switching in short-form videos: What is the impact on prospective memory? Memory33(7), 788–801. https://doi.org/10.1080/09658211.2025.2521076

Swiping more, thinking less: Using TikTok hinders analytic thinking. (s. d.). Cyberpsychology: Journal of Psychosocial Research on Cyberspacehttps://cyberpsychology.eu/article/view/33099/32852

Marie Dolle. (s. d.). Post-ironie : l’éthos de notre tempsIn Bed With Techhttps://mariedolle.substack.com/p/post-ironie-lethos-de-notre-temps

Radio France. (2025, 26 novembre). Les « slops », ces contenus « bouillie » générés par IA qui envahissent nos écrans [Podcast]. France Interhttps://www.radiofrance.fr/franceinter/podcasts/zoom-zoom-zen/zoom-zoom-zen-du-mercredi-26-novembre-2025-7487935

Radio France. (2025, 31 octobre). Double screening : les plateformes s’adaptent [Podcast]. France Interhttps://www.radiofrance.fr/franceinter/podcasts/les-80/les-80-d-ali-baddou-du-vendredi-31-octobre-2025-8762159

Libération. (2026, 8 mars). Une question de principe : une dirigeante d’OpenAI démissionne après un accord signé entre l’entreprise et la Défense américaine. https://www.liberation.fr/international/amerique/une-question-de-principe-une-dirigeante-dopenai-demissionne-apres-un-accord-signe-entre-lentreprise-et-la-defense-americaine-20260308_4Q2BHX2WSNAY3DIMUYUCTN54NE

Réseaux sociaux et IA : vers l’étreinte mortelle ?

Les réseaux sociaux grand public ont été conçus à l’origine comme des espaces d’échange conviviaux et bienveillants, fidèles à la vision de Tim Berners-Lee, cofondateur du Web, pour rapprocher les individus entre eux afin qu’ils interagissent. On peut dire que cela a été un succès, mais depuis quelque temps, une invitée s’est incrustée dans ces réseaux sociaux : l’Intelligence Artificielle, pour le meilleur et pour le pire. Aujourd’hui, il semble que nous nous orientons davantage vers le pire, au détriment des interactions humaines authentiques. 

Certaines voix alertent du danger que courent les réseaux sociaux grand public, mais il ne s’agit pas, ici, de jeter l’opprobre sur l’IA, car de nombreuses applications l’utilisant à bon escient sont devenues incontournables.

Quand l’IA devient moteur des réseaux sociaux

Pour faire face à un déclin annoncé, et dans leur lutte pour conserver ou développer leur potentiel attractif auprès des « consommateurs », par la génération de contenus et la sollicitation d’engagement, les principaux acteurs des réseaux sociaux grand public comme Facebook, Instagram, X, TikTok, etc. ont adapté leur modèle économique en ce sens et ont développé des solutions basées sur l’intégration de l’IA dans leurs produits phares. En effet, les applications d’IA évoluent à une vitesse fulgurante, et dans un marché où l’innovation permanente est la règle, particulièrement dans le numérique, il ne reste qu’une seule option : innover !

Des bots à la place des humains, la grande illusion de Meta

Prenons l’exemple de la société Meta. Après l’échec du Métavers, Mark Zuckerberg a décidé de recentrer ses efforts sur son AI Studio, une plateforme permettant aux utilisateurs de créer leurs propres chatbots. Ce qui est particulièrement surprenant, c’est l’objectif futur de Meta : intégrer ces chatbots IA en tant qu’utilisateurs à part entière sur Facebook et Instagram. Ces avatars autonomes auront des profils, pourront publier du contenu et interagir avec les utilisateurs en imitant le ton et les expressions de leur créateur. Comme l’a déclaré Connor Hayes, vice-président de Meta chargé des produits d’IA générative, dans une interview au Financial Times :

« Nous nous attendons à ce que ces [chabots] IA existent réellement, au fil du temps, sur nos plateformes, un peu de la même manière que les comptes. Ils auront des biographies et des photos de profil et pourront générer et partager du contenu alimenté par l’IA sur la plateforme… c’est là que nous voyons tout cela aller ».

L’ère du contenu artificiel : une attractivité biaisée

Comme l’objectif de ces plateformes est d’attirer les jeunes, un public crucial pour leur survie, cette initiative soulève quand même des questions, et parmi celles-ci : comment un réseau social peuplé de bots plutôt que d’humains peut-il réellement séduire les utilisateurs avec du contenu généré artificiellement et des interactions automatisées ? Si Instagram et Facebook finissent par être dominés par des robots IA interagissant principalement entre eux, il est probable que les utilisateurs humains cherchent à quitter ces plateformes pour trouver des interactions plus authentiques. Ainsi, cette initiative pourrait avoir l’effet inverse de celui recherché.

L’IA qui s’auto-alimente, vers un futur fait de faux ?

Puisque l’IA se nourrit des contenus déjà présents sur Internet, la prolifération de contenus générés par des bots IA pourrait devenir problématique. D’après un rapport du laboratoire d’innovation d’Europol, l’agence européenne de police criminelle, l’IA pourrait produire jusqu’à 90 % du contenu en ligne d’ici 2026. On se retrouvera face à une boucle de rétroaction positive dégénérative : l’IA se nourrissant presqu’exclusivement de ses propres productions.

Quelle allure aura le contenu ? On aboutira au phénomène appelé « modèle collapse » avec la production de résultats de plus en plus absurdes, ou encore au principe de « chambre d’écho » ou de « biais de confirmation« , renforçant certaines croyances sans ouverture sur d’autres perspectives. Les fausses informations tourneront en boucle, érodant ainsi la confiance dans l’information elle-même et dans le pire des cas, cela pourrait conduire à une méfiance totale à l’égard de tout. S’il n’est pas mis au point un bon équilibre entre auto-réutilisation et diversité des données, alors il est inéluctable que l’IA (et le réseau social qui l’intègre) ne finisse enfermée dans son propre écosystème appauvri, tout cela accompagné de la fuite des utilisateurs.

Parallèlement à la potentielle dégradation du contenu par la prolifération de bots IA, les réseaux sociaux grand public sont confrontés à un autre problème. En effet, actuellement, Facebook est envahi par des images et des textes « low-cost » générés par IA. Cela porte un nom : l’AI Slop.

« Slop » en anglais signifie « saloperie » ou « trucs mal faits ». L’AI slop décrit donc du contenu généré par IA qui est bâclé, trompeur, incohérent et sans valeur. Le « slop » devient la nouvelle pollution numérique qui envahit le web : un flot incessant de contenus médiocres générés par l’IA, qui compromet la qualité et l’authenticité. Initialement, cette tendance à voir apparaître du contenu de mauvaise qualité généré par des spammeurs utilisant de l’IA était déjà le premier signe « d’enshitification » (« emmerdification » en français) par TikTok avec son sludge content, devenu courant sur la plateforme à partir de 2022, reflétant l’évolution des stratégies pour attirer et retenir l’attention des internautes. Puis Facebook lui a emboîté le pas. Ce concept d’« emmerdification » a été théorisé en fin 2022 par le journaliste Cory Doctorow, pour évoquer le déclin systémique des principaux réseaux sociaux grand public et la stratégie qu’ont ces derniers pour y faire face, notamment en intégrant l’IA à leurs plateformes.

Image générée par l’IA de « Shrimp Jesus » (Facebook, 2024) 

Sommes-nous en train d’assister à la « merdification » des réseaux sociaux, où le contenu humain est progressivement remplacé par des simulations ?

Ces IA Slop sont souvent conçues, d’une part, pour maximiser l’engagement basé sur les bons sentiments et la compassion (bébés, animaux, religion etc.). Ces contenus attirent un public plus âgé et conservateur et cette évolution profite à des créateurs anonymes qui peuvent monétiser leurs pages. De plus, l’engagement de ce public est amplifié par des bots automatisés, qui interagissent massivement avec ces publications. Par ailleurs, certaines pages potentiellement frauduleuses exploitent également des images générées par l’IA Slop, mettant en scène des designs visuellement attractifs pour attirer l’attention. De même, certaines pages générées par l’IA Slop sont conçues pour capter l’attention des internautes et les rediriger, via des liens, vers des sites externes au réseau social, probablement dans le but de générer des revenus publicitaires.
À mesure que les IA gagnent en performance, il devient de plus en plus difficile de distinguer le contenu réel du contenu synthétique en ligne, ce qui soulève inévitablement la question de la confiance dans ces médias.

*Image générée par l’IA

La musique, une autre victime du Slop

Les secteurs de l’image et du texte ne sont pas les seuls concernés par l’IA Slop. La musique l’est également. À l’instar de la Muzak des années 70/80, musique produite en série, souvent sans âme, pour remplir des espaces sonores, Spotify et d’autres plateformes de streaming semblent effectivement recréer une forme de Muzak 2.0, mais cette fois générée par IA. Il est possible de créer une musique de qualité avec l’IA, mais l’intervention de l’artiste est fondamentale, ne serait-ce que pour « prompter » l’IA.

Mais alors, que se passerait-il si l’IA produisait seule, à grande échelle ? On assisterait à une boucle de rétroaction musicale : des morceaux d’ambiance générés automatiquement, sans rémunérer de créateurs, alimenteraient les playlists, reléguant les artistes humains dans l’ombre. Ces mêmes morceaux serviraient ensuite de données pour affiner encore davantage la production, perpétuant ainsi le cycle. Ce processus s’apparente à une forme « d’auto-cannibalisation » de la musique populaire : en privilégiant ses propres morceaux générés par IA, Spotify façonne les habitudes d’écoute de ses utilisateurs, ce qui risque d’appauvrir la diversité et la qualité musicale.

Vers un Internet fantôme

Cette artificialisation des productions numériques s’explique en partie par le changement de modèle économique des plateformes. La production à la pelle de contenus engageants, leur partage automatisé et donc le recours à de l’IA, est encouragé. Josh Yoshija Walter, professeur à l’université de Berne et auteur de l’article Artificial influencers and the dead internet theory, déclare : 

« […] à ce stade, la création de contenus comme les influenceurs artificiels n’est pas totalement automatisée, mais je pense qu’elle le sera bientôt. ».

La théorie de l’Internet mort, apparue dans les années 2010, vue comme théorie du complot, puis reprise en 2021, paraît de plus en plus conforme à la réalité et d’autant plus crédible que les bots IA s’abonnent et interagissent entre eux pour gonfler leur nombre d’abonnés et gagner en légitimité auprès de vrais humains dans le but de les influencer. Pour Josh Yoshija Walter :

« On peut craindre que l’humain consacre de plus en plus son temps, son énergie, ses émotions à des choses fausses ».

Si rien n’est fait pour authentifier les IA et encadrer leurs usages, la mort de l’Internet pourrait bien advenir.

Inès Jouffe


Sources

  1. TOMASZEWSKI M. (2024) « La théorie de l’Internet mort plus vraisemblable que jamais » – L’ADN https://www.ladn.eu/media-mutants/la-theorie-de-linternet-mort-plus-vraisemblable-que-jamais/
  2. Gaulhet M. (2023) « Model Collapse des IA : clap de fin pour la hype ? » – ISLEAN https://islean-consulting.fr/fr/transformation-digitale/model-collapse-des-ia-clap-de-fin-pour-la-hype/
  3. Klee M. (2024) « FACEBOOK AND INSTAGRAM TO UNLEASH AI-GENERATED ‘USERS’ NO ONE ASKED FOR » – RollingStone https://www.rollingstone.com/culture/culture-news/meta-ai-users-facebook-instagram-1235221430/
  4. Stokel-Walker C. (2024) « Spotify is full of AI music, and some say it’s ruining the platforme » – FastCompany https://www.fastcompany.com/91170296/spotify-ai-music
  5. Bouafassa C. (2025) « Slop AI : c’est quoi cet énorme spam d’intelligence artificielle qui pollue Internet et peut vous gâcher la vie ? » – GQ https://www.gqmagazine.fr/article/slop-ai-c-est-quoi-cet-enorme-spam-d-intelligence-artificielle-qui-pollue-internet-et-peut-vous-gacher-la-vie
  6. Mahdawi A. (2025) « AI-generated ‘slop’ is slowly killing the internet, so why is nobody trying to stop it? » – The Guardian https://www.theguardian.com/global/commentisfree/2025/jan/08/ai-generated-slop-slowly-killing-internet-nobody-trying-to-stop-it
  7. Batista Cabanas L. (2025) « ‘AI slop’ is flooding the Internet. This is how can you tell if an image is artificially generated » – Euronews https://www.euronews.com/next/2025/02/16/ai-slop-is-flooding-the-internet-this-is-how-can-you-tell-if-an-image-is-artificially-gene
  8. Hoffman B. (2024) « First Came ‘Spam.’ Now, With A.I., We’ve Got ‘Slop’ » – New York Times https://www.nytimes.com/2024/06/11/style/ai-search-slop.html
  9. Brosseau F. (2022) « D’ici 2026, 90% du contenu en ligne sera produit par des IA, selon des experts » – Trust My Science https://trustmyscience.com/2026-90-contenu-ligne-sera-produit-par-ia/
  10. « Enshittification: The Deterioration of Online Platforms » – Communication Generation https://www.communication-generation.com/enshitification/

Quitter la version mobile