Gourous 2.0 : quand les réseaux sociaux deviennent un terrain de manipulation sectaire

Je ne cherche pas à faire du prosélytisme, je veux juste partager la bonne nouvelle”, déclare la youtubeuse So Andy dans sa dernière vidéo sur son baptême évangélique. Pourtant, la créatrice de contenu lifestyle a fait vivement réagir sa communauté suite à l’annonce de sa conversion. Ses fans s’interrogent : Andy glamourise-t-elle des dérives sectaires ? En cause : le mouvement évangélique est surveillé de près par la Miviludes, l’organisation chargée du suivi et de l’analyse des phénomènes de culte en France.

En 2021, cette dernière a reçu 4 020 saisines, soit une hausse de 86% en 5 ans. Dans son dernier rapport, elle pointe du doigt l’émergence de “gourous 2.0”, dont l’ascension a grandement été facilitée par la crise sanitaire. Avec la santé comme préoccupation principale et Internet comme outil majeur de socialisation, bon nombre de groupes marginalisés se sont formés durant cette période, parfois qualifiés de dérives sectaires. En exploitant les peurs liées à la santé, des gourous ont profité de ce contexte pour partager des “recettes miracles” ou des théories complotistes, ce qui a mené à un rebond des phénomènes sectaires en France. 

REPENSER LA NOTION DE SECTE À L’ÈRE NUMÉRIQUE

Si le terme de “secte” peut être employé dans le langage courant pour décrire ce type de mouvance, il n’a en réalité pas de définition juridique en France. Dans plusieurs de ses ouvrages, le sociologue Étienne Ollion rappelle que les sectes ont longtemps été vues comme des groupes religieux dissidents commettant une erreur théologique. Or, les sectes devenant davantage déconnectées du fait religieux, il avance que ce terme ne reflète plus la réalité actuelle. 

C’est pourquoi les autorités et les associations préfèrent parler de “dérive sectaire”, qualifiée par Michel Monroy et Anne Fournier de “construction d’une allégeance inconditionnelle au sein d’un isolat culturel autoréférent, à caractère expansif dans différents domaines de la vie individuelle”. Autrement dit, il s’agit d’une emprise totale exercée par un groupe fermé, qui ne reconnaît que ses propres croyances et s’immisce progressivement dans tous les aspects de la vie de ses membres.

Photo iStock © Jantanee Rungpranomkorn

Aujourd’hui, les dérives sectaires ne concernent plus seulement la spiritualité. Elles peuvent être présentes dans le développement personnel, les cryptomonnaies, ou encore le coaching, déplaçant la croyance vers des sphères plus concrètes. Les dérives sectaires en ligne peuvent aussi paraître moins menaçantes, car elles ne passent pas par des groupes physiques. Autrefois cantonnées à des communautés fermées et physiques, elles se diffusent désormais à grande échelle sous des formes mobiles, changeantes, et impalpables.

UN FONCTIONNEMENT PROPICE AUX DÉRIVES

Réseaux sociaux et dérives sectaires partagent un point commun : l’influence. Si tous les utilisateurs de réseaux sociaux ne rejoignent pas des groupes sectaires, le fonctionnement de ces plateformes s’est avéré être un terrain particulièrement fertile pour l’embrigadement. L’algorithme de recommandation y joue le rôle de prosélyte, en exploitant divers mécanismes déjà bien connus des sectes traditionnelles. 

Le biais de confirmation est l’une des premières techniques citées par le Dr. Steven Hassan, un auteur spécialisé dans le domaine des cultes. À mesure qu’il passe du temps sur la plateforme, l’utilisateur obtient un feed personnalisé, ne voyant plus que des contenus renforçant ses croyances. Les discours tenus deviennent alors de plus en plus radicaux, sans que l’individu ne s’en rende compte. Un avantage considérable pour les gourous, qui profitent de cette bulle de filtre pour partager des récits et des vérités partielles, alignées sur leur doctrine. Les algorithmes amplifient aussi la diffusion de ce contenu, car il est susceptible de créer un fort engagement. À cela s’ajoute l’absence d’intermédiaire entre l’émetteur du message et l’utilisateur, ce qui renforce l’impact du contenu.

Certaines Églises considérées comme ayant des dérives sectaires par la Miviludes en profitent pour diffuser leur idéologie. L’Église de Scientologie a récemment lancé une campagne de promotion “Bienvenue en Scientologie” sur Facebook, Instagram et X. Face aux nombreux signalements auprès de la Miviludes, le mouvement s’est vite défendu : “Nous voulons apporter des réponses sur ce qu’est notre religion et qui nous sommes.”

Capture d’écran d’une publicité sponsorisée de l’église de scientologie sur Instagram

Les réseaux sociaux deviennent ainsi des outils privilégiés pour diffuser des idéologies radicales. Il s’agit in fine d’un processus typique des dérives sectaires : un endoctrinement fait de manière incrémentale, introduisant graduellement des idées fausses et radicales.

LES INFLUENCEURS CHARISMATIQUES, UN LEVIER D’EMBRIGADEMENT EN LIGNE

À la faveur de ce contexte, de nouveaux acteurs ont émergé : les gourous 2.0. Plus discrets, maîtrisant le web et les processus de manipulation, ces nouveaux gourous se sont multipliés après la pandémie de Covid-19.  

Sur les réseaux sociaux, leur aura ne repose plus uniquement sur leurs qualités personnelles, mais aussi sur l’engagement de leur communauté. C’est ce que démontrent Hayley Cocker et James Cronin dans leur essai “Charismatic authority and the YouTuber: Unpacking the new cults of personality”, en appliquant le concept d’“autorité charismatique” de Max Weber aux acteurs du web. Contrairement aux figures charismatiques traditionnelles, les gourous 2.0 bâtissent leur légitimité via un processus participatif : likes, commentaires et partages deviennent les piliers d’un charisme alimenté en continu par la validation de leur audience. Les gourous 2.0 s’érigent aussi en figures de rupture, rejetant les savoirs établis au profit d’idées qu’ils présentent comme révolutionnaires. Thierry Casasnovas en est un parfait exemple :  surnommé “le pape du crudivorisme”, ce youtubeur a fait l’objet de 54 signalements auprès de la Miviludes en 2021. Dans ses vidéos, il nie l’existence des maladies, accuse la médecine de nuire à la santé et encourage ses abonnés à abandonner leurs traitements pour des jus de légumes et des jeûnes prolongés.

Derrière ce discours, l’emprise peut s’avérer réelle : des témoignages font état de graves conséquences physiques et psychologiques chez ses adeptes. Parmi les témoignages reçus par la Miviludes, un homme avance que sa femme « ne veut plus aller voir son médecin traitant qu’elle connaît pourtant très bien” et qu’elle “a perdu 8 kilos à force de jeûner« . Pourtant, malgré sa mise en examen, Thierry Casasnovas continue à prospérer grâce aux revenus générés par YouTube et ses formations en ligne.

Lorsqu’un influenceur devient un repère central dans la vie de ses abonnés, la frontière entre admiration et emprise peut donc vite s’estomper. Cette proximité illusoire peut nourrir une dépendance affective et rendre une communauté particulièrement vulnérable aux dérives. C’est ce que pointe du doigt le cas d’Ophenya, une influenceuse de 24 ans signalée à la justice après les alertes du collectif “Mineurs Éthiques et Réseaux” et de la Miviludes. Majoritairement composée d’adolescentes, sa communauté n’hésite pas à la surnommer “maman” et à la comparer à une grande sœur. Son engagement contre le harcèlement scolaire lui a valu une immense popularité, mais aussi des dérives qui inquiètent. 

Ses interactions dépassent le cadre d’une simple relation influenceur-abonné : lives nocturnes, discussions privées prolongées, et pression sociale forte au sein de sa communauté, où ceux qui prennent leurs distances sont mal vus. Ophenya n’hésite pas à intervenir directement dans la vie de ses abonnés, allant même jusqu’à appeler l’école d’une jeune fille harcelée. Elle invite également des mineurs à se confier durant ses live Tik Tok, une pratique pourtant interdite par l’application. Cette idée lui a coûté son compte cumulant plus de 5 millions d’abonnés, qui a été définitivement supprimé pour non-respect des règles à la communauté. Cela ne l’empêche pas de continuer à partager du contenu sur sa page Instagram.

UN CADRE JURIDIQUE EN PLEINE ÉVOLUTION

Face à ces dérives, comment réagir ? Signaler ce type de contenu aux réseaux sociaux est possible, mais en pratique, cela n’a pas beaucoup d’impact. En revanche informer la Miviludes peut être une meilleure option, puisque l’organisme regroupe les signalements des victimes d’un même gourou, pour en amplifier la portée. 

Sur le plan juridique, plusieurs infractions peuvent être retenues selon le contexte : exercice illégal de la médecine, mise en danger de la personne ou abus de l’état de sujétion psychologique. Cette dernière infraction a été particulièrement renforcée par la loi du 10 mai 2024, qui prévoit une peine aggravée lorsque l’infraction est commise via un service de communication en ligne ou par tout support numérique. L’objectif est clair : viser les dérives sectaires sur les réseaux sociaux.

Pour autant, malgré les signalements auprès de la Miviludes, les influenceurs mis en cause poursuivent leur activité. L’heure n’est donc pas encore aux sanctions, mais à la compréhension d’un phénomène qui risque de fortement s’intensifier.

Emy Lesieur

Sources

Réseaux sociaux et IA : vers l’étreinte mortelle ?

Les réseaux sociaux grand public ont été conçus à l’origine comme des espaces d’échange conviviaux et bienveillants, fidèles à la vision de Tim Berners-Lee, cofondateur du Web, pour rapprocher les individus entre eux afin qu’ils interagissent. On peut dire que cela a été un succès, mais depuis quelque temps, une invitée s’est incrustée dans ces réseaux sociaux : l’Intelligence Artificielle, pour le meilleur et pour le pire. Aujourd’hui, il semble que nous nous orientons davantage vers le pire, au détriment des interactions humaines authentiques. 

Certaines voix alertent du danger que courent les réseaux sociaux grand public, mais il ne s’agit pas, ici, de jeter l’opprobre sur l’IA, car de nombreuses applications l’utilisant à bon escient sont devenues incontournables.

Quand l’IA devient moteur des réseaux sociaux

Pour faire face à un déclin annoncé, et dans leur lutte pour conserver ou développer leur potentiel attractif auprès des « consommateurs », par la génération de contenus et la sollicitation d’engagement, les principaux acteurs des réseaux sociaux grand public comme Facebook, Instagram, X, TikTok, etc. ont adapté leur modèle économique en ce sens et ont développé des solutions basées sur l’intégration de l’IA dans leurs produits phares. En effet, les applications d’IA évoluent à une vitesse fulgurante, et dans un marché où l’innovation permanente est la règle, particulièrement dans le numérique, il ne reste qu’une seule option : innover !

Des bots à la place des humains, la grande illusion de Meta

Prenons l’exemple de la société Meta. Après l’échec du Métavers, Mark Zuckerberg a décidé de recentrer ses efforts sur son AI Studio, une plateforme permettant aux utilisateurs de créer leurs propres chatbots. Ce qui est particulièrement surprenant, c’est l’objectif futur de Meta : intégrer ces chatbots IA en tant qu’utilisateurs à part entière sur Facebook et Instagram. Ces avatars autonomes auront des profils, pourront publier du contenu et interagir avec les utilisateurs en imitant le ton et les expressions de leur créateur. Comme l’a déclaré Connor Hayes, vice-président de Meta chargé des produits d’IA générative, dans une interview au Financial Times :

« Nous nous attendons à ce que ces [chabots] IA existent réellement, au fil du temps, sur nos plateformes, un peu de la même manière que les comptes. Ils auront des biographies et des photos de profil et pourront générer et partager du contenu alimenté par l’IA sur la plateforme… c’est là que nous voyons tout cela aller ».

L’ère du contenu artificiel : une attractivité biaisée

Comme l’objectif de ces plateformes est d’attirer les jeunes, un public crucial pour leur survie, cette initiative soulève quand même des questions, et parmi celles-ci : comment un réseau social peuplé de bots plutôt que d’humains peut-il réellement séduire les utilisateurs avec du contenu généré artificiellement et des interactions automatisées ? Si Instagram et Facebook finissent par être dominés par des robots IA interagissant principalement entre eux, il est probable que les utilisateurs humains cherchent à quitter ces plateformes pour trouver des interactions plus authentiques. Ainsi, cette initiative pourrait avoir l’effet inverse de celui recherché.

L’IA qui s’auto-alimente, vers un futur fait de faux ?

Puisque l’IA se nourrit des contenus déjà présents sur Internet, la prolifération de contenus générés par des bots IA pourrait devenir problématique. D’après un rapport du laboratoire d’innovation d’Europol, l’agence européenne de police criminelle, l’IA pourrait produire jusqu’à 90 % du contenu en ligne d’ici 2026. On se retrouvera face à une boucle de rétroaction positive dégénérative : l’IA se nourrissant presqu’exclusivement de ses propres productions.

Quelle allure aura le contenu ? On aboutira au phénomène appelé « modèle collapse » avec la production de résultats de plus en plus absurdes, ou encore au principe de « chambre d’écho » ou de « biais de confirmation« , renforçant certaines croyances sans ouverture sur d’autres perspectives. Les fausses informations tourneront en boucle, érodant ainsi la confiance dans l’information elle-même et dans le pire des cas, cela pourrait conduire à une méfiance totale à l’égard de tout. S’il n’est pas mis au point un bon équilibre entre auto-réutilisation et diversité des données, alors il est inéluctable que l’IA (et le réseau social qui l’intègre) ne finisse enfermée dans son propre écosystème appauvri, tout cela accompagné de la fuite des utilisateurs.

Parallèlement à la potentielle dégradation du contenu par la prolifération de bots IA, les réseaux sociaux grand public sont confrontés à un autre problème. En effet, actuellement, Facebook est envahi par des images et des textes « low-cost » générés par IA. Cela porte un nom : l’AI Slop.

« Slop » en anglais signifie « saloperie » ou « trucs mal faits ». L’AI slop décrit donc du contenu généré par IA qui est bâclé, trompeur, incohérent et sans valeur. Le « slop » devient la nouvelle pollution numérique qui envahit le web : un flot incessant de contenus médiocres générés par l’IA, qui compromet la qualité et l’authenticité. Initialement, cette tendance à voir apparaître du contenu de mauvaise qualité généré par des spammeurs utilisant de l’IA était déjà le premier signe « d’enshitification » (« emmerdification » en français) par TikTok avec son sludge content, devenu courant sur la plateforme à partir de 2022, reflétant l’évolution des stratégies pour attirer et retenir l’attention des internautes. Puis Facebook lui a emboîté le pas. Ce concept d’« emmerdification » a été théorisé en fin 2022 par le journaliste Cory Doctorow, pour évoquer le déclin systémique des principaux réseaux sociaux grand public et la stratégie qu’ont ces derniers pour y faire face, notamment en intégrant l’IA à leurs plateformes.

Image générée par l’IA de « Shrimp Jesus » (Facebook, 2024) 

Sommes-nous en train d’assister à la « merdification » des réseaux sociaux, où le contenu humain est progressivement remplacé par des simulations ?

Ces IA Slop sont souvent conçues, d’une part, pour maximiser l’engagement basé sur les bons sentiments et la compassion (bébés, animaux, religion etc.). Ces contenus attirent un public plus âgé et conservateur et cette évolution profite à des créateurs anonymes qui peuvent monétiser leurs pages. De plus, l’engagement de ce public est amplifié par des bots automatisés, qui interagissent massivement avec ces publications. Par ailleurs, certaines pages potentiellement frauduleuses exploitent également des images générées par l’IA Slop, mettant en scène des designs visuellement attractifs pour attirer l’attention. De même, certaines pages générées par l’IA Slop sont conçues pour capter l’attention des internautes et les rediriger, via des liens, vers des sites externes au réseau social, probablement dans le but de générer des revenus publicitaires.
À mesure que les IA gagnent en performance, il devient de plus en plus difficile de distinguer le contenu réel du contenu synthétique en ligne, ce qui soulève inévitablement la question de la confiance dans ces médias.

*Image générée par l’IA

La musique, une autre victime du Slop

Les secteurs de l’image et du texte ne sont pas les seuls concernés par l’IA Slop. La musique l’est également. À l’instar de la Muzak des années 70/80, musique produite en série, souvent sans âme, pour remplir des espaces sonores, Spotify et d’autres plateformes de streaming semblent effectivement recréer une forme de Muzak 2.0, mais cette fois générée par IA. Il est possible de créer une musique de qualité avec l’IA, mais l’intervention de l’artiste est fondamentale, ne serait-ce que pour « prompter » l’IA.

Mais alors, que se passerait-il si l’IA produisait seule, à grande échelle ? On assisterait à une boucle de rétroaction musicale : des morceaux d’ambiance générés automatiquement, sans rémunérer de créateurs, alimenteraient les playlists, reléguant les artistes humains dans l’ombre. Ces mêmes morceaux serviraient ensuite de données pour affiner encore davantage la production, perpétuant ainsi le cycle. Ce processus s’apparente à une forme « d’auto-cannibalisation » de la musique populaire : en privilégiant ses propres morceaux générés par IA, Spotify façonne les habitudes d’écoute de ses utilisateurs, ce qui risque d’appauvrir la diversité et la qualité musicale.

Vers un Internet fantôme

Cette artificialisation des productions numériques s’explique en partie par le changement de modèle économique des plateformes. La production à la pelle de contenus engageants, leur partage automatisé et donc le recours à de l’IA, est encouragé. Josh Yoshija Walter, professeur à l’université de Berne et auteur de l’article Artificial influencers and the dead internet theory, déclare : 

« […] à ce stade, la création de contenus comme les influenceurs artificiels n’est pas totalement automatisée, mais je pense qu’elle le sera bientôt. ».

La théorie de l’Internet mort, apparue dans les années 2010, vue comme théorie du complot, puis reprise en 2021, paraît de plus en plus conforme à la réalité et d’autant plus crédible que les bots IA s’abonnent et interagissent entre eux pour gonfler leur nombre d’abonnés et gagner en légitimité auprès de vrais humains dans le but de les influencer. Pour Josh Yoshija Walter :

« On peut craindre que l’humain consacre de plus en plus son temps, son énergie, ses émotions à des choses fausses ».

Si rien n’est fait pour authentifier les IA et encadrer leurs usages, la mort de l’Internet pourrait bien advenir.

Inès Jouffe


Sources

  1. TOMASZEWSKI M. (2024) « La théorie de l’Internet mort plus vraisemblable que jamais » – L’ADN https://www.ladn.eu/media-mutants/la-theorie-de-linternet-mort-plus-vraisemblable-que-jamais/
  2. Gaulhet M. (2023) « Model Collapse des IA : clap de fin pour la hype ? » – ISLEAN https://islean-consulting.fr/fr/transformation-digitale/model-collapse-des-ia-clap-de-fin-pour-la-hype/
  3. Klee M. (2024) « FACEBOOK AND INSTAGRAM TO UNLEASH AI-GENERATED ‘USERS’ NO ONE ASKED FOR » – RollingStone https://www.rollingstone.com/culture/culture-news/meta-ai-users-facebook-instagram-1235221430/
  4. Stokel-Walker C. (2024) « Spotify is full of AI music, and some say it’s ruining the platforme » – FastCompany https://www.fastcompany.com/91170296/spotify-ai-music
  5. Bouafassa C. (2025) « Slop AI : c’est quoi cet énorme spam d’intelligence artificielle qui pollue Internet et peut vous gâcher la vie ? » – GQ https://www.gqmagazine.fr/article/slop-ai-c-est-quoi-cet-enorme-spam-d-intelligence-artificielle-qui-pollue-internet-et-peut-vous-gacher-la-vie
  6. Mahdawi A. (2025) « AI-generated ‘slop’ is slowly killing the internet, so why is nobody trying to stop it? » – The Guardian https://www.theguardian.com/global/commentisfree/2025/jan/08/ai-generated-slop-slowly-killing-internet-nobody-trying-to-stop-it
  7. Batista Cabanas L. (2025) « ‘AI slop’ is flooding the Internet. This is how can you tell if an image is artificially generated » – Euronews https://www.euronews.com/next/2025/02/16/ai-slop-is-flooding-the-internet-this-is-how-can-you-tell-if-an-image-is-artificially-gene
  8. Hoffman B. (2024) « First Came ‘Spam.’ Now, With A.I., We’ve Got ‘Slop’ » – New York Times https://www.nytimes.com/2024/06/11/style/ai-search-slop.html
  9. Brosseau F. (2022) « D’ici 2026, 90% du contenu en ligne sera produit par des IA, selon des experts » – Trust My Science https://trustmyscience.com/2026-90-contenu-ligne-sera-produit-par-ia/
  10. « Enshittification: The Deterioration of Online Platforms » – Communication Generation https://www.communication-generation.com/enshitification/

Anorexie et réseaux sociaux: quand la maladie devient glamour

Attention, cet article fait sujet de l’anorexie et des troubles alimentaires et comportent des images graphiques pouvant heurter la sensibilité. Il est conseillé aux lecteurs avertis et se sentant prêts à pouvoir le lire. Si vous avez besoin d’aide, vous pouvez consulter le site de la Fédération Française Anorexie Boulimie: https://www.ffab.fr/

De Tumblr à Tiktok, en passant par X, les hashtags #proana, #starving, #thinspo ou encore #edtwt recensent des centaines de milliers de mentions. Sous ces hashtags, ce sont des textes, des images et des vidéos expliquant comment s’affamer et demandant des conseils pour perdre du poids rapidement. Aujourd’hui, ce sont les adolescents et les jeunes adultes qui se connectent en majorité sur les réseaux sociaux avec 88% des 18-29 ans qui ont une connexion journalière. Pourtant, parmi cette population, ceux passant le plus de temps par jour sur les réseaux sociaux et qui atteignent le plus grand nombre de visites par semaine, présenteraient un risque 2,2 à 2,6 fois plus élevé d’être concerné par un trouble alimentaire. Comment peut-on expliquer ce phénomène?

L’anorexie: une maladie en hausse dans des régions bien ciblées

L’anorexie est un trouble psychique se manifestant par un refus catégorique de s’alimenter pendant une longue période afin de perdre du poids ou de ne pas en prendre. Du fait de cette phobie de grossir, une personne atteinte d’anorexie exerce un contrôle permanent sur son alimentation en comptant les nombre de calories ingérées, souvent couplé à une pratique excessive de sport  afin d’accélérer la perte de poids. Cette maladie n’affecte pas seulement le corps mais aussi la santé mentale, provoquant des troubles de l’humeur et des symptômes de dépression. Depuis plus de 50 ans, une hausse constante de l’anorexie est observée, en particuliers chez les femmes et les adolescents (une personne sur huit). Chez les enfants, le taux de cas d’anorexie a augmenté de 119% en 10 ans, un chiffre alarmant. 

La distribution géographique de l’anorexie est étroitement liée aux pays développés et industrialisés, particulièrement en Occident (aux Etats-Unis, Europe de l’Ouest, Corée du Sud…), où environ 0,6% de la population féminine est touchée, atteignant même 1,5% chez les femmes de 15 à 35 ans en France. Si dans les pays en “voie de développement” cette maladie était historiquement rare, elle semble émerger progressivement dans les parties “occidentalisées” depuis les années 1980, particulièrement dans les métropoles. Les milieux les plus touchés sont donc les milieux urbains, où l’aces aux médias est plus facile. 

Dans les médias, des normes de beauté bien définies

Les normes de beauté changent continuellement, mais depuis les années 90, le maître mot de la mannequin Kate Moss “Nothing tastes as good as skinny feels” (rien n’a meilleur goût que la minceur)  semble ne jamais avoir été oublié. 

Le contenu proposé sur les réseaux sociaux ne laisse pas de place au hasard grâce à leurs algorithmes favorisant certains types de contenus proposés aux utilisateurs. Il a toujours été sujet de promouvoir une version améliorée de soi-même avec une vie rêvée mais également un corps s’inscrivant dans les normes de beauté, difficilement dissociable de la minceur obligatoire chez les mannequins. Avant, il fallait être mince (pour ne pas dire maigre) afin d’être mannequin, maintenant il faut l’être pour être aimé sur les réseaux sociaux. Grâce à ces algorithmes, les contenus mis en avant et proposés aux utilisateurs sont ceux de personnes, d’influenceurs au corps mince. Afin de toujours montrer son corps sous le prisme de la minceur, on peut accélérer le processus en retouchant ses photos sans que personne ne s’en aperçoive. Nous sommes donc plus susceptibles de voir un seul type de corps bien souvent inatteignable si notre morphologie ne nous le permet pas. 

Sur Tiktok, la communauté “Skinnytok” prend de plus en plus d’ampleur avec des vidéos expliquant comment perdre du poids et comment se motiver pour en perdre. Ce sont plus d’un million de publications en rapport avec cette communauté. Le maître mot est très simple: la violence. Des phrases chocs comme “You’re not a dog, you don’t deserve a treat” (tu n’es pas un chien, tu ne mérites pas de récompense) ou encore « You’re not ugly, you’re fat » (tu n’es pas moche, tu es grosse) afin d’augmenter la culpabilité. Les vidéos commencent systématiquement par un “body check” – la personne se présente en sous-vêtement au réveil, avec un ventre extrêmement plat – suggérant ainsi que suivre le mode de vie « Skinnytok » permettra d’atteindre son corps.  

Les réseaux sociaux sont des vitrines où l’on peut contrôler son image et ne montrer que ce qu’on a envie que les gens voient de nous et construire un mythe autour de nous-même. Si les réseaux sociaux ne sont pas la réalité, lorsque l’on revient dans le monde réel, il est bien difficile de faire la différence. En effet, une étude menée par le département de la nutrition de l’université du Rhode Island conclut que 50% des participants ont changé leur alimentation à cause des réseaux sociaux et 49% des utilisateurs d’Instagram suivant des comptes de “mode de vie sain” ont montré des symptômes d’anorexie. 

Des communautés qui s’articulent autour de l’anorexie

Si les réseaux sociaux promeuvent des comportements alimentaires dangereux, certains d’entre eux sont le refuge de personnes souffrant d’anorexie depuis bien longtemps. Sur X (anciennement Twitter), Tumblr et aujourd’hui Tiktok, des communautés se sont formées, banalisant et influençant grandement l’anorexie auprès des autres utilisateurs. 

Lors de son arrivée en 2007, Tumblr était la transition parfaite entre le blog et le réseau social tel qu’on le connaît aujourd’hui. Tumblr était connu pour son esthétique grunge, où les utilisateurs publiaient de longs posts exprimant leur mal-être et échangeaient avec une communauté compréhensive. De l’autre côté, Tumblr était grandement réputé pour être le réseau social où l’on pouvait vivre son anorexie comme si celle-ci était anodine. De nombreux utilisateurs étaient proches de l’idolâtrie des personnes aux corps maigres. L’exemple à suivre était les célébrités anorexiques ou les personnages de fiction malades, dont on éditait le corps de manière attractive comme si on ne parlait pas d’un réel trouble. L’exemple le plus notoire de ce phénomène est le personnage de Cassie, de la série britannique Skins (2007-2013). Les fans de la série n’hésitaient à créer des montages photos ou vidéos avec des slogans pro-anorexie comme “Keep Calm and Stop Eating Until They Take You To Hospital” – littéralement : reste calme et arrête de manger jusqu’à ce qu’ils t’emmènent à l’hôpital. La glamourisation de ces personnages n’est pas sans conséquences: une étude de 2014 a montré que la manière dont sont dépeintes ces personnes a fait augmenter de 33% les recherches sur les troubles de l’alimentation et le désir d’être maigre.

Si Tumblr a établi les règles, X n’a rien à envier au réseau social en termes de communauté promouvant l’anorexie dans sa forme la plus dure. Cette communauté, le monde la connaît sous le nom “edtwt” signifiant eating disorder twitter. Dessus, on s’échange des conseils pour ignorer sa faim et ne pas suivre les règles peut entraîner une exclusion ou encore des messages de sa propre communauté demandant si la personne a finalement décidé d’être obèse. 

Derrière nos écrans de fumée, de nombreuses communautés se sont formées autour du mal-être, parmi elles, les communautés propres à l’anorexie. Faire partie de cette communauté donne un sentiment d’appartenance à ses membres, qui se sentent compris et libres de pouvoir laisser cours à leur maladie. Pourtant, c’est peut-être cet aspect qui est oublié: l’anorexie est une maladie. La face cachée de cette appartenance est l’isolation de son entourage et le besoin d’être comme les membres de sa communauté, au risque de ne plus en faire partie. 

Si les réseaux sociaux tentent de modérer le contenu ouvertement pro anorexique, en supprimant les posts comportant certains hashtags et censurant des vidéos comportant certains mots (comme le mot anorexie dans les deux cas de figure), ces derniers ont été détournés. Les communautés ont su contourner cette censure en utilisant des synonymes et mots inventés, proches des hashtags originaux et facilement compréhensible. Par exemple, le hashtag “#edsheeraned” connaît un certain succès, faisant référence au chanteur Ed Sheeran mais les deux premières lettres sont destinées au “eating disorder”.

Là où plusieurs communautés en ligne exploitent les réseaux sociaux pour leur viralité, les communautés pro-ana y développent des réseaux exclusifs où l’effort d’amaigrissement via des méthodes malsaines est la clé d’entrée. En exploitant des exemples de célébrités et personnages privilégiés extrêmement mince, les réseaux sociaux promeuvent l’anorexie auprès des personnes jeunes et impressionnables en leur donnant l’illusion que s’affamer leur apportera des résolutions à leurs problèmes. Un quotidien où elles se sentent bien dans leur peau en ressemblant aux modèles de beauté occidentaux dominants véhiculés sur les réseaux sociaux. Une illusion qui se garde de montrer les symptômes graves de l’anorexie lorsqu’ils ne sont pas assez intéressants pour être montrés.

Aujourd’hui, les influenceurs et les réseaux sociaux ont un rôle à jouer et il leur est demandé de prendre leurs responsabilités, à la fois par rapport au message qu’ils véhiculent mais également pour avoir laissé ces communautés s’installer. Si aujourd’hui, écrire anorexie sur un moteur de recherche de réseau social, vous donne un message vous proposant de l’aide, faudrait-il continuer à donner la possibilité de consulter ces contenus malgré l’avertissement?

Louison Pertriaux

Sources

  1. Martinez, A. (2024). « Inside edtwt the eating disorder community ». Dazed https://www.dazeddigital.com/life-culture/article/64929/1/inside-edtwt-the-eating-disorder-community-thriving-on-x
  2. Baker, B. (2023). « Eating disorder and social media ». Health Action Research Group https://www.healthactionresearch.org.uk/mental-health/eating-disorders-and-social-me/
  3. Mallampati, V. (2021). « The glamorization of eating disorders in the media ». Voice of Frisco https://voiceoffrisco.com/the-glamorization-of-eating-disorders-in-the-media/
  4. Higgins, M. (2021). «  »Thins »: the reality of eating disorders in media ». TKC https://www.thekirkwoodcall.com/opinion/2021/02/02/thinspo-the-reality-of-eating-disorders-in-media/
  5. Pacun, R et Moore, M. (2024). « How does social media affect eating disorders? ». Eating Recovery Center https://www.eatingrecoverycenter.com/resources/social-media-eating-disorders
  6. (2024). « 11 conséquences graves de l’anorexie dans votre vie ». La clinique e-sante https://www.la-clinique-e-sante.com/blog/tca/anorexie-consequences
  7. Praveen, M. (2022). « The Tumblr ed aesthetic is back – will our bodies ever be free? ». Roar https://roarnews.co.uk/2022/the-tumblr-ed-aesthetic-is-back-will-our-bodies-ever-be-free/
  8. Dutta, S. « Eating disorders and social media ». News Medical https://www.news-medical.net/health/Eating-Disorders-and-Social-Media.aspx
  9. Lopez, J-F. (2019). « Histoire de l’anorexie: du miracle à la maladie ». Psychologue Grenoble https://lopezpsychologue.fr/histoire-de-lanorexie-du-miracle-a-la-madie-psychique/
  10. (2017). « Anorexie Mentale ». Inserm https://www.inserm.fr/dossier/anorexie-mentale/
  11. Tinat, K. (2008). « Les troubles alimentaires émergent-ils en milieu rural? ». OpenEdition Journal https://journals.openedition.org/aof/3853
  12. Sanchez, T. (2025). « Skinnytok: derrière les vidéos healthy de Tiktok, une obsession dangereuse de la minceur inquiète ». Croq https://www.croq-kilos.com/actus/skinntok-derriere-les-videos-healthy-de-tiktok-une-obsession-dangereuse-de-la-minceur-inquiete

La culture populaire est-elle en train de changer de bord politique ?

Kylie Jenner qui troque le look afro pour l’attirail de la “pink pilate princess”, la célébration de la figure de la “tradwife” sur Tik Tok…. Ces nouvelles tendances sur les réseaux sociaux ne sont pas si anodines. Elles reflètent un changement de cap dans la culture qui s’est bel et bien traduit dans les urnes aux Etats-Unis. 

“Une société intemporelle pour gentlemen modernes”. Ce slogan apparaît en grand sur le site web de la Tuxedo Society1 [“La société du smoking”]. Ce club rassemble plusieurs centaines de femmes et d’hommes, payant 6 000 $ pour participer à des soirées et des événements organisés spécialement pour eux. Une seule condition : respecter le dress code “old money”, c’est-à-dire smoking pour les hommes et robes de soirées pour les femmes. Le club n’a pas d’autres raison d’exister que de permettre à ses membres de se prendre en photo et de les partager sur les réseaux sociaux : sur un terrain de golf, dans des voitures vintage…

Un sous-texte conservateur

La Tuxedo Society relève plus de la mise en scène que d’une réelle appartenance à une communauté d’américains fortunés. Les robes portées par les filles sont issues de la fast fashion, les lieux paradisiaques n’appartiennent à aucun des membres du club : ils sont tous loués, parfois pour seulement quelques heures. 

Mais alors, pourquoi ces influenceurs veulent-ils imiter l’élite blanche américaine waspienne ? Pour l’image de richesse qu’elle renvoie, d’un entre-soi sans scandales. Cette image s’est avérée particulièrement attirante pour les nouveaux entrepreneurs de la décennie, les “influenceurs ». Ces derniers partent souvent de rien : ils démarrent chez eux, avec du petit matériel et n’ont que leur capital charismatique pour espérer créer leur propre empire. La part des gens qui arrivent à ce niveau de succès est marginale ; la partie laissée pour compte doit se contenter de l’imiter

Imiter la réussite, c’est aussi tenter de masquer un sentiment d’insécurité financière. Les décors et les costumes forment une vitrine ostentatoire pour prouver que “tout va bien”.  Autre exemple : ce faux décor payant de jet privé dans lequel des “influenceurs” se prenaient en photo pour vendre du rêve à leur audience. Toutefois, des internautes ont fini par repérer la supercherie à cause de la ressemblance entre toutes les photos postées. 

Les membres de la Tuxedo Society sont loin d’impressionner les vraies élites, celles qui ont grandi dans la discrétion pour ne pas susciter la jalousie. Même ceux qui réussissent à devenir riches ne se sentent pas reconnus par leurs nouveaux pairs : c’est l’éternelle rivalité Old vs New Money. Ce duel existait déjà durant la Gilded Age [“Période Dorée”] à New York à la fin du XIXème siècle. Il persiste aujourd’hui, avec les nouveaux milliardaires de la Tech soucieux de montrer au monde à quel point ils sont riches et “cools”.

Et c’est précisément cette richesse-là qui est aux commandes des Etats-Unis : Donald Trump verse dans le baroque clinquant et dans les démonstrations de force de richesse. Cette esthétique, que l’auteur Sean Monahan qualifie de “boom-boom” , fait écho à la résurgence du conservatisme aux Etats-Unis au sein de chaque classe sociale. Pour le citer, “money is the last unifying value among americans” (l’argent est la dernière valeur capable d’unifier les américains). Commentaire pertinent à une époque où le pays semble déchiré entre deux camps irréconciliables. 

Le phénomène ne se limite pas à l’influence. La mode est un indicateur intéressant pour évaluer la situation politique d’une nation à un instant donné. Les défilés de mode ont troqué le look urbain pour le quiet luxury, c’est-à-dire des coupes impeccables, des couleurs neutres et des matières nobles. Ce style n’est pas sans rappeler le “power dressing” et l’esthétique  des années Reagan : une période marquée par un retour aux valeurs américaines traditionnelles et conservatrices. 

« Power Dressing » des années 1980. Crédit photo : Flickr – sewyerown

Une métamorphose de tout un pan de la culture

La mode est un indicateur, les standards physiques en vogue en sont un autre. Si la décennie 2010 faisait la part belle au “body positivisme”, la marche arrière est enclenchée sur les réseaux sociaux : les femmes sont minces, voire maigres, et les hommes sont musclés, prêts à partir en guerre. Lorsqu’elle présente les Golden Globes en 2024, l’humoriste Nikki Glaser ironise : “Welcome to Ozempic’s Biggest Night !” ([Bienvenue à la grande soirée d’Ozempic !]). Ce produit fait fureur à Hollywood et promet une perte de poids miraculeuse, pour des corps correspondant tous aux standards de l’industrie.

Idem pour le jeu de valeurs que les algorithmes des réseaux propulsent à leurs audiences. D’un coté, Zuckerberg se réjouit d’un retour au virilisme et à la masculinité toxique ; de l’autre, la “tradwife”, c’est-à-dire la femme au foyer dont le seul boulot est de s’occuper de sa famille, fédère de plus en plus, surtout chez les jeunes. 

Le sous-texte politique de ces tendances contredit bel et bien les travaux libéraux des dernières années et soutient une pensée plutôt associée au conservatisme : la femme s’occupe du foyer, pendant que son mari travaille. Aucune corrélation avec le schéma politique américain actuel ? Il semblerait que si. Par exemple lorsque J.D Vance, l’actuel vice-président des Etats-Unis, proclame être le champion de la “famille nucléaire” : un homme, une femme et leurs enfants. 

Le reste de la culture populaire n’est pas épargnée. La musique country, surtout populaire dans le sud des Etats-Unis, concurrence en termes de nombre d’écoutes certains des artistes les plus populaires au monde. Quels en sont les thèmes récurrents ? La famille, le travail acharné, la vie rurale, l’amour de son pays… Et si certains artistes s’amusent à en déjouer les codes (le canadien Orville Peck avec Cowboys are frequently secretly fond of each other), le genre continue de voir son audience grandir aux Etats-Unis auprès d’un certain public identifiable : ​​des hommes américains, entre 30 et 50 ans, plutôt conservateurs.

Même phénomène du côté du cinéma, où certains grands studios font marche arrière sur certaines histoires pour mieux en pousser d’autres. Ainsi, la nouvelle série produite par le studio Disney, Win or Lose, met en avant le premier personnage « ouvertement » chrétien, et, dans le même élan, supprime un personnage trans. 

Un tournant techno-politique ? 

À certains égards, la victoire de Donald Trump en 2024 ne ressemble en rien à celle de 2016. Là où la première élection a pris le monde entier par surprise, le résultat de novembre 2024 semble être le dénouement naturel d’un renouveau conservateur, même dans des bastions à priori acquis aux démocrates. 

Si de nombreuses stars s’étaient exprimées contre le candidat républicain en 2016 et 2020, certains ont changé de stratégie l’année passée. Kim Kardashian, pourtant très engagée contre la peine de mort et en faveur de l’avortement, est devenue plus ambïgue : une republication d’une tenue portée par Melania Trump sur Instagram, sa présence à l’anniversaire d’Ivanka Trump, un partenariat avec Tesla… Tout cela interroge, Kim Kardashian est-elle devenue MAGA (Make America Great Again) ? Idem à Hollywood, où les stars ont à peine évoqué la situation politique durant  la dernière cérémonie des Oscars. Cette capitulation du monde de la culture, pour reprendre le terme du journaliste Michel Guerrin, peut s’interpréter comme une peur de se mettre à dos une audience qui a voté en majorité pour le candidat républicain.

C’est encore du côté des géants de la tech que le revirement d’attitude s’avère le plus frappant, surtout chez Elon Musk, nouveau propriétaire de Twitter, rebaptisé X. Mais il n’est pas le seul : Jeff Bezos et Mark Zuckerberg étaient tous deux présents à l’investiture de Donald Trump en janvier dernier. Ces derniers se sont d’ailleurs empressés d’insuffler le changement au sein de leurs entreprises : Meta a banni le fact-checking de ses plateformes, tandis qu’Amazon a suspendu toutes ses politiques internes de promotion de la diversité. 

Pourquoi ce revirement politique ? Après des années de travail main dans la main, les démocrates ont pris leurs distances avec les GAFAM. En cause, de trop nombreux scandales à la fin des années 2010 (Cambridge Analytica, Facebook Files) et surtout, un pouvoir d’influence devenu sans commune mesure. Les techno-entrepreneurs sont donc partis dans le camp d’en face, avec qui ils bénéficient d’un échange mutuel hautement avantageux : une absence de régulation économique pour les uns, et une parole non censurée ou modérée sur les réseaux sociaux pour les autres.

Les influenceurs sont-ils en train de suivre le même chemin ? A mesure que leur activité grandit, leur personne physique finit par disparaître derrière leur propre marque. Et tout ce qui faisait leur authenticité doit désormais se standardiser pour mieux se commercialiser. Mais pour vendre, encore faut-il s’adresser au bon public, et le suivre dans ses changements d’humeur politique. 

Les grandes multinationales semblent en avoir terminé, du moins pour le moment, avec la monétisation du mouvement « woke ». Pour le moment, car il s’agit bien de tendances, où un courant finit par en supplanter un autre. Cette même culture infiltrée par le conservatisme a propulsé, en quelques mois, la chanteuse/drag queen Chappell Roan au rang d’icône mondiale. Preuve que deux tendances peuvent coexister au sein d’une même époque. 

Raphael Dutemple

(1) : https://www.tuxedosocietyinnercircle.com

References :

“Pop Fascime”, Pierre Plottu et Maxime Macé, Editions Divergences, 2024

“Want to understand why Trump won the election? Look at pop culture.”, Kyndall Cunningham, Vox, 15 novembre 2024

“What does the inauguration’s authoritarian-chic fashion tell us? Designers are suddenly eager to dress the Trumps”, Rhiannon Lucy Cosslett, The Guardian, 26 janvier 2025

“Sundresses and rugged self-sufficiency: ‘tradwives’ tout a conservative American past … that didn’t exist”, Carter Sherman, The Guardian, 24 juillet 2024

“De Hailey Bieber à Ballerina Farm, ces influenceurs chrétiens qui mettent leur foi et leurs idées conservatrices en avant sur les réseaux sociaux”, Blanche Marcel, Vanity Fair, 12 mai 2024

“The Tuxedo Society : quand le luxe devient un décor instagram”, Salina Riffay, PRSNA, 8 février 2025

“How the Reagan White House shaped ‘80s style”, Vox Creative, Vox, 10 janvier 2019

“What is ‘conservative girl’ makeup, and am I accidentally wearing it ?”, Arwa Mahadi, The Guardian,  12 février 2025

“‘Sticking it to the liberal media’: how conservative pop culture broke out this summer”, Adrian Horton, The Guardian, 9 septembre 2023

« Donald Trump fait cent fois pire que ce qu’ils avaient imaginé et les artistes américains restent muets. Par peur et par intérêt », Michel Guerrin, Le Monde, 14 mars 2025

“Avec Trump, l’esthétique des années Reagan est de retour”, Marie Telling, Earworm, 14 mars 2025

“How did Elon Musk get like this ? ”, Matt Bernstein, A bit fruity, 14 décembre 2024

“How conservatism infiltrated pop culture”, Matt Bernstein, A bit fruity, 7 février 2025

Réseaux sociaux et liberté d’expression : la guerre ouverte de Zuckerberg et Musk contre l’Europe

Les annonces récentes de Mark Zuckerberg sur la réduction de la modération des contenus et la promotion de l’IA générative, et l’influence d’Elon Musk sur les démocraties européennes, déclenchent une véritable crise entre la Silicon Valley et Bruxelles. Face aux risques accrus de désinformation et de manipulation politique, l’Union européenne riposte et cherche à renforcer ses régulations pour préserver l’intégrité du débat démocratique.

Un coup de tonnerre dans l’espace numérique

Depuis janvier 2025, une nouvelle bataille s’est engagée entre l’Union européenne et les grands patrons des réseaux sociaux. Le patron de X (anciennement Twitter), Elon Musk, cherche à influencer les élections en Europe. Mark Zuckerberg (Meta) annonce quant à lui vouloir diminuer drastiquement la modération des contenus sur ses plateformes. Prétendant défendre la « liberté d’expression », ces deux figures de la tech entendent notamment, à travers ces prises de positions,  favoriser les contenus générés par intelligence artificielle et renoncer à la suppression des publications controversées, au risque d’ouvrir la porte à une vague massive de désinformation et de deepfake. Le débat démocratique se retrouve ainsi menacé par les mastodontes du numérique.

Cette position, qui s’oppose frontalement à la régulation européenne, notamment au Digital Services Act (DSA), a été immédiatement critiquée par Bruxelles. Au-delà d’un simple bras de fer juridique, cette annonce marque une véritable déclaration de guerre contre les principes démocratiques d’une information vérifiée et encadrée.

Une offensive contre la régulation européenne

La réglementation européenne en matière de numérique s’est renforcée ces dernières années avec le Digital Services Act (DSA) et le Digital Markets Act (DMA). Ces lois visent à imposer des obligations strictes aux grandes plateformes afin de lutter contre la propagation des fake news, de protéger la vie privée des utilisateurs et d’assurer une concurrence équitable. Le DSA, en particulier, impose des obligations de transparence sur les contenus sponsorisés, le signalement des contenus illicites et la modération des publications nuisibles.

Or, l’abandon du fact-checking par Meta et la liberté totale laissée aux utilisateurs sur X vont à l’encontre de ces principes. Henna Virkkunen, vice-présidente exécutive de la Commission européenne, a déclaré à ce sujet :

« Notre tâche est de nous assurer que les droits des citoyens européens sont respectés et que notre législation est appliquée. Cela garantit des conditions équitables et un environnement en ligne sûr pour tous. »

Ces propos résonnent comme une réponse directe aux attaques de Zuckerberg et Musk, qui voient dans le cadre réglementaire européen une contrainte incompatible avec leur vision du business.

L’explosion annoncée de la désinformation

En renonçant à la modération et en favorisant les contenus générés par intelligence artificielle, Meta et X prennent le risque de transformer leurs plateformes en zones de non-droit informationnel.

L’historique récent montre pourtant que les réseaux sociaux ont déjà joué un rôle central dans la diffusion de fausses informations. Que ce soit lors du Brexit dès 2016, ou lors des élections américaines, les fake news se sont multipliées à une vitesse inédite.

Avec la prolifération des deepfakes, ces vidéos ultraréalistes manipulées par IA, associée à la fin du fact-checking, le danger est encore plus grand. Désormais, il sera possible de fabriquer de fausses déclarations attribuées à des responsables politiques ou de créer des vidéos truquées d’événements qui n’ont jamais eu lieu. Dans un contexte pré-électoral en Europe, cette situation inquiète particulièrement les institutions bruxelloises.

Une menace directe pour les démocraties européennes

Si l’Europe a décidé d’agir rapidement, c’est parce que les conséquences sur la démocratie sont immenses. En limitant la transparence et la responsabilité des plateformes, Zuckerberg et Musk laissent proliférer des stratégies de manipulation de l’opinion publique à grande échelle. Ils en ont même une grande influence.

Elon Musk a déjà influencé la campagne américaine en affichant de manière affirmée son soutien à Donald Trump, qui le lui a bien rendu en le nommant à la tête du Département de l’Efficacité Gouvernementale (Department of Government Efficiency, ou DOGE), avec pour objectif de réduire la bureaucratie, les dépenses publique, et de rationaliser les opérations fédérales. Il continue sa lancée en tentant cette fois-ci de s’immiscer dans les élections législatives en Allemagne. Il a apporté explicitement son soutien à l’AfD, le parti d’extrême droite allemand, en participant à une discussion retransmise en directe sur X avec Alice Weidel, dirigeante de l’AfD, une semaine après l’investiture de Donald Trump. Son intervention lors de cette investiture avec un geste stupéfiant pouvant être interprété à un salut nazi, au regard de ce contexte, ne peut pas sembler anodin. Elon Musk n’a cessé depuis plusieurs mois, comme l’a également rappelé Le Monde, « de multiplier les références à l’antisémitisme et à l’idéologie nazie ».

Elon Musk saluant la foule lors de l’investiture de Donald Trump.
Crédit : Christopher Furlong / GETTY IMAGES NORTH AMERICA / Getty Images via AFP / RTL

La manipulation de l’opinion publique est présente également dans d’autres pays européens, comme par exemple la Roumanie. En effet, lors de l’élection présidentielle de 2024, la Cour Constitutionnelle a annulé le scrutin. La raison : des publicités politiques ciblées sur TikTok ont manipulé des électeurs sans qu’ils en soient conscients. De plus, des rapports des services de renseignement roumains, déclassifiés par la présidence, ont révélé une vaste opération d’influence  menée sur TikTok en faveur du candidat d’extrême droite pro-russe Cãlin Georgescu. Cette campagne impliquait notamment le financement d’influenceurs locaux pour promouvoir ce candidat, ainsi que des faux comptes pour amplifier artificiellement sa popularité.

Ce type d’intervention pourrait se généraliser dans toute l’Europe si les plateformes ne sont pas contrôlées. De nombreux experts s’inquiètent également du rôle croissant de la Chine et de la Russie dans ces campagnes de désinformation. En laissant leurs réseaux sociaux devenir un champ de bataille informationnel, Musk et Zuckerberg ouvrent la porte à des ingérences étrangères massives.

L’Europe va-t-elle contre-attaquer ?

Face à cette escalade, Bruxelles envisage des réponses drastiques. Parmi elles :

  • Des sanctions financières massives contre Meta et X en cas de non-respect du DSA
  • Un renforcement des outils de contrôle et de signalement des contenus illégaux
  • Une meilleure coordination avec les États membres pour surveiller les campagnes de désinformation

La Commission européenne a déjà infligé aux géants de la tech des milliards d’euros d’amendes pour violation des règles de protection des données et de concurrence au cours de ces dix dernières années. Stéphanie Yon-Courtin, eurodéputée française, a d’ailleurs interpellé la présidente de la Commission Ursula von der Leyen, l’appelant à « ne pas trembler sous la pression américaine ».

L’affrontement entre Bruxelles et la Silicon Valley ne fait que commencer, mais il est crucial pour l’avenir de l’information et de la démocratie en Europe. Si Meta et X persistent dans leur stratégie, la régulation européenne devra réagir avec fermeté pour éviter que le continent ne devienne un terrain de jeu pour la manipulation numérique.

Dans ce duel aux enjeux historiques, une question demeure : les régulateurs européens auront-ils les moyens de faire plier cette nouvelle « broligarchie » ?

Selim Amara

Sources

Elon Musk et Donald Trump : Une alliance qui redéfinit le discours politique en ligne


L’ère numérique a profondément transformé la communication politique, et peu de figures illustrent mieux cette mutation qu’Elon Musk et Donald Trump. En prenant le contrôle de Twitter (désormais X), Musk a bouleversé les règles du jeu médiatique, en mettant en avant une conception radicale de la liberté d’expression. Son alliance de plus en plus évidente avec Trump, figure emblématique du populisme américain, suscite des interrogations majeures sur l’avenir du discours politique en ligne et ses conséquences sur la démocratie. Cette dynamique a des répercussions bien au-delà des États-Unis, notamment en Europe, qui tente de se positionner comme un rempart face à cette montée en puissance des discours polarisants et de la désinformation.


Elon Musk et sa vision de la « liberté d’expression »

L’acquisition de Twitter par Elon Musk en octobre 2022 pour 44 milliards de dollars a marqué un tournant dans l’histoire des réseaux sociaux. Se définissant comme un « absolutiste de la liberté d’expression », Musk a rapidement mis en œuvre des réformes radicales : dissolution des équipes de modération, réintégration de comptes bannis, dont celui de Donald Trump, et suppression de nombreuses restrictions sur le contenu.

Toutefois, cette vision idéalisée d’un espace d’expression libre s’est rapidement heurtée à la réalité. Si Musk a prôné une plateforme ouverte à tous, il n’a pas hésité à suspendre des journalistes critiques et à favoriser un climat propice à la diffusion de fausses informations. Son approche sélective de la liberté d’expression, oscillant entre idéalisme libertarien et intérêts économiques, a provoqué une montée des discours polarisants et une multiplication des controverses. Une étude de l’Arxiv a montré que les comptes diffusant des informations erronées ont vu leur portée considérablement augmentée après l’acquisition de Twitter par Musk.

Musk semble s’inspirer de la pensée de John Stuart Mill sur la liberté d’expression, en particulier de son principe selon lequel la confrontation des idées permet de révéler la vérité. Mill défendait un espace de débat ouvert où toutes les opinions pouvaient être exprimées afin de favoriser l’épanouissement intellectuel et démocratique. Cette approche se retrouve dans la philosophie de Musk, qui rejette toute forme de censure au nom de la diversité des points de vue et du droit de chacun à s’exprimer librement.

Seulement pour Mill il existe des limites, notamment lorsque la « liberté d’expression » incite directement à la violence (et non à la haine), ici la critique est acceptable de lors qu’elle ne nuit pas à autrui. La question prédominante de notre débat serait donc : à quelle moment les paroles (sur les réseaux sociaux) deviennent des actes ou non ?


L’émergence du duo Musk/Trump pendant la campagne présidentielle

L’alliance entre Trump et Musk s’est consolidée au fil de la campagne présidentielle américaine de 2024. Ce rapprochement repose sur une stratégie commune : mobiliser leur base de « followers » en exploitant au maximum les réseaux sociaux. En effet, X et Truth Social, la plateforme de Trump, ont joué un rôle clé dans la diffusion massive de contenus visant à discréditer les institutions américaines et à renforcer le sentiment d’injustice parmi les électeurs conservateurs.

Musk, bien que n’occupant pas de poste officiel dans l’administration Trump, est devenu un conseiller influent, notamment sur les questions de dérégulation et de réduction des dépenses fédérales. Ses prises de position politiques se sont multipliées, allant jusqu’à attaquer des dirigeants étrangers et à soutenir des partis d’extrême droite en Europe.

Cette rupture avec le cadre institutionnel traditionnel n’est pas seulement une stratégie électorale ; elle traduit un repositionnement plus profond du débat politique américain. En misant sur la fragmentation et l’indignation permanente, Trump et Musk ont créé un écosystème informationnel où la confrontation directe et le sensationnalisme priment sur la réflexion et l’analyse.


La polarisation du discours et la banalisation des fake news

L’impact de l’alliance Musk-Trump sur le débat public est considérable. La politique de modération allégée de X a ouvert la porte à une explosion des contenus polémiques, des théories du complot et des fausses informations. Selon une étude de NewsGuard, 74 % des contenus les plus viraux lors du conflit entre Israël et le Hamas provenaient de comptes certifiés payants sur X, mettant en évidence les effets pervers de la nouvelle politique de la plateforme.

Trump et Musk ont compris que la provocation et la polarisation captivent l’attention. En inondant l’espace médiatique de déclarations controversées et en attaquant les médias traditionnels, ils ont contribué à la défiance croissante envers les institutions démocratiques et journalistiques. Cette approche, si elle leur est politiquement et économiquement bénéfique, menace le fondement même du débat démocratique en instaurant une guerre permanente de l’information où la vérité devient secondaire au profit du sensationnel.


L’Europe comme « bouclier » face au duo Trump-Musk

Face à cette montée en puissance du discours populiste et de la désinformation, l’Union européenne tente d’adopter une posture défensive. La mise en place du Digital Services Act (DSA) vise à encadrer les plateformes numériques et à responsabiliser leurs propriétaires quant à la diffusion de contenus nocifs. Toutefois, la tâche est ardue, car Musk a ouvertement rejeté les contraintes réglementaires européennes, retirant X du Code de bonnes pratiques contre la désinformation.

L’Europe est directement ciblée par cette offensive idéologique. Musk et Trump ont critiqué les gouvernements européens pour leurs politiques de régulation et de taxation des géants de la tech. Par ailleurs, le soutien affiché de Musk à des figures politiques européennes populistes, telles qu’Alice Weidel en Allemagne, figure de l’AfD, accentue les tensions entre l’Europe et la droite radicale transatlantique.

Certains États membres, comme la Belgique et l’Allemagne, réagissent en menaçant X de sanctions financières sévères en cas de non-respect des réglementations européennes. Une enquête étant en cours pour évaluer comment X amplifie certains contenus et s’il respecte les obligations de transparence imposées par le DSA. Mais la division persistante entre les pays de l’UE et la dépendance économique à l’égard des technologies américaines compliquent la riposte. L’enjeu est de taille : laisser Musk et Trump imposer leur vision du monde numérique, ou affirmer un modèle européen fondé sur la transparence, la responsabilité et la lutte contre la désinformation.

L’un des défis majeurs de l’Europe réside dans sa capacité à faire appliquer ses réglementations. Des enquêtes menées par la Commission européenne sur les pratiques de modération de X ont mis en évidence des failles dans l’application des règles européennes.

La montée de la polarisation et des fake news plonge le peuple dans un état émotionnel intense, favorisant une désignation simpliste de boucs émissaires. Ce phénomène s’inscrit dans un cycle bien documenté de la violence des émotions collectives, étudié par René Girard. Or, cet état d’esprit, largement véhiculé par les réseaux sociaux, va à l’encontre des principes fondateurs des démocraties européennes, qui reposent sur le droit international, la reconnaissance des frontières et des nations, ainsi que sur des régulations juridiques et institutionnelles garantissant une alternative à la loi du plus fort.

Ces principes fondateurs sont fragiles face à la violence émotionnelle des contenus, qui l’emportent souvent sur la rationalité humaine. En effet, les peuples européens n’ont pas toujours conscience de la richesse de ces constructions, régulatrices de la paix en Europe depuis ces 80 dernières années.

Cependant, cette régulation s’annonce difficile pour une Europe politiquement et économiquement affaiblie, ainsi que militairement vulnérable, qui risque ainsi de peiner à s’imposer face aux grandes puissances concurrentes.

Commission européenne, Bruxelles


Conclusion : un modèle de gouvernance en péril ?

L’ascension du duo Trump-Musk soulève des questions cruciales sur l’avenir du discours public et des régulations numériques. En fusionnant leurs influences politiques et économiques, ils ont redéfini les contours du débat démocratique, privilégiant la confrontation et la viralité aux dépens de la véracité et de la délibération rationnelle.

L’Europe, consciente des dangers posés par cette nouvelle ère de communication politique, tente d’opposer une résistance institutionnelle et juridique. Cependant, l’ampleur de l’influence de Trump et Musk, combinée à l’absence d’un front uni au sein de l’UE, rend la tâche difficile.

Renforcer les cadres réglementaires, encourager une transparence accrue des plateformes et promouvoir une éducation aux médias sont autant de leviers à explorer pour limiter l’impact de cette nouvelle ère du débat public.

Julien BOULOC

Sources

Le DSA : Entre ambitions européennes et défis pour les plateformes sociales et vidéos

Adopté pour encadrer les géants du numérique et protéger les utilisateurs européens, le Digital Services Act (DSA) s’impose comme une réglementation phare de l’Union européenne. Mais derrière ce cadre juridique ambitieux, se posent des questions : comment s’applique-t-il concrètement aux plateformes comme TikTok, Meta ou X ? Et ses objectifs peuvent-ils vraiment transformer l’écosystème numérique ?

© Image générée par l’intelligence artificielle Copilot représentant le contrôle de l’Union européenne sur les plateformes sociales et de vidéos.

Une législation ambitieuse : les bases du DSA

Le Digital Service Act (DSA)1, entré en vigueur en 2023, vise à moderniser la régulation des services numériques en Europe. Conçu comme une réponse aux abus des grandes plateformes technologiques, il repose sur trois piliers principaux :

  1. Lutter contre les contenus illicites : en exigeant des mécanismes efficaces de signalement et de suppression des contenus illégaux.
  2. Garantir la transparence : notamment sur les algorithmes de recommandations et les publicités ciblées.
  3. Protéger les utilisateurs : en assurant des recours clairs et en renforçant la lutte contre les abus, notamment pour les mineurs.

Ce texte s’adresse aussi bien aux petites plateformes qu’aux géants technologiques2 , mais il impose des règles particulièrement strictes aux  plateformes dépassant 45 millions d’utilisateurs actifs en Europe. Ces dernières, comme YouTube ou TikTok, doivent répondre à des obligations renforcées sous peine de sanctions pouvant atteindre 6 % de leur chiffre d’affaires mondial.

Un impact concret : les géants de la tech sous pression

© Image libre de droit récupérée sur Unsplash

Des algorithmes sous surveillance

En octobre 2024, la Commission européenne a exigé des comptes détaillés de YouTube, TikTok et Snapchat sur leurs systèmes de recommandations3. Ces plateformes doivent réduire l’opacité de leurs algorithmes afin de comprendre les actions mises en place en matière de protection des mineurs et d’atteinte à la santé mentale des utilisateurs.

La publicité ciblée en ligne de mire

Le DSA oblige également les grandes plateformes à tenir des registres publicitaires accessibles au public pour encadrer les annonces ciblées. Ces bibliothèques doivent recenser des informations clés comme l’identité des annonceurs ou l’objet des publicités.

Pourtant,un rapport de Mozilla et Checkfirst4 montre que plusieurs plateformes, dont Snapchat, et surtout X, peinent à respecter ces obligations. X est notamment critiqué pour l’absence de recherche ou de filtrage, ainsi que pour ses restrictions d’accès aux données.

© Fondation Mozilla/Checkfirst

TikTok et Meta s’en sortent un peu mieux, mais leurs outils restent imparfaits : seulement 83 % des publicités affichées dans le fil « Pour toi » de TikTok et 65 % des publicités sur Facebook sont répertoriées dans leurs bibliothèques d’annonces.

Des exemples concrets des actions du DSA

Meta : Entre abonnements payants pour la publicité et laxisme face à la désinformation  

Pour tenter de se conformer au DSA concernant la publicité ciblée, Meta,  en septembre 2023, a annoncé la possibilité pour les utilisateurs européens de souscrire à un abonnement payant pour éviter les publicités sur Facebook et Instagram5. Les utilisateurs pouvaient choisir de payer environ 10 euros par mois sur ordinateur et 13 euros par mois sur mobile pour une expérience sans publicité. 

Sauf qu’en novembre 2023, Meta a obligé les utilisateurs à choisir entre payer pour éviter les publicités ou accepter le suivi publicitaire pour continuer à utiliser les services gratuitement6.

© Captures BDM

Cette approche, surnommée « Pay or Okay », a été vivement critiquée par les utilisateurs. Une approche qui a constitué, en juillet 2024, par la Commission européenne une violation du DMA7. En effet, cette pratique forçait les utilisateurs à faire un choix binaire entre payer ou consentir au suivi publicitaire, ce qui contrevenait aux règles de consentement libre et éclairé prévues par le RGPD. 

Face à ces critiques, Meta a annoncé, en novembre 2024, une réduction du prix de son abonnement sans publicité, le faisant passer de 9,99 € à 5,99 € par mois sur le web, et de 12,99 € à 7,99 € par mois sur mobile8. Mais elle risque aujourd’hui une amende à hauteur d’un pourcentage de son chiffre d’affaires.

Mais ce n’est pas tout puisqu’en avril 2024, une enquête a été ouverte contre Meta, accusée de ne pas lutter efficacement contre la désinformation et les publicités trompeuses sur ses plateformes9. Meta est accusée de ne pas consacrer suffisamment de ressources à la modération des contenus politiques.
De plus, la fermeture de l’outil CrowdTangle, indicateur de performance des pages Facebook , a suscité des inquiétudes quant à la transparence des actions de Meta.

Mais en réponse à ces accusations, l’entreprise a publié en novembre 2024 une série d’audits réalisés par le cabinet indépendant Ernst & Young (EY) visant à démontrer sa conformité avec le DSA10. Meta assure que plus de 90 % des mesures prises étaient conformes. 

Cependant, l’audit a révélé des lacunes importantes. Par exemple, Meta n’a pas toujours indiqué les raisons du retrait de certaines publicités dans sa bibliothèque publicitaire, limitant ainsi la transparence de ses actions.

X : Première plateforme à être sanctionnée ?

Depuis le rachat de X en octobre 2022 par Elon Musk, il proclame être un fervent défenseur d’une liberté d’expression sans entrave. X a alors adopté une approche largement permissive en matière de modération. De plus, mai 2023, X a officiellement quitté le Code des Bonnes Pratiques contre la désinformation, un engagement volontaire signé par plusieurs grandes plateformes pour endiguer les contenus trompeurs et haineux. Ce retrait a suscité des inquiétudes au sein de la Commission européenne, d’autant plus que la plateforme a vu proliférer des bots.11

En octobre 2024, l’Union européenne a officiellement averti X en rappelant qu’en cas de non-conformité pourraient inclure des amendes allant jusqu’à 6 % du chiffre d’affaires annuel mondial de la plateforme12. En parallèle, des voix ont évoqué la possibilité d’étendre les sanctions à d’autres entreprises détenues par Elon Musk, telles que SpaceX, Neuralink, et The Boring Company, dans le but de garantir une conformité totale au DSA13.

Mais un nouvel élément est venu complexifier la situation. Elon Musk a récemment affiché son soutien au parti d’extrême droite Alternative für Deutschland (AfD) en Allemagne14. Cette posture a alarmé les autorités européennes, qui s’interrogent sur l’utilisation de la plateforme pour influencer l’opinion publique, particulièrement à l’approche des élections allemandes. Les régulateurs craignent que X ne devienne un vecteur de désinformation et de manipulation politique, en amplifiant les discours polarisants et en négligeant ses responsabilités de modération. Soutien qu’il a réaffirmé le 25 janvier 2025 en intervenant en visioconférence stipulant que l’extrême droite était “le meilleur espoir pour l’Allemagne »

©AFP

La Commission européenne envisage des mesures plus radicales, telles qu’une suspension temporaire ou permanente des services de X sur le territoire européen . À l’instar du Brésil, il y a plusieurs mois15.

TikTok : La suppression de son programme TikTok Lite pour se conformer 

En 2023,  TikTok a annoncé une série de mesures pour se conformer au DSA16 notamment en permettant aux utilisateurs de signaler les contenus illégaux et en désactivant la personnalisation du fil « Pour toi ».

Mais il semblerait que ces différentes actions n’ont pas convaincu les instances européennes puisqu’en février 2024 le DSA a ouvert une enquête contre de possibles infractions17 notamment pour la protection des enfants et adolescents. En effet, TikTok est épinglée pour sa conception jugée addictive, notamment à travers des mécanismes incitant les jeunes utilisateurs à prolonger leur temps d’écran. (Programme TikTok Lite) Le DSA estime aussi que TikTok manque de transparence publicitaire et exige la mise en place d’un répertoire public des publicités diffusées sur la plateforme. 

En réponse au DSA, TikTok a ouvert un centre de transparence en Europe, plus précisément à Dublin, ouvert à la presse internationale pour la première fois18. L’objectif pour la plateforme est d’obtenir la confiance des autorités de régulations et de l’opinion publique. 

En août 2024, pour répondre aux critiques à l’égard de son concept jugé trop addictif, notamment pour TikTok Lite. Programme qui incitait les utilisateurs à passer plus de temps sur la plateforme en les récompensant avec de la monnaie virtuelle convertible en cartes-cadeaux. TikTok a donc annoncé le retrait définitif de son programme dans l’ensemble des États membres de l’Union européenne19. Aujourd’hui la page TikTok destiné à ce programme affiche une “page erreur 404”20

© Capture d’écran de la page « TikTok Lite » sur le site de TikTok.

Un bilan contrasté : le DSA, entre succès et limites

Un an après l’entrée en vigueur du DSA, le bilan révèle une mise en œuvre progressive, mais encore incomplète. Alan Walter, avocat spécialisé, observe que « la plupart des acteurs ont essayé de rentrer dans le rang », mais souligne également les défis financiers et humains que cette mise en conformité engendre.21

Si ces premières actions marquent une volonté de contrôle accru, certaines critiques émergent : les obligations de modération imposées par le DSA suscitent des craintes sur leur impact potentiel sur la liberté d’expression, un équilibre délicat à préserver22.

Alors que les acteurs numériques s’adaptent progressivement, l’avenir du DSA dépendra de sa capacité à évoluer avec un secteur technologique en constante mutation. Une question demeure : comment articuler des règles strictes sans entraver l’innovation ni restreindre des droits fondamentaux comme la liberté d’expression ?

Paul Rottement

Références

  1. https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act ↩︎
  2. https://www.blogdumoderateur.com/dsa-liste-geants-tech-nouveau-reglement-euopeen/ ↩︎
  3. https://siecledigital.fr/2024/10/04/la-commission-europeenne-met-la-pression-sur-youtube-snapchat-et-tiktok-pour-conformite-a-la-legislation/ ↩︎
  4. https://www.blogdumoderateur.com/dsa-geants-tech-manquent-transparence-publicitaire/ ↩︎
  5. https://www.blogdumoderateur.com/meta-abonnement-sans-publicite-facebook-instagram/ ↩︎
  6. https://www.blogdumoderateur.com/instagram-choisir-payer-ou-accepter-publicite/ ↩︎
  7. https://www.blogdumoderateur.com/abonnement-sans-publicite-meta-violation-dma-selon-ue/ ↩︎
  8. https://www.blogdumoderateur.com/meta-reduit-prix-abonnement-sans-publicite-dma/ ↩︎
  9. https://www.blogdumoderateur.com/lutte-desinformation-meta-enquete-ue/ ↩︎
  10. https://www.blogdumoderateur.com/meta-publie-audits-dsa/ ↩︎
  11. https://www.lexgo.be/fr/actualites-et-articles/13861-le-dsa-face-a-x-twitter ↩︎
  12. https://siecledigital.fr/2024/07/08/la-premiere-plateforme-sanctionnee-au-nom-du-dsa-sera-t-elle-x/ ↩︎
  13. https://www.euractiv.fr/section/plateformes/news/dsa-la-commission-etend-son-enquete-a-lencontre-de-x/ ↩︎
  14. https://www.euractiv.fr/section/plateformes/news/dsa-la-commission-etend-son-enquete-a-lencontre-de-x/ ↩︎
  15. https://www.lemonde.fr/pixels/article/2024/09/03/la-cour-supreme-du-bresil-confirme-la-suspension-du-reseau-social-x_6302769_4408996.html ↩︎
  16. https://newsroom.tiktok.com/fr-fr/dsa-day-1 ↩︎
  17. https://www.euractiv.fr/section/plateformes/news/protection-des-mineurs-la-commission-europeenne-ouvre-une-enquete-contre-tiktok/ ↩︎
  18. https://www.lefigaro.fr/secteur/high-tech/obtenir-la-confiance-prend-du-temps-tiktok-mise-sur-ses-centres-de-transparence-pour-tenter-de-redorer-son-image-20241202 ↩︎
  19. https://www.arcom.fr/presse/retrait-du-programme-tiktok-lite-au-sein-de-lunion-europeenne-larcom-salue-la-mise-en-oeuvre-du-reglement-sur-les-services-numeriques-en-matiere-de-protection-des-mineurs-en-ligne ↩︎
  20. https://support.tiktok.com/fr/using-tiktok/exploring-videos/tiktok-lite-app ↩︎
  21. https://www.blogdumoderateur.com/alan-walter-bilan-dsa/ ↩︎
  22. https://www.village-justice.com/articles/reglement-sur-les-services-numeriques-dit-dsa-menace-liberte-expression-sur-les,51032.html ↩︎

« Community Notes » sur Twitter : un outil efficace contre les fausses informations ?

En octobre 2023, suite à l’attaque du Hamas contre Israël, la Commission européenne, ainsi que l’Arcom, a adressé un avertissement à la plateforme de réseaux sociaux Twitter, désormais connue sous le nom de X. L’intervention des autorités visait à modérer la diffusion de contenu inapproprié lié à cet événement, incluant de nombreuses vidéos, images et informations fallacieuses. La mise en garde de la Commission européenne et de l’Arcom à l’encontre de X, s’inscrit dans une continuité réglementaire. En effet, cette intervention n’était pas la première du genre. Déjà en octobre 2022, peu après le rachat de la plateforme par Elon Musk, l’Arcom avait rappelé à X ses obligations légales concernant la modération des contenus en ligne. Ces rappels successifs soulignent l’attention accrue des autorités régulatrices sur les pratiques de modération des réseaux sociaux, particulièrement dans le contexte de gestion des crises et de la désinformation.

La lutte contre la désinformation s’intensifie, confronté à des obstacles majeurs tels que la prolifération rapide de nouveaux contenus et la difficulté à discerner le vrai du faux. Cet enjeu, qui doit aussi ménager un équilibre délicat entre la liberté d’expression et la nécessité de limiter la propagation de contenus illicites ou préjudiciables, pousse les plateformes à innover dans leurs approches. En réponse à cette complexité croissante, plusieurs d’entre elles ont récemment adopté des stratégies de modération participative, invitant les utilisateurs à jouer un rôle actif en signalant les publications susceptibles de transgresser leurs règles. L’une des méthodes de modération les plus notables est celle mise en œuvre par la plateforme X : les Notes de la communauté. Initialement testée aux États-Unis en 2021, cette approche a été adoptée à grande échelle à l’international suite à l’acquisition de la plateforme par Elon Musk.

Qu’est qu’une note de communauté et comment cela fonctionne ?

Les notes de communauté sur Twitter (X), un outil novateur de modération participative, visent à lutter contre la désinformation en permettant aux utilisateurs de la plateforme de contribuer à la vérification des faits. Ce système fonctionne grâce à l’engagement collaboratif des membres de Twitter (X), qui peuvent apposer des annotations sur les tweets qu’ils jugent trompeurs ou inexacts. Ces notes sont ensuite visibles par tous, offrant un contexte additionnel qui aide les autres utilisateurs à mieux interpréter les publications.

Le fonctionnement est relativement simple : une fois qu’un tweet est signalé, il est examiné par des contributeurs qui évaluent son exactitude. Si une note est approuvée par suffisamment de vérificateurs, elle est publiée sur le tweet en question, offrant ainsi une forme de validation ou de correction publique. Cette méthode vise non seulement à décourager la diffusion de fausses informations, mais aussi à encourager une culture de la transparence et de la responsabilité parmi les utilisateurs.

L’impact de ces notes se manifeste particulièrement dans les domaines sensibles comme la politique et la publicité. Par exemple, lorsqu’un politicien prétend à tort que les écoles françaises ont historiquement exigé le port de l’uniforme, une note basée sur des sources fiables, telles que des articles de presse vérifiés, peut corriger cette affirmation. De même, dans le cas des conditions d’utilisation d’un réseau social, les notes peuvent clarifier des malentendus courants en s’appuyant sur des documents officiels ou des archives web pour démontrer que certaines pratiques, comme l’utilisation des contenus des utilisateurs, étaient déjà en place bien avant leur mention récente.

Les publicités ne sont pas épargnées par cette vérification ; des notes ciblent souvent des annonces prétendant des bénéfices exagérés ou pratiquant le « dropshipping » sans transparence. Ces interventions permettent de protéger les consommateurs contre des pratiques commerciales douteuses, en exposant la réalité derrière des offres trop alléchantes pour être vraies.

Parfois, le zèle des contributeurs peut mener à ce que certains considèrent comme du « pinaillage » — des corrections de détails minuscules qui, bien que techniquement corrects, peuvent sembler excessifs. Cependant, même ces interventions minimes jouent un rôle dans l’élaboration d’un discours en ligne plus précis et mesuré, reflétant la mission de la plateforme d’encourager une communication honnête et informée.

Des limites à considérer…

Les Notes de la communauté de Twitter (X), bien qu’efficaces dans la lutte contre la désinformation, rencontrent cependant des limites inhérentes à leur popularité et à leur mode de fonctionnement. Prévues pour enrichir le débat public par des corrections et des clarifications, ces notes sont parfois victimes de leur propre succès. En effet, leur usage excessif tend à diluer leur impact, transformant potentiellement un outil de vérification en un moyen de surinformation.

Un autre problème réside dans leur structure même : rédigées et évaluées par les utilisateurs via un système de votes, les Notes de la communauté peuvent être manipulées par des groupes organisés. Ces derniers, agissant de concert, peuvent influencer la visibilité des corrections, en promouvant ou en supprimant des notes selon leurs intérêts, qu’ils soient politiques ou autres. Cette dynamique peut compromettre l’objectivité et la neutralité des informations, permettant à certaines vérités factuelles de se retrouver injustement écartées ou à des narratifs biaisés de prévaloir.

Les notes de la communauté de Twitter (X) sont-elles efficaces ?

Dans une étude récente, des chercheurs de l’Université Paris 1 Panthéon-Sorbonne et de HEC Paris ont examiné l’efficacité des Notes de la communauté de Twitter (X),. L’objectif était de déterminer si ajouter des annotations contextuelles à des tweets potentiellement trompeurs pourrait réduire leur viralité.

L’analyse s’appuie sur une base de données de quelque 285 000 notes collectées via le programme de Notes de la communauté de Twitter (X). Les résultats montrent une réduction notable de la diffusion des tweets annotés. Concrètement, la présence d’une note diminue de presque 50% le nombre de retweets. De plus, les tweets avec notes ont 80% plus de chances d’être supprimés par leurs auteurs, un indicateur que les utilisateurs reconsidèrent peut-être le contenu partagé en présence de contexte supplémentaire.

Cependant, l’étude révèle aussi une limitation majeure : l’efficacité des notes est fortement dépendante de leur rapidité de publication. Avec un délai moyen de 15 heures avant qu’une note ne soit publiée, la plupart des tweets atteignent déjà une large audience avant que l’intervention n’ait lieu, ce qui limite l’impact global du programme.

Face à ces constatations, les chercheurs recommandent une mise en œuvre plus rapide des notes pour améliorer leur efficacité. Ils soulignent que, bien que la modération de contenu pilotée par la communauté montre un potentiel certain, sa capacité à contrer efficacement la propagation de fausses informations est entravée par les retards dans l’application des annotations.

Cette étude vient enrichir le débat sur les stratégies de modération de contenu sur les réseaux sociaux, en démontrant l’importance de la rapidité et de la précision dans les interventions visant à réduire la diffusion de l’information trompeuse. Les résultats encouragent d’autres plateformes à envisager des approches similaires, tout en soulignant la nécessité d’améliorations technologiques et organisationnelles pour maximiser leur impact.

Quel avenir pour ces Notes de la communauté ?

En matière de régulation et d’impact sociétal, les Notes de communauté émergent comme un modèle potentiel pour d’autres plateformes désireuses de responsabiliser leurs utilisateurs dans le combat contre la désinformation. Ce système de modération participative pourrait bien servir de référence pour les législateurs et les organismes de régulation, à l’heure où s’esquissent de nouvelles législations sur la gestion des contenus numériques tels que le Digital Service Act. L’efficacité croissante de cette méthode, sous réserve de certaines améliorations essentielles, la positionne comme un futur standard industriel susceptible d’améliorer la transparence et l’intégrité des informations partagées sur les réseaux sociaux. Malgré les défis présents, l’évolution des Notes Communautaires pourrait marquer un tournant dans les pratiques de modération en ligne, s’inscrivant dans une démarche collective vers des espaces numériques plus fiables et véridiques.

Si Hao Li

Bibliographie et sitographie

https://www.lesechos.fr/tech-medias/hightech/sur-twitter-x-une-montee-de-la-desinformation-depuis-lattaque-du-hamas-1986245

https://www.radiofrance.fr/franceinter/avec-les-notes-de-communaute-twitter-x-marche-sur-les-pas-de-wikipedia-8574656

https://www.francetvinfo.fr/vrai-ou-fake/vrai-ou-faux-les-community-notes-du-reseau-social-x-luttent-elles-efficacement-contre-la-desinformation_6051188.html

https://www.radiofrance.fr/franceinter/podcasts/veille-sanitaire/veille-sanitaire-du-jeudi-31-aout-2023-8788843

https://www.bloomberg.com/graphics/2023-israel-hamas-war-misinformation-twitter-community-notes

https://theconversation.com/les-utilisateurs-de-x-doivent-lutter-seuls-contre-la-desinformation-qui-y-sevit-216779

Casilli, A. A. (2019). En attendant les robots-Enquête sur le travail du clic. Média Diffusion.

Chuai, Y., Tian, H., Pröllochs, N., & Lenzini, G. (2023). The Roll-Out of Community Notes Did Not Reduce Engagement With Misinformation on Twitter. arXiv preprint arXiv:2307.07960.

Renault, T., Amariles, D. R., & Troussel, A. (2024). Collaboratively adding context to social media posts reduces the sharing of false news. arXiv preprint arXiv:2404.02803.

Le chaos informationnel généré par la certification payante sur les réseaux sociaux : étude du cas de X


La prolifération de fausses informations sur les réseaux sociaux est aujourd’hui un problème sociétal et politique majeur. Ceci s’inscrit dans un contexte où les réseaux sociaux se positionnent en tant que principal moyen d’acquisition d’information chez les jeunes. Selon une étude de Médiamétrie datant de 2018, 71 % des individus âgés de 15 à 34 ans déclarent utiliser régulièrement les réseaux sociaux à des fins d’information, surpassant ainsi l’audience des journaux télévisés (49 %), des flashs d’information sur les radios musicales (33 %) et même de la presse quotidienne, incluant sa version en ligne (29 %). 

Cette nouvelle réalité suscite un certain nombre d’inquiétudes largement discutées dans les sphères politiques et médiatiques. L’un des sujets phares concerne le fait que Facebook et X (anciennement Twitter) jouent un rôle central dans la diffusion et la propagation de « fake news », rumeurs et autres formes de désinformation. 

Pourtant, ces géants des médias proposent en majorité un service de vérification de comptes. La vérification, symbolisée par un badge ou une encoche, joue, du moins historiquement, un rôle de confirmation de l’identité du détenteur du compte.

Rapide historique des modèles de certification

Twitter a été le précurseur de la vérification des comptes sur les réseaux sociaux en 2009 après avoir conclu que les suspensions de comptes à posteriori étaient insuffisantes pour faire face aux usurpations d’identité. Au cours des années suivantes, les principales plateformes ont suivi le modèle de Twitter, proposant une vérification de compte avec une terminologie similaire et une iconographie comparable. 

Figure 1 : Historique des programmes de vérification de compte sur les principales plateformes de médias sociaux en janvier 2023 (8.)

La finalité principale de la vérification de compte, point de cohérence au fil du temps et sur différentes plateformes jusqu’aux modifications récentes de X et Meta, a été de remédier à l’usurpation de compte en confirmant l’identité du propriétaire du compte. Cependant, la vérification a rapidement pris une autre signification, notamment en tant que signe de l’importance d’un compte et de la crédibilité de son contenu.

La transition vers un modèle de certification payante

Meta et X, ont récemment entamé une transition majeure dans leurs programmes de certification de compte, évoluant d’un système de confirmation d’identité des utilisateurs à un service premium payant. 

Cette tendance semble principalement motivée par une stratégie visant à accroître les profits et à revitaliser un modèle économique éprouvé. Cependant, ces transformations ne se limitent pas à de simples ajustements de service. Elles entraînent également une refonte significative des modalités d’accès à l’information sur ces plateformes, soulignant ainsi l’impact profond de ces innovations sur la dynamique de partage et de consommation d’informations au sein de ces réseaux sociaux.

Historiquement, Twitter réservait l’attribution des encoches bleues uniquement aux comptes jugés « actifs », « remarquables » et « authentiques ». La démonstration d’authenticité impliquait notamment une preuve d’identité, telle qu’une photo d’un permis de conduire. 

Depuis décembre 2022, X est passé sous un nouveau régime à certification payante, et a assoupli ces critères, notamment en remplaçant « authentique » par « sécurisé » (actif depuis 90 jours, puis encore assoupli à 30 jours, avec un numéro de téléphone confirmé) et « non trompeur ». Il est cohérent de noter que le nouveau processus de vérification pour les coches bleues n’exige ainsi aucune preuve affirmative d’identité. 

La désinformation, enjeu majeur de cette transition ?

Les enjeux liés à ces nouvelles méthodes d’information via les réseaux sociaux se manifestent de manière particulièrement préoccupante chez les jeunes en raison de la nature nouvelle de leur consommation d’information. Un cas interessant concerne les « bulles de filtres », concept popularisé en 2011 par l’essayiste Eli Pariser, qui étend l’idée de la « chambre d’écho » formulée par Sunstein (2001). Cette notion explique un effet inhérent aux médias sociaux et révèle que, par le biais d’algorithmes prédictifs, ces plateformes exposent majoritairement les utilisateurs à des contenus a priori alignés avec leurs préférences et opinions.

En enfermant les internautes dans un univers informationnel qui les isole des citoyens aux opinions divergentes, les réseaux sociaux participent alors à la polarisation et à la fragmentation de l’espace public.

En parallèle, une étude intitulée « Vérification des comptes sur les médias sociaux : Perceptions des utilisateurs et inscription payante », datant de juin 2023 (8), a mis en évidence une méconnaissance des critères de vérification des comptes Twitter. Plus de la moitié des répondants ont démontré une incompréhension sur les critères d’attribution des coches bleues, et plus de 80 % des participants à l’étude a interprété de manière erronée les nouveaux indicateurs de vérification couleur or et gris récemment introduits par X. 

Cette refonte des modalités d’accès à l’information sur les plateformes pose ainsi une question majeure : comment garantir la fiabilité de l’information lorsque le principe même de certification est subvertit, et que cette fonctionnalité ne peut plus être considérée comme un gage de fiabilité ? 

Des conséquences dans le monde réel

L’un des exemples les plus significatifs des risques encourus par la certification payante se manifeste à travers l’exemple du New York Times.  

Seulement quelques heures après avoir déclaré ne pas avoir l’intention de « payer pour maintenir la certification de ses comptes officiels », le prestigieux quotidien américain a vu disparaître le badge bleu du compte du journal, pourtant suivi par une audience de 55 millions d’abonnés. Cet événement a été rapidement suivi d’un tweet du PDG de X, Elon Musk, accusant le média de propagande.

Un internaute possédant déjà un compte vérifié a alors tiré avantage de cette situation en renommant son compte avec le nom du célèbre média américain. Cela a conduit à une situation paradoxale où le véritable compte du New York Times s’est retrouvé non certifié, tandis que le compte frauduleux qui usurpait l’identité du journal conservait sa certification.

D’autres exemples témoignent de conséquences dramatiques de ce nouveau système de certification payante dans le monde réel. Alors que le coût de l’insuline la rend inaccessible à de nombreux citoyen aux États-Unis, un compte vérifié a pris l’identité du géant pharmaceutique Eli Lilly, annonçant faussement que l’entreprise fournirait gratuitement le médicament. En l’espace de quelques heures, le cours des actions d’Eli Lilly a connu une chute de près de 5 %, entraînant des pertes financières évaluées à plusieurs milliards de dollars de capitalisation boursière pour l’entreprise.

Dès lors, comment la certification peut-elle rester synonyme d’authenticité ? L’incapacité à distinguer ceux qui ont payé de ceux qui ne l’ont pas fait pose un défi significatif en terme de crédibilité de l’information, particulièrement au regard du prix extrêmement abordable de ce service, à environ 10 euros par mois.

Les associations tirent la sonnette d’alarme

Le chaos résultant de ces modifications du système de certification soulève des préoccupations sérieuses en matière de droits, qui sont le sujet de divers communiqués d’associations telles que Human Rights Watch ou Reporters sans frontières (RSF). 

Human Rights Watch souligne notamment que les inquiétudes soulevées pointent vers la nécessité de repenser les plateformes sociales en général, tant elles représentent des places publiques numériques et nécessitent une surveillance plus démocratique, y compris des réglementations plus strictes ancrées dans des normes de droits humains. 

« Aucun individu ne devrait détenir le pouvoir que Musk exerce sur une infrastructure d’information aussi cruciale. » Musk chaos raises serious rights concerns over Twitter. – Human Rights Watch (6.)

Reporters sans frontières (RSF) dénonce également cet outil comme dangereux et trompeur, qui instaure un régime à deux vitesses sur l’accès à l’information en ligne et qui ne garantit pas la fiabilité de l’information. RSF appelle donc à retirer cet outil et préconise de mettre en place des règles pour encadrer ces pratiques, en rappelant que les entreprises gérant les réseaux sociaux ont une responsabilité dans le chaos informationnel et que leurs intérêts économiques ne doivent pas passer avant ceux des citoyens. 

Helene Palmer


Bibliographie

  1. Aublanc, M. (2023, 9 avril). Twitter Blue : Comment l’abonnement payant va augmenter le risque de désinformation. www.20minutes.frhttps://www.20minutes.fr/by-the-web/4031545-20230409-twitter-blue-comment-abonnement-payant-va-augmenter-risque-desinformation
  2. Boyadjian, J. (s. d.). Désinformation, non-information ou sur-information ? Cairn.info. https://www.cairn.info/revue-reseaux-2020-4-page-21.htm
  3. Ganesan, A. (2022, 13 novembre). Musk chaos raises serious rights concerns over Twitter. Human Rights Watch. https://www.hrw.org/news/2022/11/12/musk-chaos-raises-serious-rights-concerns-over-twitter
  4. Les jeunes et l’information : Une étude du ministère de la Culture vient éclairer les comportements des jeunes en matière d’accès à l’information. (s. d.). https://www.culture.gouv.fr/Presse/Communiques-de-presse/Les-jeunes-et-l-information-une-etude-du-ministere-de-la-Culture-vient-eclairer-les-comportements-des-jeunes-en-matiere-d-acces-a-l-information
  5. Legacy Verification Policy. (2023, 5 avril). https://help.twitter.com/en/managing-your-account/legacy-verification-policy
  6. Not playing ball. (s. d.). https://blog.twitter.com/official/en_us/a/2009/not-playing-ball.html
  7. RSF réclame la fin des certifications payantes sur les réseaux sociaux et de leur logique censitaire. (s. d.). RSF. https://rsf.org/fr/rsf-r%C3%A9clame-la-fin-des-certifications-payantes-sur-les-r%C3%A9seaux-sociaux-et-de-leur-logique
  8. Xiao, M., Wang, M., Kulshrestha, A., & Mayer, J. (2023, 28 avril). Account verification on social media : user perceptions and paid enrollment. Princeton University. https://arxiv.org/abs/2304.14939
  9. X Verification requirements – How to get the Blue Check. (2023, 2 octobre). https://help.twitter.com/en/managing-your-account/about-twitter-verified-accounts
  10. York, J. (2022a, novembre 16). « Changer les règles du jeu » : les enjeux de la certification payante sur Twitter. France 24. https://www.france24.com/fr/%C3%A9co-tech/20221116-changer-les-r%C3%A8gles-du-jeu-les-enjeux-de-la-certification-payante-sur-twitter
Quitter la version mobile