« Community Notes » sur Twitter : un outil efficace contre les fausses informations ?

En octobre 2023, suite à l’attaque du Hamas contre Israël, la Commission européenne, ainsi que l’Arcom, a adressé un avertissement à la plateforme de réseaux sociaux Twitter, désormais connue sous le nom de X. L’intervention des autorités visait à modérer la diffusion de contenu inapproprié lié à cet événement, incluant de nombreuses vidéos, images et informations fallacieuses. La mise en garde de la Commission européenne et de l’Arcom à l’encontre de X, s’inscrit dans une continuité réglementaire. En effet, cette intervention n’était pas la première du genre. Déjà en octobre 2022, peu après le rachat de la plateforme par Elon Musk, l’Arcom avait rappelé à X ses obligations légales concernant la modération des contenus en ligne. Ces rappels successifs soulignent l’attention accrue des autorités régulatrices sur les pratiques de modération des réseaux sociaux, particulièrement dans le contexte de gestion des crises et de la désinformation.

La lutte contre la désinformation s’intensifie, confronté à des obstacles majeurs tels que la prolifération rapide de nouveaux contenus et la difficulté à discerner le vrai du faux. Cet enjeu, qui doit aussi ménager un équilibre délicat entre la liberté d’expression et la nécessité de limiter la propagation de contenus illicites ou préjudiciables, pousse les plateformes à innover dans leurs approches. En réponse à cette complexité croissante, plusieurs d’entre elles ont récemment adopté des stratégies de modération participative, invitant les utilisateurs à jouer un rôle actif en signalant les publications susceptibles de transgresser leurs règles. L’une des méthodes de modération les plus notables est celle mise en œuvre par la plateforme X : les Notes de la communauté. Initialement testée aux États-Unis en 2021, cette approche a été adoptée à grande échelle à l’international suite à l’acquisition de la plateforme par Elon Musk.

Qu’est qu’une note de communauté et comment cela fonctionne ?

Les notes de communauté sur Twitter (X), un outil novateur de modération participative, visent à lutter contre la désinformation en permettant aux utilisateurs de la plateforme de contribuer à la vérification des faits. Ce système fonctionne grâce à l’engagement collaboratif des membres de Twitter (X), qui peuvent apposer des annotations sur les tweets qu’ils jugent trompeurs ou inexacts. Ces notes sont ensuite visibles par tous, offrant un contexte additionnel qui aide les autres utilisateurs à mieux interpréter les publications.

Le fonctionnement est relativement simple : une fois qu’un tweet est signalé, il est examiné par des contributeurs qui évaluent son exactitude. Si une note est approuvée par suffisamment de vérificateurs, elle est publiée sur le tweet en question, offrant ainsi une forme de validation ou de correction publique. Cette méthode vise non seulement à décourager la diffusion de fausses informations, mais aussi à encourager une culture de la transparence et de la responsabilité parmi les utilisateurs.

L’impact de ces notes se manifeste particulièrement dans les domaines sensibles comme la politique et la publicité. Par exemple, lorsqu’un politicien prétend à tort que les écoles françaises ont historiquement exigé le port de l’uniforme, une note basée sur des sources fiables, telles que des articles de presse vérifiés, peut corriger cette affirmation. De même, dans le cas des conditions d’utilisation d’un réseau social, les notes peuvent clarifier des malentendus courants en s’appuyant sur des documents officiels ou des archives web pour démontrer que certaines pratiques, comme l’utilisation des contenus des utilisateurs, étaient déjà en place bien avant leur mention récente.

Les publicités ne sont pas épargnées par cette vérification ; des notes ciblent souvent des annonces prétendant des bénéfices exagérés ou pratiquant le « dropshipping » sans transparence. Ces interventions permettent de protéger les consommateurs contre des pratiques commerciales douteuses, en exposant la réalité derrière des offres trop alléchantes pour être vraies.

Parfois, le zèle des contributeurs peut mener à ce que certains considèrent comme du « pinaillage » — des corrections de détails minuscules qui, bien que techniquement corrects, peuvent sembler excessifs. Cependant, même ces interventions minimes jouent un rôle dans l’élaboration d’un discours en ligne plus précis et mesuré, reflétant la mission de la plateforme d’encourager une communication honnête et informée.

Des limites à considérer…

Les Notes de la communauté de Twitter (X), bien qu’efficaces dans la lutte contre la désinformation, rencontrent cependant des limites inhérentes à leur popularité et à leur mode de fonctionnement. Prévues pour enrichir le débat public par des corrections et des clarifications, ces notes sont parfois victimes de leur propre succès. En effet, leur usage excessif tend à diluer leur impact, transformant potentiellement un outil de vérification en un moyen de surinformation.

Un autre problème réside dans leur structure même : rédigées et évaluées par les utilisateurs via un système de votes, les Notes de la communauté peuvent être manipulées par des groupes organisés. Ces derniers, agissant de concert, peuvent influencer la visibilité des corrections, en promouvant ou en supprimant des notes selon leurs intérêts, qu’ils soient politiques ou autres. Cette dynamique peut compromettre l’objectivité et la neutralité des informations, permettant à certaines vérités factuelles de se retrouver injustement écartées ou à des narratifs biaisés de prévaloir.

Les notes de la communauté de Twitter (X) sont-elles efficaces ?

Dans une étude récente, des chercheurs de l’Université Paris 1 Panthéon-Sorbonne et de HEC Paris ont examiné l’efficacité des Notes de la communauté de Twitter (X),. L’objectif était de déterminer si ajouter des annotations contextuelles à des tweets potentiellement trompeurs pourrait réduire leur viralité.

L’analyse s’appuie sur une base de données de quelque 285 000 notes collectées via le programme de Notes de la communauté de Twitter (X). Les résultats montrent une réduction notable de la diffusion des tweets annotés. Concrètement, la présence d’une note diminue de presque 50% le nombre de retweets. De plus, les tweets avec notes ont 80% plus de chances d’être supprimés par leurs auteurs, un indicateur que les utilisateurs reconsidèrent peut-être le contenu partagé en présence de contexte supplémentaire.

Cependant, l’étude révèle aussi une limitation majeure : l’efficacité des notes est fortement dépendante de leur rapidité de publication. Avec un délai moyen de 15 heures avant qu’une note ne soit publiée, la plupart des tweets atteignent déjà une large audience avant que l’intervention n’ait lieu, ce qui limite l’impact global du programme.

Face à ces constatations, les chercheurs recommandent une mise en œuvre plus rapide des notes pour améliorer leur efficacité. Ils soulignent que, bien que la modération de contenu pilotée par la communauté montre un potentiel certain, sa capacité à contrer efficacement la propagation de fausses informations est entravée par les retards dans l’application des annotations.

Cette étude vient enrichir le débat sur les stratégies de modération de contenu sur les réseaux sociaux, en démontrant l’importance de la rapidité et de la précision dans les interventions visant à réduire la diffusion de l’information trompeuse. Les résultats encouragent d’autres plateformes à envisager des approches similaires, tout en soulignant la nécessité d’améliorations technologiques et organisationnelles pour maximiser leur impact.

Quel avenir pour ces Notes de la communauté ?

En matière de régulation et d’impact sociétal, les Notes de communauté émergent comme un modèle potentiel pour d’autres plateformes désireuses de responsabiliser leurs utilisateurs dans le combat contre la désinformation. Ce système de modération participative pourrait bien servir de référence pour les législateurs et les organismes de régulation, à l’heure où s’esquissent de nouvelles législations sur la gestion des contenus numériques tels que le Digital Service Act. L’efficacité croissante de cette méthode, sous réserve de certaines améliorations essentielles, la positionne comme un futur standard industriel susceptible d’améliorer la transparence et l’intégrité des informations partagées sur les réseaux sociaux. Malgré les défis présents, l’évolution des Notes Communautaires pourrait marquer un tournant dans les pratiques de modération en ligne, s’inscrivant dans une démarche collective vers des espaces numériques plus fiables et véridiques.

Si Hao Li

Bibliographie et sitographie

https://www.lesechos.fr/tech-medias/hightech/sur-twitter-x-une-montee-de-la-desinformation-depuis-lattaque-du-hamas-1986245

https://www.radiofrance.fr/franceinter/avec-les-notes-de-communaute-twitter-x-marche-sur-les-pas-de-wikipedia-8574656

https://www.francetvinfo.fr/vrai-ou-fake/vrai-ou-faux-les-community-notes-du-reseau-social-x-luttent-elles-efficacement-contre-la-desinformation_6051188.html

https://www.radiofrance.fr/franceinter/podcasts/veille-sanitaire/veille-sanitaire-du-jeudi-31-aout-2023-8788843

https://www.bloomberg.com/graphics/2023-israel-hamas-war-misinformation-twitter-community-notes

https://theconversation.com/les-utilisateurs-de-x-doivent-lutter-seuls-contre-la-desinformation-qui-y-sevit-216779

Casilli, A. A. (2019). En attendant les robots-Enquête sur le travail du clic. Média Diffusion.

Chuai, Y., Tian, H., Pröllochs, N., & Lenzini, G. (2023). The Roll-Out of Community Notes Did Not Reduce Engagement With Misinformation on Twitter. arXiv preprint arXiv:2307.07960.

Renault, T., Amariles, D. R., & Troussel, A. (2024). Collaboratively adding context to social media posts reduces the sharing of false news. arXiv preprint arXiv:2404.02803.

Touche Pas à Mon Poste (TPMP) et la construction d’une communauté utile tant au niveau médiatique qu’idéologique

Le 14 mars dernier, lors de son audition au Sénat dans le cadre de la commission d’enquête sur l’attribution, le contenu et le contrôle des autorisations de services de télévision à caractère national sur la télévision numérique terrestre, Cyril Hanouna a rappelé que son émission phare Touche Pas à Mon Poste avait au commencement, plus de followers sur Facebook que de téléspectateurs sur France 4. Un fait unique dans l’univers télévisuel français.

Pour rappel : Touche pas à Mon Poste dit TPMP est un talk-show quotidien d’infotainment diffusé depuis le 1 avril 2010 et présenté par Cyril Hanouna.

Alors que son arrivée dans le petit écran coïncide avec les débuts de l’utilisation de masse des réseaux sociaux, TPMP les a investi massivement. D’abord Facebook et Twitter dès 2010 puis Instagram et YouTube en 2015.

Au fil des années, cette stratégie s’est révélée payante puisque l’utilisation des réseaux sociaux lors du visionnage d’émission TV s’est retrouvé une habitude chez beaucoup d’individus (72% des 16-21 ans en 2019 aux Etats-Unis et 49% des milléniales en 2016).

Aujourd’hui, TPMP compte 1,5 millions de téléspectateurs quotidiens sur C8 entre 19h et 21h, 3.8 millions d’abonnés sur Twitter, 4.5 millions sur Facebook, 952 000 sur Instagram et 2.4 millions sur Youtube. Aussi, entre janvier et juin 2022, le #TPMP était le 12ème hashtag le plus utilisé sur Twitter, premier pour les émissions TV.

Ce lien entre audiences et puissance numérique peut être expliqué par un attachement des individus utilisant certains réseaux sociaux aux émissions de TV. En 2015, Ipsos Connect UK révèle dans une étude mené pour Twitter que 60% des utilisateurs de Twitter au Royaume Uni portent un grand intérêts aux émissions TV tandis qu’ils sont seulement 20% lorsqu’ils n’utilisent pas Twitter.

Accroitre sa présence sur les réseaux sociaux peut donc entrainer de meilleures audiences à l’antenne. C’est dans cette optique que l’émission TPMP a commencé une stratégie de marketing digital sur les réseaux sociaux dès 2010.

Déployant des mécanismes performants afin de créer une communauté numérique active, TPMP a réussi à faire de sa communauté un outil efficace médiatiquement mais également idéologiquement.

Plongeons dans cette communauté pour en ressortir les caractéristiques.

  1. La création d’une communauté active, engagée et valorisée permettant d’accroitre la notoriété de l’émission

La première stratégie gagnante de l’émission est d’avoir créé une réelle communauté active autour d’elle et de ses protagonistes.

Dès son démarrage, Cyril Hanouna a construit l’émission autour de sa communauté.

Dès 2012, la communauté avait déjà une nom « les fanzouzes », des lieux de conversations régulières (Twitter, Facebook) et une stratégie collective : promouvoir l’émission.

La création de la communauté s’est faite d’abord par l’initiative de l’animateur grâce à divers moyens à l’antenne et hors antenne.

Tout d’abord, l’utilisation récurrente à l’antenne de la notion de « famille » pour parler du lien qui unissait les téléspectateurs, les chroniqueurs et l’animateur a permis de renforcer les lien d’une communauté de téléspectateurs.

Aussi, les interactions avec le public étaient exclusivement tournées autour de la formation d’une communauté (remerciement, valorisation de la présence sur les réseaux sociaux…).

De plus, la conversation à propos de l’émission sur les réseaux sociaux était valorisée par le partage de certains messages à l’antenne. Les internautes étaient donc poussés à commenter TPMP sur les réseaux sociaux pour voir leur message diffusé à la télévision.

Enfin, Cyril Hanouna avait une contribution sur ses réseaux sociaux privés très en lien avec la construction d’une communauté made in TPMP. On peut citer plusieurs exemples comme l’instauration d’un rituel de tweet appelé « le tweet du dimanche soir » grâce auquel chaque internaute savait que tous les dimanches soirs Cyril Hanouna donnerai de ses nouvelles sur Twitter, le fait qu’il se soit abonné à un grand nombre d’internautes engagés dans la communauté fanzouze ou encore le fait qu’il annonçait à l’antenne les week-end où il allait répondre aux messages privés sur ses réseaux sociaux.

Toute cette stratégie de communication, via les réseaux sociaux ou à l’antenne de la part de l’animateur de TPMP, a permis aux téléspectateurs de se sentir entendus et utiles, ce qui a renforcé la création d’un réel sentiment de communauté autour de l’émission tout en poussant à son engagement sur les réseaux sociaux.

Cependant, rendre la communauté active ne repose pas que sur l’animateur mais aussi sur les comptes de l’émission présents sur les différents réseaux sociaux.

En effet, les comptes Facebook et Twitter de TPMP, principalement, ont rapidement créé une politique de publications récurrentes et diversifiées, incitant l’engagement des abonnés.

Les stratégies de publications incitant à l’engament sont nombreuses, nous allons donc restreindre leur explication à certaines : les annonces de programmes, les jeux concours et les extraits vidéos.

Tout d’abord, les annonces de programmes.

Les publications quotidiennes annonçant le programme de l’émission du soir ont très vite été installées dans le calendrier des publications. Celles-ci permettent en effet de créer de l’engouement sur une émission en incitant les internautes à la regarder. De plus, expliciter le contenu de l’émission permet aux internautes de commenter ce programme bien avant son heure de début, les séquences qui leurs plaisent, celles qui les dérangent, celles qui font polémique…

Dès le milieu d’après-midi, TPMP obtient donc une publicité supplémentaire dû au earned média, aux internautes qui partagent leurs avis sur le programme du soir.

Ensuite, les jeux concours.

Cette deuxième stratégie de publication nous permet d’aborder deux notions importante : l’importance du hashtag et l’engagement par le jeu.

L’engagement par le jeu à très vite été utilisé par les comptes de TPMP sur les différents réseaux sociaux car il permettait d’augmenter la visibilité de la marque, de son hashtag. L’émission a utilisé et utilise encore plusieurs types de jeux dont les deux principaux sont :

Enfin, les extraits vidéos.

Cette troisième stratégie de publication permet d’être un maximum visible sur les réseaux sociaux car ce sont des types de contenus qui sont favorisés par les algorithmes. De plus, les vidéos engendre plus de commentaires car le propos partagé est plus accessible. Les extraits vidéos permettent donc de créer de l’engagement via des partages ou des commentaires.

Les vidéos diffusés sur les réseaux sociaux de TPMP sont de deux natures : des replays de passages passés à l’antenne et des extraits inédits (coulisses, défis annoncé à l’antenne et relevé sur les réseaux sociaux…). Les extraits déjà passés à l’antenne permettent aux internautes qui ne regardent pas en direct d’avoir accès aux contenus et de pouvoir les partager ou les commenter. Les extraits inédits permettent de valoriser les téléspectateurs présents sur les réseaux sociaux. Les téléspectateurs sont donc poussés à suivre TPMP sur les réseaux sociaux pour avoir accès à des contenus exclusifs. L’impact des vidéos sur la visibilité numérique de l’émission est fort puisque plus d’une publication sur deux en est une.

Grâce à cette politique de publication et de valorisation des réseaux sociaux émanant de la part de Cyril Hanouna ou des comptes officiels de l’émission, TPMP se retrouve extrêmement visible sur les réseaux sociaux, ce qui conduit à de belles audiences en télévision linéaire, c’est-à-dire sur C8.

Mais, la puissance de la stratégie marketing de TPMP s’est révélée au fil du temps plus puissante qu’il n’y paraissait, permettant à l’émission d’assoir non plus seulement une puissance médiatique mais aussi une puissance idéologique.

2. La communauté, un outil de propagande

A force de renforcer sa communauté grâce à des stratégies de publications efficaces, TPMP a fait de sa communauté un outil de propagande important.

D’après le Larousse, la propagande est une « Action systématique exercée sur l’opinion pour lui faire accepter certaines idées ou doctrines ».

Nous verrons donc ici que la communauté de TPMP est devenue actrice de la propagande de l’émission après en avoir été le public.

Il est intéressant d’analyser le rôle de la communauté de TPMP sous deux angles : son rôle dans les polémiques et son rôle dans les messages véhiculés par l’émission.

Tout d’abord, le rôle de la communauté dans les polémiques subies par l’émission.

Petit rappel important, TPMP connait depuis 2016 de nombreuses polémiques au sujet de certaines séquences diffusées à l’antenne. Lors de ces polémiques, TPMP peut compter sur sa communauté pour défendre contre vents et marées l’émission sur les réseaux sociaux mais également en plateau, où Cyril Hanouna n’hésite pas à utiliser sa communauté comme argument de défense.

Nous pouvons citer comme exemple la polémique du canular jugé homophobe en mai 2017.

Lors de cette polémique, Cyril Hanouna est accusé d’avoir, lors d’une séquence diffusée à l’antenne, humilié et incité à la stigmatisation des personnes homosexuelles lors d’un canular téléphonique.

Dès le lendemain, les critiques et les plaintes au CSA fusent.

De son côté, sur les réseaux sociaux, la communauté de TPMP défend son animateur et publie tout le bien qu’elle pense de l’émission. Cette défense sur les réseaux sociaux est accrue par les propos de l’animateurs à l’antenne qui remercie sans-cesse ses fidèles « fanzouzes » de le défendre ainsi.

Aussi, Cyril Hanouna n’hésite pas, encore une fois, à supprimer les frontières réseaux sociaux-télévision, en invitant sur son plateau un homme se revendiquant être « fanzouze » et homosexuel et qui a défendu corps et âme Cyril Hanouna sur les réseaux sociaux. Un parfait inconnu mais membre de la communauté est donc invité en direct à s’exprimer. Ni expert, ni membre d’une association, ni artiste, sa seule légitimité est alors d’être membre de la communauté. Défendant à l’antenne l’animateur de TPMP, il est utilisé comme porte-parole de la communauté. D’un côté il montre aux détracteurs que les fans de l’émissions sont toujours là. De l’autre, il montre aux téléspectateurs qui ne se sont pas encore exprimés qu’ils peuvent le faire et il prouve à ceux qui se sont exprimés qu’ils avaient raisons.

En fidélisant sa communauté et en créant un sentiment de famille, TPMP a réussi à transformer sa communauté en véritable armée, prête à tout pour défendre l’émission et son animateur.

Ensuite, le rôle de la communauté dans le relai de  « l’idéologie » de TPMP.

Afin de comprendre au mieux cette partie, il est important de rappelé que Touche Pas à Mon Poste à connu de nombreuses évolution éditoriales depuis sa création, dont la principale s’est observée en 2018, année de l’épisode des Gilets Jaunes, où l’émission a basculé d’une ligne éditoriale de divertissement vers celle d’une émission de société traitant des sujets d’actualités sociétales et politiques.

Aussi, il est important de mettre au clair le terme « idéologie de TPMP » dans lequel la communauté joue un rôle. Claire Sécail, historienne des médias et chargée de recherches au CNRS qualifie ainsi les discours portés par l’émission depuis 2018. Elle dit de ces discours qu’ils sont « empreints d’anti-élitisme, d’antiparlementarisme et de populisme pénal ». Elle rajoute que « l’émission fait le jeu des idéologies et stratégies populistes ». Nous nous attacherons donc à l’utilisation de la communauté dans le relais de ces idéologies populistes comme l’illustre Claire Sécail.

Dans son essai Touche Pas à Mon Peuple, l’historienne des médias décortique le lien entre TPMP et sa communauté en appuyant le fait que Cyril Hanouna s’est authentifié comme animateur « populaire auprès du peuple pour se réclamer du peuple » dans son émission ce qui lui « offre une légitimité » dans les débats. Cette (auto ?)-désignation comme émission populaire permet à ses protagonistes, dont l’animateur, de clamer que « critiquer l’émission revient à critiquer son public, donc le peuple ».

Le public de TPMP, et donc sa communauté, permet ainsi à l’émission de se caractériser comme populaire et légitime, vis-à-vis du débat démocratique, de traiter des sujets politiques.

Cependant, au-delà de simplement permettre la diffusion de débats et d’avis, la communauté devient aussi le relai de ces avis sur les réseaux sociaux. Les membres de la communauté n’hésitent pas à prendre les arguments des protagonistes comme vérités, au même niveau qu’on prend pour vérités tout ce que nous dit nos parents ou notre famille à un certain âge. Après tout, les créateurs d’une communauté qui égaye la vie des membres ne peux qu’avoir raison sur des sujets politiques et sociétaux.

Aussi, en plus de relayer les avis sur les réseaux sociaux, la communauté permet d’appuyer certains propos à l’antenne. L’outils utilisé par l’émission est alors les sondages.

Les sondages, publiés sur Twitter en direct, ont très vite été utilisés par l’émission pour appuyer le sentiment de communauté. En donnant la possibilité aux téléspectateurs de participer à des débats, ils se sentent proches de l’émissions et valorisés. Pour la production, les résultats des sondages permettent aussi de rendre valables certaines positions. Peu importe le nombre de répondant aux sondages et sa représentation de la population française, lorsque les résultats des sondages sont diffusés à l’antenne, ils sont toujours pris pour argent comptant. Les résultats divulgués permettent de montrer que le public est du même avis, donc le peuple. Ne pas être d’accord signifie donc être contre le peuple que représente le public de TPMP (cf : Touche Pas à Mon Peuple, Claire Sécail).

Les sondages se transforment aussi en outils de manipulation puisque leurs résultats sont diffusés à l’antenne seulement lorsqu’ils sont favorable à l’avis de l’animateur. Si la majorité des internautes a répondu le contraire des propos de Cyril Hanouna à l’antenne, le sondage n’apparaitra jamais en direct.

Les résultats des sondages sont donc utilisés subjectivement, diffusés si ils appuient un propos, non diffusés si ils remettent en cause l’avis de l’animateur.

Conclusion :

En dix ans et malgré les différentes lignes éditoriales prises par TPMP, la stratégie digitale d’omniprésence sur les réseaux sociaux n’a, elle, jamais changé.

Elle a tout d’abord permis de créer une communauté fidèle et active, utilisée comme promotion de l’émission dans le but de renforcer les audiences.

Avec l’arrivée des polémiques, TPMP a mesuré l’impact qu’elle avait sur sa communauté, capable de devenir une réelle armée numérique de défense.

Mais c’est avec l’arrivée des débats sociétaux et politiques, que son rôle a vraiment changé : elle est devenue un relai et un appui pour les avis de l’animateur, poussé par une idéologie populiste, illustrée par Claire Sécail.

En définitive, l’émission Touche Pas à Mon Poste permet de montrer la puissance de la création d’une communauté numérique, tant au niveau des audiences que de la réputation ou de la propagande.

Au départ vecteur de joie et de fraternité, la communauté de TPMP a doucement glissée vers un relai d’idées populistes, au même titre que l’émission en elle-même.

Sarah Saucet

Références :

Le chaos informationnel généré par la certification payante sur les réseaux sociaux : étude du cas de X


La prolifération de fausses informations sur les réseaux sociaux est aujourd’hui un problème sociétal et politique majeur. Ceci s’inscrit dans un contexte où les réseaux sociaux se positionnent en tant que principal moyen d’acquisition d’information chez les jeunes. Selon une étude de Médiamétrie datant de 2018, 71 % des individus âgés de 15 à 34 ans déclarent utiliser régulièrement les réseaux sociaux à des fins d’information, surpassant ainsi l’audience des journaux télévisés (49 %), des flashs d’information sur les radios musicales (33 %) et même de la presse quotidienne, incluant sa version en ligne (29 %). 

Cette nouvelle réalité suscite un certain nombre d’inquiétudes largement discutées dans les sphères politiques et médiatiques. L’un des sujets phares concerne le fait que Facebook et X (anciennement Twitter) jouent un rôle central dans la diffusion et la propagation de « fake news », rumeurs et autres formes de désinformation. 

Pourtant, ces géants des médias proposent en majorité un service de vérification de comptes. La vérification, symbolisée par un badge ou une encoche, joue, du moins historiquement, un rôle de confirmation de l’identité du détenteur du compte.

Rapide historique des modèles de certification

Twitter a été le précurseur de la vérification des comptes sur les réseaux sociaux en 2009 après avoir conclu que les suspensions de comptes à posteriori étaient insuffisantes pour faire face aux usurpations d’identité. Au cours des années suivantes, les principales plateformes ont suivi le modèle de Twitter, proposant une vérification de compte avec une terminologie similaire et une iconographie comparable. 

Figure 1 : Historique des programmes de vérification de compte sur les principales plateformes de médias sociaux en janvier 2023 (8.)

La finalité principale de la vérification de compte, point de cohérence au fil du temps et sur différentes plateformes jusqu’aux modifications récentes de X et Meta, a été de remédier à l’usurpation de compte en confirmant l’identité du propriétaire du compte. Cependant, la vérification a rapidement pris une autre signification, notamment en tant que signe de l’importance d’un compte et de la crédibilité de son contenu.

La transition vers un modèle de certification payante

Meta et X, ont récemment entamé une transition majeure dans leurs programmes de certification de compte, évoluant d’un système de confirmation d’identité des utilisateurs à un service premium payant. 

Cette tendance semble principalement motivée par une stratégie visant à accroître les profits et à revitaliser un modèle économique éprouvé. Cependant, ces transformations ne se limitent pas à de simples ajustements de service. Elles entraînent également une refonte significative des modalités d’accès à l’information sur ces plateformes, soulignant ainsi l’impact profond de ces innovations sur la dynamique de partage et de consommation d’informations au sein de ces réseaux sociaux.

Historiquement, Twitter réservait l’attribution des encoches bleues uniquement aux comptes jugés « actifs », « remarquables » et « authentiques ». La démonstration d’authenticité impliquait notamment une preuve d’identité, telle qu’une photo d’un permis de conduire. 

Depuis décembre 2022, X est passé sous un nouveau régime à certification payante, et a assoupli ces critères, notamment en remplaçant « authentique » par « sécurisé » (actif depuis 90 jours, puis encore assoupli à 30 jours, avec un numéro de téléphone confirmé) et « non trompeur ». Il est cohérent de noter que le nouveau processus de vérification pour les coches bleues n’exige ainsi aucune preuve affirmative d’identité. 

La désinformation, enjeu majeur de cette transition ?

Les enjeux liés à ces nouvelles méthodes d’information via les réseaux sociaux se manifestent de manière particulièrement préoccupante chez les jeunes en raison de la nature nouvelle de leur consommation d’information. Un cas interessant concerne les « bulles de filtres », concept popularisé en 2011 par l’essayiste Eli Pariser, qui étend l’idée de la « chambre d’écho » formulée par Sunstein (2001). Cette notion explique un effet inhérent aux médias sociaux et révèle que, par le biais d’algorithmes prédictifs, ces plateformes exposent majoritairement les utilisateurs à des contenus a priori alignés avec leurs préférences et opinions.

En enfermant les internautes dans un univers informationnel qui les isole des citoyens aux opinions divergentes, les réseaux sociaux participent alors à la polarisation et à la fragmentation de l’espace public.

En parallèle, une étude intitulée « Vérification des comptes sur les médias sociaux : Perceptions des utilisateurs et inscription payante », datant de juin 2023 (8), a mis en évidence une méconnaissance des critères de vérification des comptes Twitter. Plus de la moitié des répondants ont démontré une incompréhension sur les critères d’attribution des coches bleues, et plus de 80 % des participants à l’étude a interprété de manière erronée les nouveaux indicateurs de vérification couleur or et gris récemment introduits par X. 

Cette refonte des modalités d’accès à l’information sur les plateformes pose ainsi une question majeure : comment garantir la fiabilité de l’information lorsque le principe même de certification est subvertit, et que cette fonctionnalité ne peut plus être considérée comme un gage de fiabilité ? 

Des conséquences dans le monde réel

L’un des exemples les plus significatifs des risques encourus par la certification payante se manifeste à travers l’exemple du New York Times.  

Seulement quelques heures après avoir déclaré ne pas avoir l’intention de « payer pour maintenir la certification de ses comptes officiels », le prestigieux quotidien américain a vu disparaître le badge bleu du compte du journal, pourtant suivi par une audience de 55 millions d’abonnés. Cet événement a été rapidement suivi d’un tweet du PDG de X, Elon Musk, accusant le média de propagande.

Un internaute possédant déjà un compte vérifié a alors tiré avantage de cette situation en renommant son compte avec le nom du célèbre média américain. Cela a conduit à une situation paradoxale où le véritable compte du New York Times s’est retrouvé non certifié, tandis que le compte frauduleux qui usurpait l’identité du journal conservait sa certification.

D’autres exemples témoignent de conséquences dramatiques de ce nouveau système de certification payante dans le monde réel. Alors que le coût de l’insuline la rend inaccessible à de nombreux citoyen aux États-Unis, un compte vérifié a pris l’identité du géant pharmaceutique Eli Lilly, annonçant faussement que l’entreprise fournirait gratuitement le médicament. En l’espace de quelques heures, le cours des actions d’Eli Lilly a connu une chute de près de 5 %, entraînant des pertes financières évaluées à plusieurs milliards de dollars de capitalisation boursière pour l’entreprise.

Dès lors, comment la certification peut-elle rester synonyme d’authenticité ? L’incapacité à distinguer ceux qui ont payé de ceux qui ne l’ont pas fait pose un défi significatif en terme de crédibilité de l’information, particulièrement au regard du prix extrêmement abordable de ce service, à environ 10 euros par mois.

Les associations tirent la sonnette d’alarme

Le chaos résultant de ces modifications du système de certification soulève des préoccupations sérieuses en matière de droits, qui sont le sujet de divers communiqués d’associations telles que Human Rights Watch ou Reporters sans frontières (RSF). 

Human Rights Watch souligne notamment que les inquiétudes soulevées pointent vers la nécessité de repenser les plateformes sociales en général, tant elles représentent des places publiques numériques et nécessitent une surveillance plus démocratique, y compris des réglementations plus strictes ancrées dans des normes de droits humains. 

« Aucun individu ne devrait détenir le pouvoir que Musk exerce sur une infrastructure d’information aussi cruciale. » Musk chaos raises serious rights concerns over Twitter. – Human Rights Watch (6.)

Reporters sans frontières (RSF) dénonce également cet outil comme dangereux et trompeur, qui instaure un régime à deux vitesses sur l’accès à l’information en ligne et qui ne garantit pas la fiabilité de l’information. RSF appelle donc à retirer cet outil et préconise de mettre en place des règles pour encadrer ces pratiques, en rappelant que les entreprises gérant les réseaux sociaux ont une responsabilité dans le chaos informationnel et que leurs intérêts économiques ne doivent pas passer avant ceux des citoyens. 

Helene Palmer


Bibliographie

  1. Aublanc, M. (2023, 9 avril). Twitter Blue : Comment l’abonnement payant va augmenter le risque de désinformation. www.20minutes.frhttps://www.20minutes.fr/by-the-web/4031545-20230409-twitter-blue-comment-abonnement-payant-va-augmenter-risque-desinformation
  2. Boyadjian, J. (s. d.). Désinformation, non-information ou sur-information ? Cairn.info. https://www.cairn.info/revue-reseaux-2020-4-page-21.htm
  3. Ganesan, A. (2022, 13 novembre). Musk chaos raises serious rights concerns over Twitter. Human Rights Watch. https://www.hrw.org/news/2022/11/12/musk-chaos-raises-serious-rights-concerns-over-twitter
  4. Les jeunes et l’information : Une étude du ministère de la Culture vient éclairer les comportements des jeunes en matière d’accès à l’information. (s. d.). https://www.culture.gouv.fr/Presse/Communiques-de-presse/Les-jeunes-et-l-information-une-etude-du-ministere-de-la-Culture-vient-eclairer-les-comportements-des-jeunes-en-matiere-d-acces-a-l-information
  5. Legacy Verification Policy. (2023, 5 avril). https://help.twitter.com/en/managing-your-account/legacy-verification-policy
  6. Not playing ball. (s. d.). https://blog.twitter.com/official/en_us/a/2009/not-playing-ball.html
  7. RSF réclame la fin des certifications payantes sur les réseaux sociaux et de leur logique censitaire. (s. d.). RSF. https://rsf.org/fr/rsf-r%C3%A9clame-la-fin-des-certifications-payantes-sur-les-r%C3%A9seaux-sociaux-et-de-leur-logique
  8. Xiao, M., Wang, M., Kulshrestha, A., & Mayer, J. (2023, 28 avril). Account verification on social media : user perceptions and paid enrollment. Princeton University. https://arxiv.org/abs/2304.14939
  9. X Verification requirements – How to get the Blue Check. (2023, 2 octobre). https://help.twitter.com/en/managing-your-account/about-twitter-verified-accounts
  10. York, J. (2022a, novembre 16). « Changer les règles du jeu » : les enjeux de la certification payante sur Twitter. France 24. https://www.france24.com/fr/%C3%A9co-tech/20221116-changer-les-r%C3%A8gles-du-jeu-les-enjeux-de-la-certification-payante-sur-twitter

Fake news sur la guerre en Ukraine : les réseaux sociaux sont-ils plus trompeurs que les médias traditionnels?

Vous avez peut-être déjà vu des passages des émissions télé dans lesquels les réseaux sociaux sont présentés comme les principaux responsables de la propagation des fake news et dans une période dans laquelle de plus en plus de monde, notamment les jeunes, s’informe en ligne et sur les réseaux sociaux il est pertinent de se demander si les réseaux sont plus trompeurs que les médias traditionnels et en particulier la télévision, en se penchant sur un événement qui nous impacte tous depuis plus d’un an maintenant : la guerre en Ukraine.

Historiquement, les chaînes d’information avaient la priorité lorsqu’un événement important se passait, maintenant avec l’émergence des réseaux sociaux un événement qui se passe même très loin de nos frontières peut vite devenir viral et faire le tour du monde. Dans ce contexte, les chaînes d’information perdent leur avantage historique dans ce jeu de concurrence avec les réseaux sociaux, la plupart des événements n’arrivant plus à la télévision en premier, mais sur les réseaux sociaux. 

Étant donné que les chaînes d’information doivent faire preuve d’une réelle réactivité afin de tenir le cap face aux réseaux sociaux et qu’elles ont besoin de contenu en continu, il arrive parfois que les chaînes d’information n’aient pas le temps nécessaire de vérifier la véracité de toutes les informations qu’elles relaient. 

Quant aux réseaux sociaux, cet attribut qui leur permet de connecter facilement le monde est à double tranchant. D’un côté, l’information peut venir de sources diverses et arriver rapidement aux quatre coins du monde. D’un autre côté, ces mêmes sources sont souvent difficilement vérifiables et une fois l’information lancée il est compliqué d’arrêter sa propagation et donc favoriser un environnement propice à l’apparition des fake news. 

En février 2022, Ursula von der Leyen annonce l’interdiction des médias d’État russes au sein de l’Union Européenne : la chaîne de télévision Russia Today et le journal Sputnik lors de l’annonce des sanctions contre la Russie. Dans une publication sur Twitter, Ursula von der Leyen affirme : «[Ils] ne pourront plus diffuser leurs mensonges pour justifier la guerre de Poutine. Nous développons donc des outils pour interdire leur désinformation toxique et nuisible en Europe». La guerre en Ukraine se joue non seulement sur les théâtre de combat, mais dans l’information également.

Les héros de l’île des Serpents

 Une vidéo a fait le tour des réseaux au début de la guerre. Il s’agit d’une vidéo initialement diffusée par le conseiller du ministre de l’intérieur ukrainien sur son compte Telegram et reprise par plusieurs médias en ligne (comme Ukrayinska Pravda). La vidéo montre les échanges entre les soldats russes et les gardes-côtes ukrainiens sur l’île des Serpents et une célèbre phrase est restée dans la mémoire collective : «Navire militaire russe, allez vous faire fou***»  . Volodymyr Zelensky avait déclaré : «Sur notre île de Zmiinyi, en la défendant jusqu’au bout, tous les gardes-frontières sont morts héroïquement. Mais ils n’ont pas renoncé. Ils recevront tous, à titre posthume, le titre de Héros de l’Ukraine. Que la mémoire de ceux qui ont donné leur vie pour l’Ukraine vive à jamais». La vidéo a été reprise également dans les médias français sur des chaînes d’information comme LCI et  BFMTV ou encore le journal Le Point sur son compte Twitter. 

Quelques jours plus tard, les forces armées ukrainiennes reviennent sur cette information  dans une publication Facebook déclarant que les soldats ukrainiens sont en vie et capturés par les soldats russes. Les chaînes de télévision françaises ont également clarifié la situation par la suite.

LCI et BFM ne sont pas les seules chaînes qui relaient des informations sans toujours vérifier leur provenance et leur véracité. En effet, CNEWS, a publié le 28 avril 2023 un article en ligne «VLADIMIR POUTINE : LE PRÉSIDENT RUSSE A-T-IL ÉCHAPPÉ À UN ATTENTAT AU DRONE KAMIKAZE ? » sans que Moscou ou Kiev confirment cette affirmation. Il s’agit donc d’un exemple de clickbait car en lisant le contenu de l’article est loin de démontrer un tel événement. 

Les réseaux sociaux sont eux aussi loin d’être innocents dans la propagation des fake news et la Russie semble bien maîtriser la technique de l’astroturfing en utilisant le partage massif par des faux comptes des informations propagée soit par les officiels russes (des membres du gouvernement ou des institutions russes) soit directement par des comptes dont l’identité est difficilement vérifiable ou à travers les commentaires des diverses publications.

Depuis la création de Twitter Bleu, des faux comptes peuvent maintenant obtenir le badge bleu qui fait gagner la crédibilité du compte le détenant, en payant un abonnement mensuel. Twitter Bleu pose un problème dans la propagation des fake news car certains médias traditionnels ou des journalistes indépendants perdent leur badge en refusant de payer l’abonnement alors que d’autres comptes Twitter risquent de sembler plus véridiques aux yeux des utilisateurs.

L’Autorité de régulation de la communication audiovisuelle et numérique est l’organisme chargé de veiller sur le phénomène des fake news en France. Si pour les chaînes de télévision ce contrôle peut être plus facile étant donné le rôle historique de la CSA et le fait que chaque téléspectateur peut dénoncer des passages problématiques vus à l’antenne, sur les réseaux sociaux il est plus compliqué pour le régulateur d’intervenir directement. Chaque année l’Arcom publie les déclarations des opérateurs de plateformes (Meta, Twitter, Google, etc.) en ligne sur les moyens de lutte contre la manipulation de l’information.

Une des mesures prises par Twitter pour lutter contre les fake news est le lancement de Twitter Birdwatch, un outil qui permet aux utilisateurs d’identifier des publications qu’ils estiment trompeuses et d’écrire des notes qui fournissent un contexte informatif. 

Néanmoins, sur les réseaux sociaux le nombre quotidien de publications reste trop élevé comparé aux moyens de régulation et des fake news passent toujours à travers les mailles du filet.

Bien évidemment, en France il n’y a pas de chaîne de télévision avec un discours pro russe et donc les fake news que l’on trouve dans les médias traditionnels ont peut-être moins d’impact sur l’avis général de  la population concernant la guerre que les publications sur les réseaux où tout le monde est libre de partager ses idées, mais on peut remarquer que tous les fake news sur les réseaux sociaux ne viennent pas de faux comptes et parfois les chaînes de télévision ou les journaux sont à l’origine de celles-ci.

Et en Russie?

Malheureusement les médias indépendants sont rares voire inexistants en Russie, la quasi-totalité des médias étant des médias d’État qui sont contrôlés par le Kremlin. 

Depuis le début de la guerre, les journalistes des médias indépendants ont pour la plupart dû quitter le pays étant considérés comme des “agents étrangers”. En ce qui concerne les médias d’État, afin de maintenir l’opinion et le soutien de la population la guerre est présenté comme une opération de dénazification de l’Ukraine, souvent faisant référence à la Seconde Guerre mondiale (la “Grande Guerre Patriotique » en russe), guerre qui est resté comme une fierté nationale dans la mémoire collective russe. C’est dans ce contexte que les réseaux sociaux deviennent une autre source d’information notamment pour les jeunes génération, car c’est seulement sur les réseaux sociaux qu’ils peuvent avoir un autre discours que celui propagé dans les médias d’État russes, d’où la décision de la Russie d’interdire Facebook et Instagram. 

ARTE Tracks a produit une série des mini-documentaires sur les fake news dans les médias d’État russes.

Pour conclure, il est difficile de dire si les réseaux sociaux sont plus dangereux que les médias traditionnels et parfois il faut bien prendre en compte le contexte différent d’un pays à l’autre. Il est certes important de se rendre compte que les fakes news existent et sur les réseaux sociaux et dans les médias traditionnels et le plus important c’est de vérifier chaque information avant de la partager afin d’éviter un effet de chambre d’écho. Finalement, peut-être qu’avec le discours généralisé qui pointe du doigt les réseaux sociaux on fait encore plus attention lorsque l’on s’informe sur ceux-ci et on risque de considérer l’information des médias traditionnels comme véridique et c’est probablement dans ce rapport de confiance que l’on peut être encore plus facilement victimes des fake news.

Sebastian Udriste

Bibliographie :

Donada, E. , de la Roche Saint-André, E. (le 25 février 2022). «Allez vous faire foutre !»: que sait-on des dernières paroles de soldats ukrainiens devenus héros en défendant l’île des Serpents?. Libération (réf le 28 février 2022) :

https://www.liberation.fr/checknews/allez-vous-faire-foutre-que-sait-on-des-dernieres-paroles-de-soldats-ukrainiens-devenus-heros-en-defendant-lile-aux-serpents-20220225_6I3QUB7QMBGX7C3KMRQRAGIGWA/

La rédaction de TF1info ( le 28 février 2022). Ukraine : déclarés morts, les 13 soldats de l’île des Serpents sont en réalité aux mains des Russes. TF1 info :

https://www.tf1info.fr/international/guerre-en-ukraine-declares-morts-les-13-soldats-de-l-ile-des-serpents-sont-en-realite-aux-mains-des-russes-2212148.html

CNEWS (le 28 avril 2023). VLADIMIR POUTINE : LE PRÉSIDENT RUSSE A-T-IL ÉCHAPPÉ À UN ATTENTAT AU DRONE KAMIKAZE ?. CNEWS :

https://www.cnews.fr/monde/2023-04-28/vladimir-poutine-le-president-russe-t-il-echappe-un-attentat-au-drone-kamikaze

La rédaction numérique de France Inter (le 16 mars 2022). Comptes complotistes, fake news, propagande : plongée dans les tweets de l’ambassade russe en France. France Inter :

https://www.radiofrance.fr/franceinter/comptes-complotistes-fake-news-propagande-plongee-dans-les-tweets-de-l-ambassade-russe-en-france-2267509

Arcom. Questionnaire 2021 aux opérateurs de plateformes en ligne soumis au titre III de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information – Twitter :

https://www.arcom.fr/sites/default/files/2022-07/D%C3%A9claration%20Twitter%20-%20%20Lutte%20contre%20la%20manipulation%20de%20l%27information%202022.pdf

Masha Borzunova, Kobalt Productions (2022). Fake News. ARTE Tracks :

https://www.arte.tv/fr/videos/109809-001-A/fake-news/

Maxime Audinet (le 16 février 2023). Un an après l’invasion de l’Ukraine : que deviennent RT et Sputnik ?. La revue des médias, INA:

https://larevuedesmedias.ina.fr/guerre-information-russie-ukraine-medias-influence-rt-sputnik-afrique-nouveau-rideau-de-fer

Assaut du Capitole : entre désinformation et incitations à la violence

Quelles responsabilités pour Facebook et Twitter ?

Le 6 janvier 2021, des partisans de Donald Trump envahissent le Capitole, là où siège le Congrès américain. Une seule idée en tête : empêcher la certification de la victoire de Joe Biden à la présidentielle américaine de 2020. 
Retour sur le rôle joué par ces réseaux sociaux lors de cet évènement majeur de l’histoire américaine.

Une préparation pré-élection présidentielle 2020 afin d’éviter le scandale de 2016

Photo de little plant sur Unsplash

Dans le contexte des élections présidentielles américaines de novembre 2020, il était inconcevable pour Facebook de revivre un scandale de la même ampleur que celui de 2016. En 4 ans, la plateforme a œuvré à la mise en place de mesures concrètes ayant pour but de protéger l’intégrité de la nouvelle élection, limiter la diffusion de fausses informations et lutter contre l’incitation à la haine et à la violence.

Mark Zuckerberg avait affirmé en octobre 2020 que le règlement de la plateforme empêcherait tout candidat de «déclaré victoire prématurément» et de «délégitimer les résultats de l’élection». Afin de limiter la désinformation, Facebook a implémenté la «War Room». Cette cellule de vérification analyse en temps réel les abus signalés sur les élections. Dani Lever, responsable des affaires publiques de Meta a affirmé que Facebook avait mis en pause ses campagnes publicitaires politiques et supprimé le groupe StopTheSteal début novembre 2020.  Le groupe qui comptait 360 000 utilisateurs parmi ses rangs, mettait en doute la légitimité de l’élection en diffusant la théorie du «Big Lie».

Pour Twitter, c’est seulement 2 mois après l’attaque que l’ex CEO Jack Dorsey affirma que la plateforme avait effectivement joué un rôle dans la diffusion de fausse informations et dans l’organisation de cette attaque. Twitter avait misé sur des pratiques de marquage de tweets et de déréférencement. 

Lorsqu’un tweet contenait des informations trompeuses au sujet de l’élection, il était étiqueté d’un avertissement. Une autre mesure plus radicale a été mis en place d’octobre 2020 jusqu’à l’élection. Si certains messages de personnalités politiques et/ou influentes contenaient des propos non vérifiés et trompeurs, une bannière contenant un avertissement sur le contenu empêchait de lire le tweet. Les tweets ciblés étaient privés d’interactions (retweet, like, commentaire). En amont de l’élection, Twitter avait décidé début 2020 d’instaurer des messages de fact checking à la fin des tweets contenant du contenu trompeur.

@realDonaldTrump sur Twitter

Des baisses de vigilance sous l’impulsion de la liberté d’expression 

Après l’annonce des résultats, Facebook était soulagé. L’opération s’était déroulée sans encombre. Certaines mesures, temporaires, ont donc été retirées.
Facebook a décidé de démanteler la cellule Civic Integrity Team composée d’experts qui détectaient et combattaient la désinformation et les discours haineux. Ces changements ont commencé à inquiéter plusieurs employés du réseau social. A partir de la fin des élections, certains employés ont remarqué que le nombre de signalements pour des messages contenant de fausses informations augmentaient fortement. 
Des documents internes, révélés par la lanceuse d’alerte Frances Haugen, ont soulignés les manquements de Facebook en termes de lutte contre la désinformation et d’incitation à la violence ayant joué un rôle dans l’attaque du Capitole.
Des pistes d’amélioration du règlement ont été proposées pour contrer la désinformation mais déclinées par la hiérarchie. L’une des raisons avancées par la direction est que cela ne ferait qu’augmenter le nombre de signalements erronés et diminuerait l’engagement sur la plateforme. Comme précisé par Haugen lors de son témoignage au Sénat, Facebook semble vouloir faire passer son « profit avant la sécurité » et « avant la population ».

Image par El Sun de Pixabay

La suppression du groupe StopTheSteal n’a non plus été d’une grande efficacité. Cela donna un boost de popularité aux groupes moins importants contenant des propos #StoptheSteal. Les membres du groupe d’origine se sont juste dispatchés. StopTheSteal était bien plus qu’un groupe Facebook et la plateforme n’a pas vraiment œuvré à contrôler et signaler ces groupes complotistes. 

Sur Facebook, les algorithmes jouent un rôle majeur dans la diffusion de ces fausses informations. Dans les documents révélés, il a été confirmé qu’il n’a fallu que 2 jours pour qu’un utilisateur, suivant quelques personnalités/médias conservateurs, ait des recommandations conspirationnistes et 1 semaine pour que des contenus du groupe QAnon lui soient recommandés.

L’une des révélations majeure des Facebook Files était la mise en place d’une politique de fact-checking XCheck permettant de limiter les faux signalements de comptes. Certaines personnalités politiques et comptes les plus suivis bénéficiaient d’une vérification des signalement à part. Cependant, certaines de ces personnalités soumises à ce système se retrouvaient «whitelisted» et exemptées du règlement de Facebook : «Contrairement au reste de notre communauté, ces personnes peuvent enfreindre nos normes sans aucunes conséquences».

De son côté, Twitter a aussi failli. 
Il n’a pas su prendre en considération les avertissements de ses employés sur les risques de la mauvaise gestion de la désinformation et des incitations à la violence sur la plateforme après les élections de 2020. Malgré les efforts et les signalements reportés par Twitter Safety Policy team, en charge de la rédaction du règlement de la plateforme, aucune mesure supplémentaire n’a été prise. Les dirigeants semblaient plus inquiets de déclencher la colère des supporters du président sortant plutôt que de préserver le discours électoral (Draft Comittee Report, The Washington Post, 2023).

Un règlement proposé par la Twitter Safety Policy team visant les messages qui incitaient indirectement à la violence («coded incitement to violence» CIV) n’a pas été retenu par les dirigeants, considérant que les messages visés pouvaient être interprétés dans un autre contexte. Le supposé règlement portait notamment sur ce message: «stand back and stand by». Il avait été utilisé par le président Trump pour s’adresser plus tôt dans l’année au groupe d’extrême droite Proud Boys connu pour ses idées fortes et ses comportements violents. Peu de temps après, cette expression était devenu le cri de ralliement de groupes de supporters Trump sur Twitter.

Twitter a pris l’initiative d’écouter les signalements déposés par des organisations comme Fair Fights luttant pour des élections justes aux États-Unis. Ces tweets, directement liés à l’incitation à la violence au nom d’une élection truquée, ont reçu des avertissements mais n’ont cependant pas été retirés. Pour Twitter, ces messages restaient dans le cadre de la liberté d’expression et n’avaient en aucun cas dépassé les limites du règlement.
Twitter montre ici des signes de relâchement quant à la gestion des messages haineux et de la désinformation.

Un rapport de la MDPI révéla qu’afin d’éviter les signalements, des hashtags contenants des fautes étaient utilisés massivement. Des tweets relatifs aux suspicions de corruption des Biden utilisaient majoritairement le #bidencrimefamiily plutôt que #bidencrimefamily. Cela devait déjouer les mesures mises en place par le règlement de la plateforme tout en ralliant les supporters autour de théories conspirationnistes.

@realDonaldTrump sur Twitter

Le 19 décembre 2020, Trump écrivait : «Big protest un D.C. on January 6th». Par la suite, le nombre de tweets utilisant les CIV «locked and loaded» et «civil war» ont augmenté de manière exponentielle.

Selon un ancien employé de la plateforme, il a fallu attendre l’attaque du 6 janvier 2021 pour que Twitter demande à la Safety Policy team de mettre en place en urgence la CIV Policy. Cependant, toujours incomplète dû à son blocage quelques mois plus tôt, son application était imparfaite.

Au Capitol, les attaquants documentaient leur avancée sur Twitter, obligeant les responsables de la modération à supprimer/bannir en direct les contenus et hashtags problématiques. D’autres hashtags, remontés dans les tendances, ont dû être déréférencé comme #CivilWar.

Une prise de conscience sur l’importance de la désinformation et de l’incitation à la haine ?

Donald J.Trump sur Facebook

Dani Lever confirme la suppression des contenus ayant comme la mention StoptheSteal dès l’instant de l’attaque ainsi que la suspension du compte de Donald Trump pendant 24 heures. Comme l’a annoncé Facebook, cela fut étendu à 2 semaines puis à une durée indéterminée. 

C’est finalement il y a un peu plus d’un mois, le 17 mars 2023, que l’ancien président fait son retour avec une vidéo et 3 mots : I’M BACK !


Facebook s’est engagé à renforcer l’obligation des administrateurs de groupes de vérifier les messages postés, à désactiver les interactions sur les posts provenant de groupes avec des taux élevés de discours haineux/violents et à déréférencer les contenus qui enfreindraient les règlements.

Après l’attaque, Twitter a suspendu le compte @realDonaldTrump (une première fois pendant 12 heures puis de manière permanente). Fin 2022, après l’arrivée d’Elon Musk à la tête de Twitter, son compte a été à nouveau débloqué. Plus de 70000 comptes ont été bloqués, des mesures ont été ajoutées à la Civic Integrity Policy, les comptes affiliés aux contenus conspirationnistes ont été déréférencés et certains sujets ne pourront plus apparaître dans les tendances.

Bien que les attaquants présents au Capitol ainsi que Donald Trump sont responsables de leurs actions, il est clair que les réseaux sociaux ont joué un rôle majeur dans la préparation en amont de cet évènement. Même si le January 6th Comittee a décidé de s’attarder sur la responsabilité de Trump, cette affaire aura été l’opportunité pour ces grands réseaux sociaux d’être mis face aux conséquences de leurs décisions.

Margot Brenier


Bibliographie :

Timberg, C., Dwoskin, E., & Albergotti, R. (2021, 22 octobre). Inside Facebook, Jan. 6 violence fueled anger, regret over missed warning signs. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2021/10/22/jan-6-capitol-riot-facebook/

Zakrzewski, C., Lima, C., & Harwell, D. (2023, 17 janvier). What the Jan. 6 probe found out about social media, but didn’t report. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2023/01/17/jan6-committee-report-social-media/

Bond, S. (2021, 23 octobre). How the « Stop the Steal » movement outwitted Facebook ahead of the Jan. 6 insurrection. NPR. [ref. 30 avril 2023] 
https://www.npr.org/2021/10/22/1048543513/facebook-groups-jan-6-insurrection

Bond, S. (2020, 9 octobre). Twitter Expands Warning Labels To Slow Spread of Election Misinformation. NPR. [ref. 30 avril 2023]
https://www.npr.org/2020/10/09/922028482/twitter-expands-warning-labels-to-slow-spread-of-election-misinformation

Reporter, G. S. (2021, 25 octobre). Facebook missed weeks of warning signs over Capitol attack, documents suggest. the Guardian. [ref. 30 avril 2023] https://www.theguardian.com/technology/2021/oct/23/facebook-whistleblower-january-6-capitol-attack

Social Media & the January 6th Attack on the U.S. Capitol. (s. d.). [ref. 30 avril 2023] https://www.washingtonpost.com/documents/5bfed332-d350-47c0-8562-0137a4435c68.pdf?itid=lk_inline_manual_3

Conger, K. (2021, 25 mars). Jack Dorsey says Twitter played a role in U.S. Capitol riot. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2021/03/25/business/jack-dorsey-twitter-capitol-riot.html

Stanley-Becker, I., & Dwoskin, E. (2020, 1 novembre). Trump allies, largely unconstrained by Facebook’s rules against repeated falsehoods, cement pre-election dominance. Washington Post. [ref. 30 avril 2023]
https://www.washingtonpost.com/technology/2020/11/01/facebook-election-misinformation/

Frenkel, S., & Isaac, M. (2018, 19 septembre). Inside Facebook’s Election ‘War Room’. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2018/09/19/technology/facebook-election-war-room.html

Perrigo, B. (2021, 7 octobre). How Facebook Forced a Reckoning by Shutting Down the Team That Put People Ahead of Profits. Time. [ref. 30 avril 2023]
https://time.com/6104899/facebook-reckoning-frances-haugen/

Wong, J. C. (2020, 29 septembre). QAnon explained : the antisemitic conspiracy theory gaining traction around the world. the Guardian. [ref. 30 avril 2023]
https://www.theguardian.com/us-news/2020/aug/25/qanon-conspiracy-theory-explained-trump-what-is

Meta. (2021, 7 janvier). Our Response to the Violence in Washington. Meta. [ref. 30 avril 2023]
https://about.fb.com/news/2021/01/responding-to-the-violence-in-washington-dc/

Tran, H. M. (2021). Studying the Community of Trump Supporters on Twitter during the 2020 US Presidential Election via Hashtags # maga and # trump2020. Journalism and media2(4), 709‑731. [ref. 30 avril 2023]
https://doi.org/10.3390/journalmedia2040042

Permanent suspension of @realDonaldTrump. (s. d.). [ref. 30 avril 2023]
https://blog.twitter.com/en_us/topics/company/2020/suspension

Les nouvelles sources d’informations sur les réseaux sociaux : l’exemple d’HugoDécrypte

En 2015, alors qu’il est en première année à Sciences Po, Hugo Travers, dit HugoDécrypte, crée sa chaîne YouTube, qu’il présente comme un média qui se veut ouvert aux jeunes et informatif via un traitement journalistique de l’actualité. 6 ans plus tard, il est à la tête d’une entreprise de 25 employés postant quotidiennement des condensés d’actualités sur TikTok, Instagram, Twitch, Snapchat, Twitter et même Spotify sous format audio. Aujourd’hui, son média semble avoir conquis les jeunes audiences sur les réseaux sociaux, alors que de nombreux médias s’interrogent sur la façon dont ils pourraient capter ce public réputé fragile et désintéressé.

De nouvelles formes d’information

A seulement 25 ans, le média HugoDécrypte compte à ce jour 1305 publications sur Instagram pour 2.5 millions de followers, 1400 vidéos sur Youtube pour 1.89 million d’abonnés et 266 millions de likes sur TikTok, pour 4.2 millions de followers. Le média est devenu le media par excellence sur les réseaux sociaux. 

Le média HugoDécrypte s’engage à rendre accessible n’importe quel sujet au plus grand nombre. Ce principe de vulgarisation permet à un jeune de 14 ans de comprendre et de s’intéresser à des sujets d’actualité. Sur le fond, un sujet pourra donc tout autant intéresser un adolescent que quelqu’un qui maitrise déjà le sujet.

Le concept de la chaîne est simple : Hugo décrypte l’actualité et les sujets de société qui intéressent les jeunes, en utilisant des exemples concrets et des images pour illustrer ses propos. Ses vidéos sont courtes, souvent moins de dix minutes, et vont droit au but. Il aborde des sujets variés, allant de la politique aux nouvelles technologies, en passant par les enjeux environnementaux ou encore les phénomènes de société.

La force du média est la compréhension des stratégies et enjeux propres à chaque réseau social. Chaque réseau à ses codes, son public est ses modes d’utilisation. Le média propose une réflexion stratégique sur les contenus qui seront diffusés. Sur Youtube, on retrouve les « Actus du jour » (entre 10 et 15 minutes d’infos par jour) ainsi que des reportages. Le vidéaste détient également une chaine secondaire à 900K abonnés sur lesquels il poste des grands formats, reportages, débats… Sur Instagram, il privilégiera des formats écrits (carrousels) intuitifs et visuels ainsi, que des courts extraits pour les Reels. Sur TikTok, il postera des formats courts et impactants. Le média compte également un compte Twitter et une chaîne Twitch sur laquelle Hugo anime un talk-show tout les mercredis.

Enfin, le fait de passer par ces canaux d’information renforce le degré de transparence entre le média et les consommateurs. Le manque de transparence sur la manière dont les médias traditionnels diffusent les informations leur est souvent reproché. Chez HugoDécrypte, les personnes qui suivent le média peuvent facilement faire un retour sur les contenus. Cela participe au maintien de la confiance envers le média.

Capter un public jeune et défiant par l’horizontalité 

Selon le 35ème baromètre de confiance dans les médias publié en janvier 2022 par Kantar & La Croix, la rupture entre la jeunesse française et les supports de radio, de télévision et de presse écrite s’accroît chaque année. Chez les 18-24 ans, l’intérêt pour l’actualité a chuté de 51 % à 38 % en l’espace d’un an. Cette jeune population estime également que certains sujets qui leur sont chers n’ont pas été assez traités par les médias traditionnels (comme le dérèglement climatique par exemple).

Ainsi, dans un contexte compliqué où l’actualité est négative, les 18-25 ans s’intéressent de moins en moins aux médias dits « traditionnels ». C’est là que les nouveaux médias, tels que HugoDécrypte, prennent de l’importance en s’implantant sur les réseaux sociaux où les jeunes se trouvent déjà. Ce qu’il représente correspond parfaitement à ce que les jeunes recherchent : des informations rapides, concises et expliquées par une personne sympathique de 25 ans. Alors que la fiabilité de l’information sur les réseaux sociaux était la principale source de méfiance, HugoDécrypte change la donne en se présentant comme fiable, transparent et pluraliste. Sa stratégie marketing est efficace; son public ressent une proximité et une spontanéité, alors que tout est en réalité minutieusement préparé. Selon Hugo Travers, le succès de son média repose sur la confiance mutuelle avec les internautes. En somme, cela pourrait être notre « pote ». Un « pote » que l’on peut peut retrouver sur la chaîne de Squeezie le lundi, puis sur sa chaîne le mardi en train d’expliquer le conflit israélo-palestinien.

Cette nouvelle façon de penser les médias, sur les réseaux sociaux, se caractérise par une approche horizontale. Contrairement aux médias traditionnels où l’information est diffusée de manière verticale, avec des experts et des journalistes diffusant l’information vers le public, les médias sur les réseaux sociaux impliquent davantage les utilisateurs dans la production et la diffusion de l’information. Les réseaux sociaux permettent une interaction directe entre les producteurs et les consommateurs, offrant ainsi une approche plus démocratique et collaborative. Cette approche permet aux utilisateurs de partager leur point de vue, de poser des questions, de discuter et d’interagir avec les autres utilisateurs, créant ainsi une communauté d’intérêts autour du média et une nouvelle façon de s’informer. Bien que l’envie de transparence et de dialogue entre un média et sa communauté ait toujours existé, elle s’est longtemps heurtée à un modèle de diffusion descendant où le média transmettait l’information et le public la recevait. Avec l’avènement des réseaux sociaux, il y a davantage d’horizontalité dans les échanges. 

Un virage à emprunter pour les médias traditionnels

Ainsi, si l’on suit le modèle à succès d’HugoDécrypte, la digitalisation des contenus proposés est primordiale à la survie des médias traditionnels. Depuis quelques années, on observe ainsi la transition des médias traditionnels vers les réseaux sociaux. Même si les médias traditionnels ne sont pas voués à disparaître, de plus en plus investissent les réseaux sociaux. Par exemple, le Monde a très rapidement proposé ses contenus sur les réseaux sociaux : Snapchat, Youtube, Facebook Instagram et plus récemment TikTok. Aujourd’hui, Le Monde compte 1.7m de followers sur Instagram, 1.54m d’abonnés sur YouTube et 800k followers sur TikTok. Dès lors, celui-ci s’ancre dans l’esprit des jeunes de 18-25 ans comme un média moderne et dans l’ère du temps.

Les médias traditionnels comme la télévision, la radio et les journaux ont des relations complexes avec l’utilisation du big data et la façon dont l’information est numérisée. Cela est dû aux opportunités de croissance que cela peut apporter mais également au chamboulement de leur business model. Tout cela a un impact sur la façon dont l’information est produite, consommée et payée.

Avec l’avènement des réseaux sociaux, la transition vers une nouvelle façon de fonctionner pour les médias est devenue presque nécessaire. Les médias doivent s’adapter à cette nouvelle réalité pour continuer à être pertinents et atteindre leur public. Cela implique des changements dans la façon dont ils produisent, diffusent et monétisent l’information.

Jean Pisanté


Bibliographie

Léa Iribarnegaray (20 Octobre 2020): « HugoDécrypte » et sa petite entreprise. LeMonde.fr. https://www.lemonde.fr/campus/article/2021/09/22/hugo-decrypte-et-sa-petite-entreprise_6095649_4401467.html

Astrid-Edda Caux et Rita Faridi (12 Octobre 2018): HugoDécrypte en long, en large, et en Travers. La Péniche. https://www.lapeniche.net/hugodecrypte-en-long-en-large-et-en-travers/

Kati Bremme (20 Janvier 2022): Baromètre Kantar-La Croix : les médias attendus comme acteurs de la démocratie. Méta-Média.fr. https://www.meta-media.fr/2022/01/20/barometre-kantar-la-croix-les-medias-attendus-comme-acteurs-de-la-democratie.html

Léa Iribarnegaray (05 avril 2022): Jean Massiet, HugoDécrypte, « Brut »… Comment de nouveaux producteurs d’infos captent les jeunes sur les réseaux sociaux. LeMonde.fr. https://www.lemonde.fr/campus/article/2022/04/05/jean-massiet-hugodecrypte-brut-comment-de-nouveaux-producteurs-d-infos-captent-les-jeunes-sur-les-reseaux-sociaux_6120599_4401467.html

Randa El Fekih (25 janvier 2023): Hugo Travers : « Seuls les médias qui réussiront leur transition en ligne survivront ». MediaConnect.com. https://mediaconnect.com/hugo-travers-seuls-les-medias-qui-reussiront-leur-transition-en-ligne-survivront/?lang=fr

Olivier Meier (05 juillet 2022): LES MÉDIAS TRADITIONNELS FACE À LA NUMÉRISATION DE L’INFORMATION. Management&datascience. https://management-datascience.org/articles/20406/

Randa El Fekih (25 janvier 2023): Hugo Travers : « Seuls les médias qui réussiront leur transition en ligne survivront ». MediaConnect.com.

Les antennes 5G propagent le coronavirus.

Qualifiée par Stephen Powis, directeur du NHS, de “fake news de la pire espèce”, cette théorie du complot a été largement diffusée sur les réseaux sociaux et dans les médias en ligne entraînant des incidents réels et des actes de vandalisme.

Une fake news aux conséquences bien réelles

Le 12 Mars, l’américain Thomas Cowan, qui se présente comme médecin,  publie sur Youtube une vidéo intitulée  “Coronavirus caused by 5G?”. Dans ses propos, il avance que la 5G aurait déstabilisé le champ magnétique terrestre et empoisonné l’espèce humaine. Le coronavirus serait ainsi né d’un être humain contaminé. Avant d’être supprimée sur Youtube, la vidéo est rapidement devenue virale, ayant été partagée quelque 16 000 fois sur Facebook et vue 390 000 fois. Au moins cinq autres chaînes YouTube ont elles aussi publié la même vidéo. Elle a aussi été relayée par une douzaine de pages Facebook, ainsi que sur Instagram et Twitter. Un des arguments phare de Thomas Cowan est que la première ville à être entièrement couverte par la 5G est Wuhan. Le parallèle est rapidement repris sur la toile avec des cartes faisant figurer une corrélation entre la propagation du virus et le déploiement de la 5G. 

Face à cette théorie, la communauté scientifique a fermement soutenu que la technologie 5G n’était pas responsable. Le Dr Simon Clarke, professeur de microbiologie cellulaire à l’université de Reading explique que les ondes radio 5G sont “loin d’être assez fortes pour affecter le système immunitaire”. Malgré un manque de fondements scientifiques, l’idée d’une corrélation entre la pandémie et la 5G s’est répandue dans le monde entier. Google trends, l’outil qui permet de savoir quels sont les mots clés les plus recherchés sur internet, a recensé un pic des mots clés “Coronavirus +5G” à compter du 26 janvier 2020, soit cinq jours après le premier cas identifié de malade du coronavirus aux États-Unis. Le quotidien américain The New York Times a repéré près de 500 groupes Facebook et des dizaines de comptes Twitter et Instagram propageant cette théorie conspirationniste. Certains prennent le parti que la 5G affaiblit nos défenses face au virus, d’autre que la technologie en est directement vectrice. La théorie circule aussi que le virus n’existe pas, il s’agirait d’un stratagème pour cacher les morts causés par la 5G. D’autres vont encore plus loin et affirment que le vaccin serait un moyen d’injecter à l’ensemble de la population des nanopuces 5G. 

En conséquence, plusieurs antennes ont été incendiées à travers le monde. Au Royaume-Uni, une vingtaine d’antennes-relais ont été vandalisées dans plusieurs grandes villes, notamment à Birmingham et Liverpool. Des ingénieurs du haut débit sont menacés et des techniciens en train d’installer des antennes sont même agressés physiquement. Les attaques sur ces relais de la 5G surnommés “tours de la morts” ont imposé une réponse ferme des institutions. Le ministre britannique Michael Gove est monté au créneau pour dénoncer cette « dangereuse ineptie ». Le Department for Digital, Culture, Media and Sport (équivalent des ministères de la Culture et des Sports réunis) a ajouté sur Twitter qu’il n’y avait « aucune preuve crédible » à ces allégations, tandis que l’association des réseaux de téléphonie britanniques, Mobile UK, s’est dite particulièrement « préoccupée » par ces rumeurs associées à la destruction de ces infrastructures utiles.

Le relais sur les réseaux sociaux

Les informations sur le lien entre 5G et Covid se sont diffusées très rapidement sur les réseaux sans passer par des canaux de vérification ou de validation. Selon une analyse de l’ONG britannique Full Fact, qui a examiné plus de 50 publications complotistes sur la 5G et le COVID-19, ces publications ont été partagées plus de 77 000 fois sur les réseaux sociaux, y compris sur Facebook, Twitter et Instagram. Une autre étude menée par l’Université de Technologie de Swinburne en Australie a révélé que les théories du complot sur la 5G et le COVID-19 avaient été partagées plus de 53 000 fois sur Twitter au cours d’une semaine en avril 2020. Ces chiffres ne représentent qu’une partie de la propagation de cette théorie du complot, car elle a également été diffusée par le biais de vidéos, de groupes de discussion en ligne, de messagerie instantanée et d’autres canaux de communication numériques.

Notons que les algorithmes de recommandation des réseaux sociaux suggèrent des contenus similaires à ceux que les utilisateurs ont déjà consultés. Cela peut conduire à la formation de bulles de filtres, où les utilisateurs sont exposés à des contenus qui renforcent leurs croyances et leurs opinions. Si un utilisateur a consulté ou partagé des publications complotistes sur la 5G et le COVID-19, les algorithmes de recommandation peuvent lui suggérer d’autres contenus similaires, ce qui peut amplifier la propagation de la théorie du complot. 

L’essor de cette fake news a été amplifié par des personnalités publiques, célébrités et politiciens, qui ont partagé des publications la soutenant. Par exemple, la chanteuse américaine Keri Hilson a causé la controverse en la relayant à ses 2,3 millions d’abonnés Instagram, avant de la supprimer.

La réponse des plateformes

Face à la propagation de la théorie du complot 5G, différents réseaux sociaux ont pris une série de mesures. Instagram, par exemple, a commencé à étiqueter les publications liées à la 5G qui contiennent des informations fausses ou trompeuses. Lorsque la publication a été identifiée comme étant trompeuse, les utilisateurs voient une alerte en haut de l’écran avec un lien vers des informations fiables pour aider à éclairer le sujet.En parallèle, Facebook, YouTube et Twitter ont tous supprimé des vidéos et des publications qui propageaient activement la théorie du complot selon laquelle le COVID-19 est propagé par la 5G.

En avril 2020, Google a annoncé que les publications qui propagent des théories du complot liées à la 5G et au COVID-19 seraient rétrogradées dans les résultats de recherche. Cette mesure visait à réduire la visibilité de la désinformation. Au même moment, Facebook a qu’il travaillerait avec des organisations de fact-checking pour vérifier les publications liées à la 5G et au COVID-19. Les publications identifiées comme contenant des informations fausses ou trompeuses ont été étiquetées comme telles.

La propagation de la théorie du complot selon laquelle le COVID-19 est propagé par la 5G est un exemple marquant de la puissance des réseaux sociaux pour diffuser des fausses informations à grande échelle. Elle illustre la part de responsabilité des réseaux sociaux, l’importance du fact-checking et les risques liés à la désinformation.

Inès de Rozaven

Un aperçu de Bluesky, le réseau social décentralisé dirigé par Jack Dorsey, fondateur de Twitter.

Bluesky est une initiative à but non lucratif crée en 2019 et en phase de recherche depuis 2022. Ce projet a été créé et financé par sa société mère, Twitter. Suivant l’annonce de son lancement le 18 octobre 2022, plus de 30 000 inscriptions ont été enregistrées dans les 48 heures. Les utilisateurs peuvent encore s’inscrire à l’application beta avant que la plateforme ne soit disponible publiquement.

Mais alors, pour quelles raisons Bluesky suscite-t-il un tel intérêt ? Est-elle une alternative à Twitter ou à toute autre plateforme de réseaux sociaux ?

Logo de Bluesky

Bluesky, un protocole de réseaux sociaux

Jack Dorsey, le fondateur de Twitter et désormais de Bluesky, souhaite proposer un système de réseau social ouvert et décentralisé. En clair, il vise à interconnecter les plateformes de réseaux sociaux actuelles et à venir. Ce nouveau protocole permet aux utilisateurs de se connecter aux différentes plateformes de leur choix, via un identifiant global. Cela signifie que chaque utilisateur de Facebook, Instagram ou Twitter, sera en mesure d’interagir avec tous les autres utilisateurs de la plateforme.

Bluesky est construit avec un logiciel open source, ce qui signifie qu’aucune entreprise n’en sera propriétaire. Ainsi, chacun pourra développer son propre réseau avec ses propres règles de modération et son propre algorithme.

La décentralisation, le cœur du projet

Le cœur de la vision de Bluesky réside dans l’idée que les utilisateurs doivent avoir le contrôle sur les algorithmes. Pour ce faire, en mai 2022, la société a dévoilé son premier protocole, l’Authenticated Data Experiment ou ADX, rebaptisé depuis en Authenticated Transfer Protocol ou AT Protocol. En résumé, cette technologie veut offrir à ses utilisateurs une portabilité de leurs comptes, le choix dans les algorithmes et l’interopérabilité entre différents réseaux sociaux.

Le contrôle est le moteur du discours de Bluesky et un bon moyen de le distinguer des réseaux sociaux actuels. Le projet permettra à un utilisateur de gérer ses données et de les stocker où il le souhaite : « L’identité en ligne d’une personne ne devrait pas être détenue par des sociétés qui n’ont aucune responsabilité envers leurs utilisateurs. Avec le protocole AT, vous pouvez déplacer votre compte d’un fournisseur à un autre sans perdre aucune de vos données », expliquent les fondateurs du projet.

Un CEO venant de l’univers blockchain

Le 16 août 2021, le projet prend une nouvelle tournure avec l’arrivée à sa tête de Jay Graber, anciennement développeur de Zcash, une crypto-monnaie décentralisée et open source offrant confidentialité et sécurité à ses détenteurs.

Jay Graber publiera cette nouvelle sur Twitter : « Je suis heureuse d’annoncer que je vais diriger Bluesky, une initiative lancée par Twitter pour décentraliser les réseaux sociaux. Ma prochaine tâche sera d’embaucher pour compléter l’équipe Bluesky. Je suis impatiente d’établir un partenariat étroit avec Twitter et d’autres entreprises, alors que nous nous lançons dans cette aventure. »

Compte Twitter de Jay Graber @arcalinea

Dans quel contexte est-il né ?

Phase 1 : l’idée – 11 février 2020

Le projet Bluesky a démarré par un tweet de Jack Dorsey annonçant l’intention de Twitter de financer le développement d’un protocole ouvert pour les réseaux sociaux décentralisés. Par la suite, Twitter a réuni une douzaine d’utilisateurs dans un salon de discussion Matrix, et ce fut le début des premières discussions sur ce que devait être Bluesky.

Phase 2 : questions à la communauté – milieu d’année 2020

En 2020, Twitter a lancé une demande de proposition aux groupes communautaires. Plusieurs utilisateurs ont rédigé des propositions techniques sur la façon dont un nouveau protocole social décentralisé pourrait fonctionner, soit en s’appuyant sur des protocoles existants, soit en le construisant. Jack Dorsey, prévoit alors d’engager une équipe de 5 codeurs pour construire la plateforme tout en créant des algorithmes qui sélectionneront le contenu proposé aux utilisateurs.

Phase 3 : la critique de la centralisation des réseaux sociaux – début 2021

Le 9 janvier 2021, trois jours après les émeutes du Capitole orchestrées par des militants pro-Trump, Twitter a décidé de bannir le compte du président américain. Cela a entrainé de lourdes critiques quant à sa forte centralisation et l’opinion publique s’est alors interrogée sur la légitimité des réseaux sociaux à censurer des personnalités.

Phase 4 : la création de la société – fin 2021

Le 13 avril 2021, Bluesky est financée à hauteur de 13 millions de dollars par Twitter, sans condition ni engagement, si ce n’est celui de poursuivre les recherches. Selon Jack Dorsey : « Twitter finance une petite équipe indépendante composée d’un maximum de cinq architectes, ingénieurs et concepteurs de logiciels libres afin de développer une norme ouverte et décentralisée pour les médias sociaux. L’objectif est que Twitter devienne à terme un client de cette norme. »

Compte Twitter de Bluesky le 25 avril 2022

Le 4 octobre 2021, la société Bluesky PBLLC est créé. Parmi les membres du conseil d’administration figurent Jack Dorsey, fondateur de Twitter, Jeremie Miller, inventeur de Jabber/XMPP, et Jay Graber, PDG de la société Bluesky.

Quel type de modération pour un protocole open source ?

Alors que la plateforme sera décentralisée, Bluesky souligne qu’il n’est pas possible d’avoir un réseau social utilisable sans modération et a ainsi l’intention d’ajouter une couche nommée « Reach », décidant de mettre en avant ou non un contenu.

Compte Twitter de Bluesky le 4 mai 2022

Ces algorithmes seraient préprogrammés pour éloigner les utilisateurs des contenus polarisants et pour masquer tout contenu considéré comme un discours de haine. Ainsi, la charge de la modération du contenu ne serait plus assumée par les plateformes de réseaux sociaux elles-mêmes mais par le programme. Bluesky a également souligné que les fournisseurs d’hébergement seront toujours légalement tenus de retirer le contenu illégal conformément à leurs lois locales.

Quel avenir pour les réseaux sociaux ?

Une autre réseau social appelé Mastodon créé en 2016, profite du rachat de Twitter pour attirer de nouveaux utilisateurs. Ce réseau social prend le modèle de Twitter où l’on poste des messages de 500 caractères appelés des « Pouets ». Selon le fondateur Eugen Rochko, Mastodon séduit car « il est décentralisé et open source, il ne peut pas être vendu et ne fera pas faillite. Il respecte votre vie privée et donne le contrôle du réseau aux personnes. C’est un produit au-dessus d’un protocole, comme Twitter aurait dû l’être ». Depuis le 27 octobre, date de confirmation du rachat de Twitter par Elon MuskMastodon compte 3 millions d’utilisateurs.

À mesure que la technologie évolue et que la transition s’effectue des applications dites Web2 (l’internet centralisé tel que nous le connaissons aujourd’hui) aux applications Web3 (un internet décentralisé), les plateformes décentralisées deviendront probablement la norme.

En se concentrant sur l’intéropérabilité, la portabilité et la gestion algorithmique, Bluesky explore un nouvel environnement dans l’histoire des réseaux sociaux. Que ce soit pour s’assurer du droit à la liberté d’expression de chacun, ou pour éviter de réitérer la question sur la légitimité des réseaux sociaux à censurer, un acteur décentralisé tel que Bluesky est en mesure de répondre à un véritable besoin.

Alina Viatkina

Sources :

https://medium.com/bitcoin-news-today-gambling-news/twitter-bluesky-what-is-bluesky-social-media-78d6624ea07a

https://www.theverge.com/2021/8/16/22627435/twitter-bluesky-lead-jay-graber-decentralized-social-web

https://www.nasdaq.com/articles/is-bluesky-the-ultimate-solution-for-social-media-platforms

https://blueskyweb.org/blog/2-7-2022-overview

https://cointelegraph.com/news/decentralized-twitter-bluesky-releases-code-outlines-content-moderation

https://journalducoin.com/ethereum/le-prochain-twitter-killer-naitra-t-il-sur-ethereum/

Liens hypertextes :

  1. https://blueskyweb.xyz/blog/10-18-2022-the-at-protocol
  2. https://atproto.com/
  3. https://www.cnbc.com/2021/08/16/twitter-funded-bluesky-names-jay-graber-as-leader.html
  4. https://www.20minutes.fr/high-tech/2948775-20210109-trump-banni-twitter-reseaux-sociaux-legitimes-censurer-president-americain
  5. https://www.bizapedia.com/pro-search.aspx?id=b

Activisme numérique. L’exemple #BalanceTonPorc sur Twitter

Girl writing « #metoo » on a mirror with a red lipstick. Sexual harassment.

Les réseaux sociaux se sont progressivement imposés comme de nouveaux acteurs dans la structuration du débat public et la mise à l’agenda des questions sociétales. Utilisés par de nombreux jeunes, ils sont à l’origine d’une nouvelle forme d’activisme : l’activisme numérique. A travers l’exemple de #BalanceTonPorc, nous verrons comment s’organise ce nouveau type de militantisme.

Mise à l’agenda politique et réseaux sociaux

A partir des années 1970, la science politique commence à s’intéresser au processus de mise à l’agenda politique des questions sociétales. Ils questionnent les mécanismes en amont et en aval d’une décision politique et définissent les différentes étapes et acteurs en charge de son ascension dans les institutions. Il est intéressant de comprendre à quelles étapes de ce processus les réseaux sociaux peuvent jouer un rôle important.

La notion d’agenda, définie par Garraud en 1990, peut se comprendre comme « l’ensemble des problèmes faisant l’objet d’un traitement, sous quelque forme que ce soit, de la part des autorités publiques et donc susceptibles de faire l’objet d’une ou plusieurs décisions ». Dans toute révolution, c’est un passage obligatoire pour accéder au changement de manière pérenne. Selon Stephen Hilgartner et Charles Bosk (1988), la mise à l’agenda d’un problème est le résultat de plusieurs dynamiques, souvent combinées entre elles.

La première de ces dynamiques est la mobilisation. Elle a pour objectif d’acquérir l’opinion publique en sa faveur pour faire pression sur l’État et légitimer la revendication. Cela passe par différentes actions : manifestations, grèves, symboles, … Les réseaux sociaux peuvent jouer un rôle important à cette étape de la mise à l’agenda. Grâce à la force des liens faibles, ils permettent la diffusion massive d’un message, et donc d’une revendication. Quand le message parvient à s’emparer des fils d’actualité, l’opinion publique est sensibilisée et les médias plus traditionnels peuvent relayer l’information dans le débat public.

Cela nous mène à la deuxième dynamique : la médiatisation. Fortement liée à la première, la médiatisation permet d’affirmer une revendication comme une priorité dans le débat public. C’est une étape quasi-indispensable pour l’accès aux institutions étatiques.

La troisième dynamique est la politisation du problème. Une fois qu’il est médiatisé, il doit encore être traité par les politiques. Cela dépend de plusieurs facteurs : bénéfices politiques (électoraux, symboliques, stratégiques), faisabilité technique des solutions proposées, autres questions à l’ordre du jour, etc.

Toute lutte sociale passe de manière plus ou moins explicite par ces dynamiques qui conditionnent sa réussite ou son échec. Les réseaux sociaux peuvent être un levier d’action important, notamment pour la dynamique de mobilisation.  Pour certains auteurs, l’intervention des réseaux sociaux dans ce processus, et plus largement l’activisme numérique, doit être remis en cause.  

Activisme numérique et activisme réel

Dans l’article polémique Small Change : Why revolution will not be twitted, publié en 2010 dans The New Yorker, Malcolm Gladwell dresse le tableau d’un nouveau type d’activisme : l’activisme numérique. Avec un regarde critique, il défend l’idée selon laquelle les réseaux sociaux ne peuvent pas être le siège des révolutions et luttes sociales à venir. Pour mener cette réflexion, il s’appuie sur l’exemple d’une mobilisation étudiante qui commence le lundi 1er février 1960 en Caroline du Nord. Quatre étudiants noirs décident d’occuper un restaurant après s’être fait refuser le service d’un café pour leur couleur de peau. Le sit-in prend de l’ampleur et sera rejoint pas d’autres étudiants. Un mois plus tard, c’est tout le Sud des États-Unis, soit près de 70 000 étudiants, qui participent au mouvement social. Il utilise cet exemple pour comparer l’activisme dit « réel » et l’activisme numérique autour de deux points principaux :

  • Les liens sociaux qui unissent les mobilisés

Dans l’exemple de 1960, les liens sociaux entre personnes mobilisées sont très forts. Chacun est uni à l’autre par un sentiment de devoir et de communauté. Selon l’auteur, une mobilisation pareille n’aurait pas été possible si elle avait eu lieu sur les réseaux sociaux. Ces derniers s’appuient, s’organisent et capitalisent autour de liens sociaux faibles. D’après Gladwell, ils permettent bien d’étendre la portée d’un message, ou du moins sa vitesse de propagation, mais pas de mobiliser davantage. Si le message est viral, ce n’est pas grâce au réseau social en question, mais au faible coût d’engagement que son partage requiert. Autrement dit, les réseaux sociaux baissent le coût de l’engagement et ainsi augmentent le nombre de mobilisés. Cette mobilisation, cette « fièvre », se repend rapidement mais n’assure pas l’engagement « risqué » nécessaire aux révolutions sociales.

  • Le cadre au sein duquel prend forme l’activisme

L’activisme traditionnel est structuré, hiérarchisé et organisé de sorte à pérenniser la fièvre en mobilisation et la mobilisation en actions. Dans le cas du militantisme numérique, il est beaucoup plus décousu. Les réseaux sociaux fournissent les outils pour construire un réseau et propager la fièvre mais pas pour organiser une lutte sociale solide et pérenne. Le sit-in des années 1960 a donné lieu à des organisations quasi-militaires (NAACP, CORE), qui mettaient en place des plans d’action, formations, etc.

Pour beaucoup, la tribune de Gladwell est excessive et parfois de mauvaise foi. Pour Léo Mirani, journaliste à The Guardian, le point de vue de Gladwell réduit l’activisme à une protestation physique. Ce point de vue occulte le pouvoir des réseaux sociaux sur l’évolution des mentalités, l’influence d’opinion et la mise en place d’un débat public. Jillian C. Work du Berkman Center for Internet and Society pense que l’activisme numérique ne doit pas être dissocié de l’activisme physique, ils sont complémentaires.

#BalanceTonPorc

La première campagne Me Too est lancée en 2007 par Tarana Burke pour dénoncer les violences sexuelles et sexistes à l’égard des minorités. Entre 2007 et 2017, le mouvement ne prend pas particulièrement d’ampleur sur les réseaux sociaux et reste peu connu du grand public. C’est à partir d’octobre 2017, à la suite de l’affaire Harvey Weinstein qui l’accuse de 80 agressions sexuelles, que l’actrice Alyssa Milano propose de partager des témoignages sur les réseaux sociaux sous l’hashtag #MeToo. Du harcèlement au viol, des milliers de femmes et hommes de tous les milieux prennent la parole sur Twitter, Instagram, Facebook, etc pour raconter leur expérience. La fièvre se repend dans 85 pays au total et #MeToo est décliné en plusieurs langues. Le 14 octobre 2017, la journaliste Sandra Muller propose d’inclure la France avec le #BalanceTonPorc.

Le mouvement est d’ampleur et de nature inédites dans la lutte féministe. Analysons cette « révolution twittée » à la lumière des théories expliquées plus haut pour comprendre le phénomène.

En premier lieu, il est intéressant de mentionner le fait que la médiatisation est intervenue avant la mobilisation. C’est une réaction directe à la publication de l’affaire Weinstein par le New York Times. L’activisme numérique n’est donc pas à l’origine même de la mise à l’agenda politique. C’est juste une étape du processus, d’abord initié par les médias traditionnels. Cela peut s’expliquer par le fait que la lutte contre le harcèlement sexuel fait partie du débat public depuis longtemps. Le phénomène BalanceTonPorc entend surtout libérer la parole sur ce sujet, briser l’omerta en place et faire ouvrir les yeux à la population sur la fréquence de ce type de délit.

En second lieu, il est important d’introduire le contexte dans lequel cette révolution émerge. Aux États Unis, Donald Trump vient de gagner les élections présidentielles face à Hilary Clinton. Les droits des femmes sont davantage mentionnés dans le débat public. Au lendemain des élections, une des plus grandes marches pour les femmes est organisée aux Etats-Unis. En off-line de ce phénomène numérique, le contexte encourage ce mouvement et assure son prolongement dans la réalité. On retrouve donc une certaine complémentarité entre l’online et l’offline.

En troisième lieu, il est vrai que ce phénomène n’est pas organisé ou hiérarchisé. La revendication est claire mais l’objectif ne l’est pas. Comme Gladwell le disait, il est difficile de structurer ce mouvement, ce réseau, en lutte pérenne. C’est le premier mouvement féministe d’une ampleur pareille qui n’est pas initié par une organisation militante. Une personnalité publique, actrice hollywoodienne aux États Unis et journaliste en France, lance l’hashtag mais ne se charge pas de la suite. Chacun y va de son tweet mais aucune action concrète n’est lancée collectivement. La dynamique de politisation de la question peine à aboutir.

Un an après le premier tweet de Sandra Muller, la plateforme Visibrain révèle l’ampleur du phénomène on-line. Au total, 931 240 tweets sont postés avec l’hashtag #BalanceTonPorc, 292 946 personnes témoignent, dont 47% d’hommes. En off line, les chiffres révèlent autre chose. Au dernier trimestre de 2017, le ministère de l’intérieur affiche une hausse de 30% des plaintes pour agression sexuelle. Cependant, entre 2007 et 2017, le nombre de condamnations a chuté de 40%. Elles étaient de 1652 en 2007 contre 1003 en 2017.

Bibliographie

SMALL CHANGE : Why revolution will not be twitted – Malcolm –The New Yorker – 2010

L’effet Dragonfly : des moyens rapides, efficaces et puissants pour utiliser les médias sociaux pour conduire le changement social (blog) – Andy Smith et Jennifer Aaker – 2010

Les processus de mise sur agenda : sélection et construction des problèmes publics – Patrick Hassenteufel – 2010

#MeToo : le rôle des réseaux sociaux dans la mise à l’agenda du harcèlement sexuel au RoyaumeUni – Sous la direction de Dephine DULONG, soutenu par James William RAPLEY CIL Promotion Georges Clemenceau (2017-2018)

Affaire Weinstein, comment est né #balancetonporc, le hashtag contre le harcélement sexuel – Nouvel Obs – 2017

Sorry, Malcolm Gladwell, the revolution may well be tweeted – Leo Mirani (2010)

Yale, 2017, « Twitter et gaz lacrymogène : le pouvoir et la fragilité de la protestation en réseau », non traduit

Garraud P., 1990, « Politiques nationales : l’élaboration de l’agenda », L’Année sociologique, p. 17-41.

Hilgartner S. et Bosk C., 1988, « The Rise and Fall of Social Problems : A Public Arena Model », American Journal of Sociology, vol. 94, n° 1, p. 53-76.

« Insécurité et délinquance 2017 – Premier bilan statistique » – Ministère de l’intérieur

Léa Fournier

Stratégie de communication politique sur les réseaux sociaux.

Jean-Luc Mélenchon : entre homme politique et influenceur.

– écrit par Alexandra levigne

Nous ne présentons plus Jean-Luc Mélenchon (JLM), candidat et fondateur de La France Insoumise (LFI), qui est arrivé troisième à 421 420 voix, derrière Marine LePen, lors du premier tour des élections présidentielles françaises. Sensible aux nouvelles technologies, il capitalise sur la multiplicité des supports numériques dans sa stratégie de communication afin de toucher le plus grand nombre d’électeurs. « Notre but, c’est de parler à tout le monde » s’exprime ainsi Antoine Léaument, responsable de la communication numérique du candidat ainsi que de LFI. Ils semblent cependant avoir été entendus en majorité par les moins de 34 ans et la communication portée par le candidat de l’Union Populaire sur les réseaux sociaux tout au long de la campagne a ainsi nécessairement joué dans les résultats. C’est la raison qui nous pousse aujourd’hui à étudier le comportement de Jean-Luc Mélenchon sur les réseaux sociaux. 

Avant toute chose, il est important de revenir sur le positionnement idéologique du parti qui va évidemment influencer le discours politique tenu par le candidat sur les réseaux. Depuis la disparition de la fédération des forces de gauches alternatives, le mouvement centré autour de la personne de Jean-luc Mélenchon opte depuis 2013 pour une stratégie dite « populiste ». Le mouvement se place en opposition aux « élites » du pays justifiant ainsi le contournement du système journalistique classique au profit de la liberté conférée par les réseaux sociaux. C’est pour cela que Jean-Luc Mélenchon emploie un ton direct et personnel tant, lorsqu’il s’adresse au « peuple », que, comme nous allons le constater, sur ses réseaux.

Pour commencer notre étude, nous allons nous focaliser sur la chaîne YouTube de Jean-Luc Mélenchon, créée le 1er janvier 2012. Il s’investit pleinement sur YouTube à l’approche des élections de 2017 et fait grimper en quelques mois de 20 000 à 100 000 son nombre d’abonnés. 

Cette hausse est attribuée aux nouveaux formats de vidéos proposés par JLM, nous retrouvons ainsi :
– « Pas vu à la télé » : interventions de personnalités peu médiatisées s’exprimant sur des sujets d’actualité. La volonté de rompre avec la couverture médiatique de la télévision est affirmée.
– « Revue de la semaine » : émission toujours phare de la chaîne, celle-ci met en scène JLM ressassant les événements de la semaine qui l’ont intéressé. Cette série, inspirée par différents contenus publiés sur la plateforme, s’ancre parfaitement dans les codes de YouTube. Le candidat s’adresse à la caméra avec un ton direct et personnel. 

Aujourd’hui, sur la chaîne se sont ajouté les formats :

Comme il est fréquent d’en voir YouTube, ce type de contenus permet d’augmenter l’engagement et l’interaction avec l’audience

Rediffusions d’apparition à l’Assemblée nationale (redirection en cliquant en sur le bouton), sur les plateaux télé, ou lors de diverses instances (commissions de travail, discours et meetings…)

En 2022, il s’agit de « Nos pas ouvrent le chemin » faisant en moyenne plus de 50 000 vues sur des sujets diverses, d’actualité politique (la guerre en Ukraine, l’envol d’Ariane 5…) ou couvrant des événements de la campagne (débats, meetings politiques…)

Jean-Luc Mélenchon explique en 2016 que c’est en regardant des vidéos YouTube qu’il a compris ce que c’était d’être YouTubeur et devient ainsi le premier « YouTubeur politicien » à se fondre parfaitement dans le type de contenu visionné sur la plateforme. L’intérêt de cet investissement est d’un côté, l’audience captée par ses contenus et de l’autre, la liberté totale sur les sujets abordés, le style de vidéo et tout simplement la maîtrise de son image. En effet, la narrative employée rend le candidat plus sympathique mais surtout proche de son public. Le pari, gagné, de ses équipes a été de créer une belle image de marque autour de JLM. 

C’est dans cette même optique que le compte TikTok de JLM voit le jour. Ce nouveau réseau au format vidéo vertical qui gagne en popularité auprès des jeunes est une case incontournable de sa campagne. Ayant dépassé les deux millions d’abonnés le 28 avril 2022, le compte reprend également les codes de la plateforme. Sur un ton léger et auto dérisoire, il partage de courtes vidéos humoristiques dans un objectif de viralité, des extraits sous-titrés de ses passages à la télévision ainsi que des vidéos derrière les coulisses afin d’inviter ses abonnés au sein de son intimité. Ces différents formats suscitent de la sympathie envers JLM. C’est ici un personal branding réussit puisqu’il s’agit bien d’une personnalité et non pas d’un programme politique qui est mis en avant.

JLM possède bien évidemment un compte Twitter, réseau social populaire dans le milieu de la politique pour la liberté d’expression qu’il permet. L’enjeu pour le candidat sur cette plateforme est avant tout, d’être présent et visible. C’est ce que nous observons par la forte fréquence de publications, du newsjacking intelligent, les live tweets lors de débats avec la mise en avant d’hashtag pour encourager la discussion et les réactions, et finalement l’usage fréquent du format vidéo (pour rediffuser les interventions médiatiques du candidat) qui est mise en avant par l’algorithme de la plateforme.

Le compte Instagram de JLM, du haut de ses 317 000 abonnés utilise toutes les fonctionnalités de la plateforme. Nous y retrouvons des stories (ainsi que stories a la une), des carrousels, des vidéos (extraits de ses apparitions télévisées sous titrées) et même de la création de filtres. En effet, le « mini-hologramme de poche », filtre en réalité augmentée (disponible également sur Snapchat) permet de retrouver le candidat dans son salon, de sorte à se démarquer des autres candidats, mais également de marquer les esprits avec du earned media. Le candidat fait également de la publicité pour ses autres réseaux : en premier lieu Twitter, proposant des photos de ses tweets sur son profil et en second lieu TikTok, re-postant ses publications en réels. 
Sa page Facebook adopte un format de contenu similaire avec l’usage du même texte pour les descriptions des photos (nous observons cependant plus d’émoticônes sur Facebook, probablement pour attirer l’attention.) Finalement, sur LinkedIn nous avons une stratégie axée sur la curiosité des utilisateurs. Les publications journalières reprennent les actualités « Insoumises » avec des visuels explicatifs et un lien vers un article pour une lecture approfondie du sujet. 

Ainsi dit, Jean-Luc Mélenchon bénéficie aujourd’hui d’une belle notoriété en ligne, propre à sa personne. Cela est dû au fait qu’il est présent sur tous les réseaux, il possède également une chaîne Twitch sur laquelle il interagit fréquemment avec son audience et un serveur Discord pour les partisans du mouvement (il existe aussi un grand nombre de pages privées pour la communauté des Insoumis). En s’appropriant de manière intelligente les codes des réseaux sociaux, il a réussi à s’imposer sur des canaux jusque-là difficiles d’accès pour les hommes politiques. Là où ses concurrents s’en remettent à leurs conseillers qui adaptent le message, Monsieur Mélenchon et son équipe semblent reconnaitre les segments d’utilisateurs, leurs intérêts et leurs appétences pour les réseaux qu’ils consomment. De ce fait, la force de sa communication réside dans la manière dont il est capable d’adapter non pas uniquement son message mais bien sa personne au réseau en question. Comme Arnaud Mercier, journaliste pour France Culture le souligne, il devient sur YouTube « Youtubeur Politique » et sur TikTok « TikTokeur Politique » expliquant ainsi son gain en popularité auprès des audiences majoritairement jeunes de ses réseaux. Il bénéficie également d’un grand soutien de la part de sa communauté d’insoumis qui prennent des initiatives, le soutiennent sur les réseaux et fédèrent ses partisans autour de leur projet commun.

Sources :

  • Les comptes officiels de Jean-Luc Mélenchon sur différents réseaux. Les liens sont mis en description d’images.
  • Bristielle Antoine, « YouTube comme média politique : les différences de contenu entre interviews politiques classiques et émissions en ligne de trois représentants de La France insoumise »

https://www.cairn.info/revue-mots-2020-2-page-103.htm

  • Theviot Anaïs, « Faire campagne sur Youtube : une nouvelle « grammaire » pour contrôler sa communication et influer sur le cadrage médiatique ? »

https://www.cairn.info/revue-politiques-de-communication-2019-2-page-67.htm

  • Klara Durand, « La campagne présidentielle sur les réseaux sociaux : qui remporte le match ? »

https://www.publicsenat.fr/article/politique/la-campagne-presidentielle-sur-les-reseaux-sociaux-qui-remporte-le-match-201682

  • Arnaud Mercier, « 2017-2022 : comment leur communication a évolué d’une présidentielle à l’autre »

https://www.franceculture.fr/politique/2017-2022-comment-leur-communication-a-evolue-dune-presidentielle-a-lautre

  • Pauline Graulle, « Présidentielle : la stratégie gagnante de Mélenchon dans les villes et les quartiers populaires »

https://www.mediapart.fr/journal/france/130422/presidentielle-la-strategie-gagnante-de-melenchon-dans-les-villes-et-les-quartiers-populaires

  • Scores délivrés par l’observatoire politique de Favikon sur la présence médiatique des candidats.

https://www.favikon.com/analyses/bilan-avant-les-presidentielles-2022

  • Ohiab Allal-Cherif, « Comment le numérique a propulsé la campagne de Jean-Luc Mélenchon »

https://www.forbes.fr/business/comment-le-numerique-a-propulse-la-campagne-de-jean-luc-melenchon

Présidentielle 2022 : Les réseaux sociaux ont-ils fait l’élection ?

(Montage AFP)

Il s’est écoulé une semaine depuis le second tour de l’élection présidentielle 2022. Une élection présidentielle très souvent qualifiée d’abstraite ou mise au second plan étant donné l’actualité récente, en particulier la guerre en Ukraine. Une élection présidentielle dont l’équation présentait 3 candidats potentiellement qualifiables pour le second tour. Une élection présidentielle où les réseaux sociaux étaient considérés comme un facteur déterminant, pouvant ainsi faire basculer les résultats. En effet, ces nouveaux moyens de communication sont aujourd’hui omniprésents dans la stratégie politique des candidats. Les réseaux sociaux change la manière de communiquer et sont utilisés comme de précieux procédés pour atteindre directement les électeurs, dans leur vie de tous les jours. Les candidats ont ainsi pour but d’orienter, voire de manipuler, un avis ou une opinion en leur faveur. Il a donc été possible de voir Marine Le Pen chanter sur Tik Tok, Eric Zemmour annoncer sa candidature sur YouTube ou encore Jean-Luc Mélenchon en conférence sur Twitch ! Ceci, afin de toucher un plus large public, en particulier les plus jeunes votants qui se désintéressent de plus en plus des médias classiques. Cependant, on peut se questionner sur l’utilisation des réseaux sociaux et donc de l’emploi du big data pour le compte d’un candidat. L’usage de données récoltées par les militants dans le but de convaincre l’auditoire français indécis est également questionnable aux vues de certaines techniques mises en place, pas toujours très honnêtes et transparentes.

Un ciblage d’électeurs indécis

Depuis certains scandales, il est, en effet, tout à fait normal de se demander comment sont récoltées et utilisées nos données dans le but d’influencer nos futurs choix électoraux. Rappelons l’esclandre du dossier Cambridge Analytica qui en 2015 avait recueilli les données de près de 87 millions d’utilisateurs de Facebook via une application externe (Business Insider, 2019). Des données personnelles ont été récoltées, comme les lieux de vie ou encore les pages que les utilisateurs suivaient, dans l’optique de créer des profils psychologiques, analysant les caractéristiques et les traits de personnalités des utilisateurs concernés. On sait que ces informations ont ensuite été traitées dans le cadre de la présidentielle de 2016 aux Etats-Unis qui a vu Trump se faire élire (Les Echos, 2018). Tout cela, sans le consentement des utilisateurs. Ces pratiques sont aujourd’hui abordées en France de manière précautionneuse par les politiques suite à ce scandale mais aussi aux lois instaurées, en 2018, sur le RGPD et la protection des données. Pour cette campagne 2022, Anaïs Théviot, maîtresse de conférence en sciences politiques, mentionne l’utilisation de logiciels comme Nation Builder qui permet de proposer un ciblage efficace de la communication des campagnes électorales pour influencer et inciter les potentiels électeurs à voter pour le candidat en question. Un ciblage basé sur des données recueillies via les réseaux sociaux et les données de l’INSEE (France Culture, 2022).

Le paysage des candidats suivis sur les réseaux sociaux

Un outil stratégique

Les réseaux sociaux ont joué un rôle primordial dans la campagne présidentielle française 2022 : ils ne sont plus seulement un outil de communication à destination des jeunes générations, mais bien un outil stratégique, tel une porte d’entrée pour susciter les votes envers un candidat en particulier. Véritable moyen de désintermédiation, il permet au candidat de rentrer directement en contact avec un électorat potentiel sans passer par le biais de médias classiques. Les candidats, et en particulier ceux des partis extrêmistes, sont ainsi moins exposés à la censure potentielle ou l’analyse orientée des journalistes politiques. Avec cet outil, les candidats peuvent désormais discuter avec leur électorat et plus seulement communiquer. Fabienne Greffet, maîtresse de conférences en science politique, mentionnait même : « l’espace télévisé n’est plus l’espace naturel où va se déployer la campagne » (Ouest France, 2022). Et pour atteindre le plus grand nombre de personnes, il faut être capable de se déployer rapidement, et ce, peu importe les moyens, comme le soutenait Samuel Lafont chargé de communication et de stratégie numérique pour le compte de la campagne d’Eric Zemmour. Des moyens légaux certes, mais pouvant être qualifiés de peu éthiques. Vincent Bresson, journaliste et auteur de l’enquête en inflitré dans la campagne de Zemmour « Au cœur du Z», dénonce des aspects difficilement avouables des stratégies numériques mises en place via les réseaux sociaux. La réécriture continuelle de la page Wikipédia du candidat Zemmour cherchant ainsi à minimiser ses positions extrémistes, en est un parfait exemple, lorsqu’on sait que sa page Wikipédia était une des pages francophones les plus consultées pendant la campagne présidentielle. Un autre phénomène s’est fortement développé sur les réseaux sociaux pendant cette campagne : l’astroturfing. Pour rappel, l’astroturfing est le fait de donner l’impression qu’il y a une prise de décision ou d’action collective spontanée sur un sujet en particulier, alors que celle-ci a été effectuée de manière coordonnée. Vincent Bresson met en exergue l’utilisation de messagerie cryptée sur lesquelles les équipes de campagne d’Eric Zemmour, et probablement celles des autres candidats, encourageaient les militants à lancer, par exemple, un hashtag, qu’ils devaient poster ou partager sur les réseaux. Les équipes des candidats leur envoient du contenu à copier-coller comme des textes, des photos ou des vidéos, et les incitent à les repartager de manière faussement spontanée, dans le but de se rendre visible. Le hashtag se retrouvera alors placé en top tweet et sera visible, likeable et partageable pour les autres utilisateurs, contribuant ainsi à l’effet astroturfing. Les médias classiques peuvent parfois même s’emparer de l’information sans avoir conscience de la mécanique artificielle, puisque floués par l’effet astroturfing, et ainsi la diffuser sur des médias plus classiques comme la télévision. L’astroturfing est particulièrement observable sur les groupes Facebook dont les intérêts n’ont aucun rapport avec la politique, mais dont les membres sont d’éventuels prospects. Après s’être infiltrés dans ces groupes, les militants partagent du contenu dans le but de voir celui-ci être relayé. Une technique de référencement a également pu être établie : un moteur de recherche appelé « Zemmour pour tous » qui permet de rechercher des vidéos, toutes hébergées sur Youtube, où intervient Eric Zemmour. L’algorithme de référencement de Youtube (SEO) intègre alors les recherches de ces vidéos en associant aux vidéos un mot clé rentré sur le moteur de recherche. Cela permet d’avoir en recommendation sur YouTube des vidéos d’Eric Zemmour, dès lors qu’on rentre le mot clé sur la plateforme.

Une croissance particulièrement forte chez Eric Zemmour

Une question d’adhésion

Toutes ces techniques constituent la première étape du déroulé d’une élection sur les réseaux sociaux, l’objectif étant de susciter la curiosité et l’intérêt des potentiels électeurs et des indécis. Le principal but de cette étape est de faire connaître le candidat en question et que les français en parlent. Ce qui a été le cas pour tous les protagonistes au moment de leur annonce de candidature. L’attrait des utilisateurs peut être mesurable en regardant les statistiques des réseaux sociaux, comme le nombre de followers, de likes ou de partages. Une mesure qui a démontré que les moyens déployés par l’équipe de campagne d’Eric Zemmour ont été efficaces, puisqu’il a multiplié par quatre sa base d’abonnés depuis septembre 2021 (Les Echos, 2022). Cependant, il faut garder en mémoire que des faux comptes peuvent être créés, dupliqués ou que des faux followers peuvent être achetés, pour influer sur les chiffres. Plus l’échéance de l’élection approche, plus les candidats doivent transformer cet intérêt en adhésion et donc en vote, ce qui constitue la seconde étape. L’adhésion se gagne avec une communication positive du candidat, en lui donnant une stature présidentiable grâce à deux ou trois points stratégiquement forts de son programme. Un très bon moyen de savoir si la stratégie arrive à établir une logique d’adhésion est, d’après Véronique Reille Soult spécialiste en communication et e-réputation, de regarder si la communauté adepte du candidat commence à pénétrer d’autres communautés en faisant passer ses messages (Ouest France, 2022). Les faux comptes et autres comptes fantômes n’auront donc aucun impact dans cette logique puisqu’ils seront inutiles pour communiquer envers d’autres communautés. Toujours dans cette logique d’adhésion, les réseaux sociaux peuvent aussi être employés pour décrédibiliser un candidat concurrent, à l’image des « Macron Leaks » en 2017 qui constituaient le piratage d’origine inconnue de plus de 20000 documents électroniques reliés à la campagne du futur président qui ont été rendus public quelques jours avant le vote du second tour (France Culture, 2022). Les réseaux sociaux se sont donc emparés très rapidement de l’information et ont amplifié sa propagation.

Les réseaux sociaux ne servent pas uniquement à suciter l’intérêt, ils s’inscrivent également dans une logique d’adhésion des électeurs pour un candidat.

Pour conclure, les réseaux sociaux ont eu une place importante dans l’élection présidentielle puisque la grande majorité de la population française se renseigne aujourd’hui via internet et notamment les réseaux sociaux. Tout l’enjeu de la stratégie d’une campagne numérique est d’être présent là où les électeurs se trouvent pour tenter de récolter le plus de voix possible. Néanmoins, cela n’aura pas forcément renversé la tendance pour cette élection car certains candidats n’ont pas réussi à transformer l’intérêt suscité en adhésion, puis en vote. Dans des situations de choix complexes, on ne se rapporte pas forcément à des choses de l’ordre du rationnel mais de l’ordre de l’affect (jeune, sympa, cool…), comme sur Instagram ou TikTok avec Macron se prenant en selfie vidéo ou Marine le Pen chantant du Dalida. Qu’on le veuille ou non, cela à un impact sur notre vote (Hugo Decrypte, 2022). Certains processus, passant souvent inaperçus, sont employés par les équipes de campagne pour influencer et de manipuler les choix des votants. Des techniques comme l’astroturfing encouragent le repartage d’une information, sans vérification de source, pour la rendre spontanée et ainsi renforcer sa crédibilité. Cette propagande via les réseaux sociaux sera une menace grandissante pour les futures élections, si nous n’éveillons pas la conscience des votants à l’égard des pratiques employées et si nous n’éduquons pas les électeurs sur les données qu’ils partagent, qu’ils likent ou qu’ils suivent. On constate que le débat ne porte plus principalement sur le fond mais sur la forme et que, entre punchlines et fake news, les réseaux sociaux sont adaptés à ce nouveau genre de communication. Une tendance qui va certainement s’accélérer sur les prochaines élections.

Chloé Sangiorgio

Références

AFP, (2022) . [EN LIGNE]. Disponible via : https://www.leparisien.fr/elections/presidentielle/presidentielle-2022-comment-les-reseaux-sociaux-bousculent-la-campagne-31-10-2021-3OVRHGGXUFANNI6IWXWXXBZHX4.php [Accedé le 1 Mai 2022].

Bresson, V., 2022. Au cœur du Z. ed. Goutte d’or.

Corsan, O., (2022) . [EN LIGNE]. Disponible via : https://www.leparisien.fr/elections/presidentielle/presidentielle-2022-comment-les-reseaux-sociaux-bousculent-la-campagne-31-10-2021-3OVRHGGXUFANNI6IWXWXXBZHX4 [Accedé le 1 Mai 2022].

Grandin, J., 2022. La présidentielle se joue aussi sur les réseaux sociaux. Les Echos, [EN LIGNE]. Disponible via : https://www.lesechos.fr/elections/presidentielle/la-presidentielle-se-joue-aussi-sur-les-reseaux-sociaux-1399033 [Accédé le 27 April 2022].

Hasson-Fauré, N., 2022. Présidentielle 2022. « Comment les candidats à l’élection présidentielle utilisent-ils les réseaux sociaux ? ». Ouest France, [EN LIGNE]. Disponible via : https://www.ouest-france.fr/leditiondusoir/2022-02-14/comment-les-candidats-a-lelection-presidentielle-utilisent-ils-les-reseaux-sociaux-65a2c6dd-dd8f-4d5e-bc28-5d305cf758ad [Accédé le 25 Avril 2022].

Hugo Decrypte, (2022). Le Master SIREN invite Hugo Decrypte. Université Paris-Dauphine, 26 Avril 2022.

Ma, A. et Gilbert, B., 2019. Facebook understood how dangerous the Trump-linked data firm Cambridge Analytica could be much earlier than it previously said. Here’s everything that’s happened up until now.. Business Insider, [EN LIGNE]. Disponible via : https://www.businessinsider.com/cambridge-analytica-a-guide-to-the-trump-linked-data-firm-that-harvested-50-million-facebook-profiles-2018-3?r=US&IR=T [Accédé le 25 Avril 2022].

Philipps, G., 2022. Les réseaux peuvent-ils destabiliser l’élection ?. France Culture, [EN LIGNE]. Disponible via : https://www.franceculture.fr/politique/presidentielle-2022-les-reseaux-peuvent-ils-destabiliser-lelection [Accédé le 27 April 2022].

Rousset, A., 2018. Comment Cambridge Analytica a repéré les électeurs de Trump grâce à leurs vêtements. Les Echos, [EN LIGNE]. Disponible via : https://www.lesechos.fr/elections/presidentielle/la-presidentielle-se-joue-aussi-sur-les-reseaux-sociaux-1399033 [Accédé le 27 April 2022].

Saltiel, F et Théviot, A,. 2022. Les réseaux sociaux peuvent-ils faire basculer une élection ?. Le meilleur des mondes. [Podcast]. [Accédé le 22 April 2022]. Available from: https://www.franceculture.fr/emissions/le-meilleur-des-mondes/les-reseaux-sociaux-peuvent-ils-faire-basculer-une-election.

Tran, S., 2022. Présidentielle 2022. « L’espace télévisé n’est plus l’espace naturel où va se déployer la campagne ». Ouest France, [EN LIGNE]. /, /. Disponible via : https://www.ouest-france.fr/elections/presidentielle/presidentielle-2022-l-espace-televise-n-est-plus-l-espace-naturel-ou-va-se-deployer-la-campagne-e1300368-7308-11ec-b5e2-f1d665483d2a [Accédé le 25 Avril 2022].

Twitter : des communautés engagées autour du Esport – Le cas Karmine Corp

La Karmine Corp : c’est quoi ?

La Karmine Corp est une structure d’Esport française formée le 30 mars 2020 par Kamel « Kameto » Kebir, alors déjà connu en tant que streameur. En novembre 2020, il est rejoint à la direction par Amine « Prime » Mekri, notamment connu pour sa carrière sur Youtube et dans le rap. La structure possède plusieurs joueurs professionnels regroupés au sein d’équipes, qui participent à des compétitions concernant les jeux compétitifs League of Legends, TrackMania, Teamfight Tactics et Rocket League dans le but d’atteindre la première place du podium et de remporter des titres ainsi que des prix.

Aujourd’hui, la Karmine Corp est suivie par près de 315 000 personnes sur Twitter, réseau sur lequel elle est le plus active, et par près de 100 000 personnes sur Instagram, mais la structure possède également une page officielle sur LinkedIn. Toutefois, le réseau social qui a vraiment permis de construire une communauté engagée d’« ultras » est Twitter.

Twitter : un engouement autour des sujets gaming et esport

D’un point de vue global, Twitter est un terrain favorable au développement de communautés engagées autour du gaming et de l’Esport. En effet, il s’agit d’un des centres d’intérêt importants pour les utilisateurs de Twitter. Ainsi, en 2021, 2.4 milliards de tweets ont été postés sur le réseau, d’après la Retrospective Gaming 2021 de Twitter. Twitter est un des endroits de prédilection pour les fans d’Esport qui y encouragent et y supportent leurs équipes fétiches, et y commentent leurs matchs favoris. En France, on retrouve notamment parmi les jeux et franchises les plus tweetés en 2021, League of Legends. C’est notamment un des facteurs explicatifs de l’engouement populaire autour de la Karmine Corp, qui est essentiellement relatif à son équipe (roaster) de joueurs League of Legends.

Un engouement populaire et la formation d’une communauté d’« ultras »

Les bonnes performances des équipes Karmine Corp, notamment de son équipe League of Legends, ne constituent pas le seul facteur explicatif de l’engouement autour de la structure sur Twitter.

A l’origine de la Karmine Corp, il y a d’abord deux personnalités populaires sur les réseaux sociaux. Kameto, le fondateur de la structure qui commente chacun des matchs de son équipe et s’exprime majoritairement sur celle-ci via Twitter, a notamment constaté un phénomène de conversion de son audience vers l’audience de la Karmine Corp : «Beaucoup de gens ont suivi par curiosité, raconte Kameto. Ils sont venus sur le stream, ont vu qu’il y avait une ambiance de fou et sont revenus toutes les semaines. C’est comme s’ils suivaient leur équipe de foot.». De nombreux abonnés de la Karmine Corp ont découvert le club (et parfois même le Esport) par le biais de Kameto. La base conséquente des abonnés de ce dernier a rapidement permis de constituer une base solide à la communauté Karmine Corp.

Au sein de son équipe League of Legends constituée de 5 individus, deux de ses membres se placent parmi les 10 joueurs Esport les plus tweetés au monde, d’après les données de Twitter pour le premier quart de l’année 2022. On y retrouve notamment le suédois Martin « Rekkles » Larsson  à la 3ème position, ainsi que Lucas « Cabochard » Simon-Meslet à la 6ème position. Des membres influents qui attirent l’attention sur la structure au-delà des frontières.

A l’instar de certaines compétitions sportives (telles que l’UFC), la rivalité et les show matchs sont courants dans le domaine du Esport et permettent de générer un grand nombre d’impressions sur Twitter ainsi que de populariser la structure en l’amenant dans les Top Tendances. La Karmine Corp a ainsi des rivaux au sein de la Ligue Française, tels que Vitality et Solary (autre équipe portée par des streamers), donnant lieu à des confrontations sur Twitter accompagnées de hashtags, portant les deux équipes en Top Tendances. Les rivalités s’exportent également avec des structures internationales à forte renommée et se transforment en show matchs extrêmement commentés sur Twitter, comme avec l’espagnole KOI, récemment lancée et dirigée par Ibai, l’un des streamers hispanophones les plus populaires au monde.

La Karmine Corp possède une large communauté de fans qui se définissent comme des « ultras ». Reconnaissables par le sigle KC présent devant leurs pseudos Twitter, pour les plus fervents, ils sont également nombreux à afficher une photo de profil représentant un mur bleu (blue wall), un visuel associé à la Karmine Corp en référence à un mouvement produit lors des matchs. Il s’agit notamment du nom choisi par l’association officielle de la Karmine Corp qui comptabilise plus de 15 000 abonnés sur Twitter et possède son propre canal Discord. Il existe d’autres groupes sur Twitter, telle qu’une page pour les supporters « ultras » qui regroupe plus de 40 000 followers. Une des raisons de l’engagement de la communauté Karmine Corp, c’est ainsi la capacité a créer un fort sentiment d’appartenance sur Twitter.

Toutefois, la communauté peut parfois souffrir de la mauvaise publicité faite par la minorité bruyante de Twitter. Le réseau social est peu modéré et les vagues de harcèlement sont un phénomène fréquent sur la plateforme de l’oiseau bleu. Ainsi, Laure Valée, journaliste et intervieweuse des compétitions League of Legends, a subi une vague de harcèlement après la diffusion d’une vidéo contenant une séquence montrant les mauvaises performances du joueur phare de la Karmine Corp, Rekkles. Certains « ultras » lui ont fait comprendre leur mécontentement, notamment via des propos sexistes et insultants, sous couvert de l’anonymat permis par la plateforme.

La Karmine Corp mise en lumière

Aujourd’hui, la Karmine Corp est considérée comme une des équipes les plus influentes au monde dans la compétition de League of Legends. D’après les données de Twitter pour le premier quart de l’année 2022, la Karmine Corp était à la 5ème position des structures Esport les plus mentionnées sur Twitter, et la seule structure française du classement.

Les performances rapides et excellentes, ainsi que l’engouement autour de la Karmine Corp dès son arrivée en première division de la Ligue Française, ont amené d’autres personnalités populaires sur les réseaux sociaux, à exprimer et afficher leur soutien envers la structure via Twitter, la mettant ainsi en lumière. C’est notamment ce qu’ont fait Squeezie (8,4 millions d’abonnés sur Twitter) et Gotaga (1,7 millions d’abonnés sur Twitter).

Cette mise en lumière dépasse même le cadre de Twitter, puisque l’existence et les performances de la Karmine Corp parviennent jusqu’à la classe politique, qui y trouvent un moyen de s’adresser à la jeunesse française. Ainsi, Emmanuel Macron a envoyé un message de soutien le 3 mai 2021 suite à la victoire de la coupe d’Europe via message privé sur Twitter à la Karmine Corp. Il a également récemment mentionné le club français, en citant le domaine de l’Esport comme « another field of French excellence with teams like Team Vitality or Karmine Corp ».

Sarah Collot

La (re)conquête de Twitter par Eric Zemmour

66%. C’est la part des jeunes qui s’informent en premier lieu sur Internet aujourd’hui. Et c’est même un tiers des Français qui sont concernés par cette tendance. Sur ces internautes, 20% s’informent d’abord via les réseaux sociaux selon le baromètre annuel Kantar Public Onepoint pour La Croix[1]. Et pourtant, les réseaux sociaux sont souvent blâmés pour leur manque d’objectivité et de véracité : ils ne représenteraient pas systématiquement la réalité et seraient sujets à de nombreux biais algorithmiques. Ces algorithmes développés en interne et souvent bien protégés par les géants du numérique ont été parfois critiqués pour un de leurs buts supposés premiers : susciter l’émotion pour pousser l’utilisateur à interagir. Il est ainsi aisé d’imaginer des effets de propagation dans les contenus mis en avant sur ces plateformes, demeurant par conséquent bien différents de ceux des médias traditionnels comme la télévision.

C’est dans ce contexte que nous allons nous intéresser à la campagne électorale de 2022 du candidat Éric Zemmour, et plus particulièrement à sa campagne sur le réseau social Twitter, en nous appuyant sur l’ouvrage Toxic Data de Davis Chavalarias, directeur de recherche à l’Institut des Systèmes Complexes du CNRS. Son livre pose la question suivante : les réseaux sociaux peuvent-ils influencer les votes ? Pour le démontrer, M. Chavalarias a utilisé un outil, le « politoscope », pour observer le militantisme en ligne. Ont été ainsi scrutés depuis 2017 plusieurs milliers de tweets issus des différentes communautés politiques et des médias pour mettre en lumière « plusieurs actions qui ont visé à déstabiliser les élections ou influencer le choix des électeurs [lors de la dernière présidentielle] »[2].

La première observation de cet ouvrage est l’amplification des discours anti-Macron et anti-Mélenchon favorisant ainsi la montée de l’extrême-droite et donc du parti d’Éric Zemmour « Reconquête ». David Chavalarias explique alors que cette action n’a pas été seulement menée par des Français mais également par des acteurs étrangers comme des sympathisants de l’ex-président américain Donald Trump aux Etats-Unis. Selon une étude menée par la société Twitter en 2021, « Algorithmic Amplification of Politics on Twitter », les partis politiques ne seraient en fait pas tous égaux sur les réseaux sociaux car les discours conservateurs demeureraient plus largement diffusés que les autres plus modérés. Cela semble même se vérifier dans la réalité puisqu’en France les comptes avec le plus d’influence sont ceux des extrêmes avec Eric Zemmour en tête devant Emmanuel Macron et Jean-Luc Mélenchon selon le magazine Challenges[3].

Ainsi, c’est sur cette donnée que les responsables de la communication du candidat Éric Zemmour ont notamment fait reposer sa campagne sur Twitter. En effet, une enquête récente du journal Le Monde[4] explique comment l’équipe du candidat a mis en place une stratégie « d’astroturfing ».

Reprenons. Selon Paul Conge, journaliste pour le magazine Marianne, « l’astroturfing est une manière de tromper les algorithmes en appelant quelques centaines ou milliers de personnes à relayer le même message en même temps afin qu’il remonte dans les tendances. Le procédé valorise ainsi massivement un candidat ou ses idées auprès de tous les autres utilisateurs du réseau social impliqué. ». Dérivée d’AstroTurf, une marque de moquette synthétique conçue pour ressembler à de l’herbe naturelle, cette technique remonte aux années 1980 aux Etats-Unis, lorsqu’un sénateur du Texas reçut de nombreux courriers de « citoyens » qui étaient en fait une campagne de lobbying d’une compagnie d’assurance. L’astroturfing peut également être utilisé pour diffuser des « fake news » et donc désorienter le débat public notamment lors d’élections. La stratégie consiste finalement à créer des tendances grâce au volume, dans la mesure où une centaine de personnes seulement suffisent pour imposer un débat public[5].

Revenons au cas d’Éric Zemmour. Une première observation qui peut être faite est que sa communauté Twitter a « la plus forte densité de liens internes, avec une moyenne de 7,28 connexions par membre » selon le politoscope de M. Chavalarias, ce qui signifie donc que l’information circule en vase clos. Cette observation peut cependant être trompeuse. Le parti Reconquête dispose de beaucoup de comptes « les […] avec Zemmour » pour toucher un maximum de personnes externes et ainsi souder un électorat potentiel. Pourtant, ces comptes créés récemment parlent en réalité davantage de grandes tendances et pas vraiment, si ce n’est pas du tout, de la profession qui les unit (Par exemple : « Les profs avec Zemmour » ont interagit sur des thèmes comme le Covid, le voile ou encore l’Islam).

D’autre part, beaucoup de thèmes ont été placés dans les « Tendances » sur Twitter (thèmes les plus abordés dans le pays dans un laps de temps relativement court) par le parti d’Éric Zemmour en 2021 : #lesfemmesaveczemmoour, #zemmourcandidat, etc. Cela semblait ainsi présenter un large mouvement de ralliement à M. Zemmour même lorsqu’il n’était pas en campagne officiellement.

Analysons plus précisément la montée du hashtag #lesfemmesaveczemmour. Tout commence le 4 novembre 2021 avec deux comptes qui publient 44 tweets avec une image et cet hashtag. S’en suivent alors beaucoup d’autres comptes avec d’autres tweets. A titre exemple, un des comptes a publié 150 visuels en 30 minutes. Par ailleurs, certains comptes publient les mêmes tweets simultanément. En fait, si l’on observe plusieurs comptes (Génération Z, etc.), il apparaît que plusieurs mêmes tweets ont été publiés dans le même ordre, et certains utilisateurs retweetaient – repartageaient – en masse, avec par exemple 297 retweets en douze minutes, ce qui semble difficilement réalisable sans programme informatique. Il est d’ailleurs très probable, selon David Chavalarias, qu’il y ait eu une utilisation de robots et de « fermes à contenus », site web de production de contenus de faible valeur avec pour seul objectif la génération d’interactions. En effet, publier 600 tweets par jour sur le même sujet semble peu « humain », même si cette supposition demeure difficilement démontrable à cause de la confidentialité des données de ce type de plateformes. Au total, David Chavalarias dénombre plus de 1300 campagnes d’astroturfing pour un seul compte en comptant les comptes qui avaient publiés le même message « pour faire croire que ce message-là étaient défendu par plusieurs personnes au même moment ». En fait, des soutiens officiels d’Éric Zemmour comme Samuel Lafont, responsable de la stratégie numérique d’Éric Zemmour, donnaient des directives comme par exemple : « mettez le hashtag #lesfemmesaveczemmour en tendance ». Samuel Lafont résume d’ailleurs la campagne qu’il a mené comme de la communication et non de l’astroturfing. Le hashtag apparaît dans les « tendances » ce qui le rend d’autant plus populaire. En effet, certains vont tweeter par désaccord, donnant paradoxalement de la visibilité à la tendance et d’autres, avec une plus faible audience, vont se manifester pour soutenir la tendance car cela les fait sortir de leur microcosme. Le biais est ainsi construit : si tout le monde pense pareil, cela doit forcément avoir de la légitimité. Mais en réalité, la moitié des tweets proviennent de seulement 17 comptes créés spécialement pour l’opération de gonflage du parti. Cette opération a ainsi été répétée par la suite avec d’autres hashtags.

Les responsables de la communication de Reconquête ne sont pas arrêtées là. En effet, il a été prouvé que des sites internet comme petition-permis-a-points.fr ou encore lesfemmesaveczemmour.fr ont été relayés via Twitter par des sympathisants d’Éric Zemmour[6].

Ces sites, sous forme de pétition, incitaient à entrer ses coordonnées, afin de constituer une base de données pour le parti politique. Des courriels ont par conséquent été envoyés par la suite aux personnes concernées pour récupérer de potentiels adhérents. Par ailleurs, selon Paul Conge, auteur du livre « Les grands remplacés », le parti a également recruté des militants, et plus précisément des jeunes, via, par exemple, le jeu vidéo Fortnite, en les conduisant dans des espaces de discussion privés[7]. L’univers du jeu vidéo a été utilisé car il touche des jeunes gens, parfois dans la solitude de leur écran, constituant donc une cible plus encline à être influencée.

En fin de compte, là où la loi française n’interdit pas de telles stratégies, il est interdit d’amplifier artificiellement un message selon le règlement de Twitter. C’est d’ailleurs la raison pour laquelle une centaine des comptes mentionnés jusqu’ici ont été suspendu sur le réseau social.

Selon Amnesty Internationale ou Reporter sans frontières, il existe des solutions pour se protéger de telles pratiques. Il faudrait, selon ces organisations, réguler les plateformes voire refonder leur modèle économique pour un accès égal à toutes les expressions, car l’espace public doit permettre une délibération non biaisée avec une diversité de points de vue. Selon Christophe Deloire, Directeur général de Reporters sans frontières, on ne peut pas déléguer à des entreprises aux intérêts privés l’organisation de l’espace public et nous devons donc inventer de nouvelles obligations juridiques dédiées à ces questions[8].

Nous pouvons tout de même espérer que certaines mesures du DSA (Digital Service Act) ainsi que la volonté du nouveau propriétaire de Twitter Elon Musk de lutter contre les « spam bots »[9] permettront d’endiguer ces vastes campagnes de tentatives de manipulation de l’opinion.

Cléa Desitter

Modération : à quand la fin de l’impunité sur les réseaux sociaux ?

Le phénomène d’émiettement identitaire, en corrélation avec l’utilisation grandissante des réseaux sociaux, s’aggrave ces dernières années entre l’espace physique et l’espace numérique. L’idée commune selon laquelle l’identité définie dans l’espace public disparaît au profit d’une autre identité sur Internet favorise le sentiment d’impunité et l’augmentation des contenus toxiques sur les espaces d’expression en ligne. Les tentatives de régulation ont été nombreuses, tant par les autorités publiques que par les plateformes elles-mêmes.

L’heure est au bilan sur l’état actuel de la modération des contenus en ligne.

Responsabilisation progressive des plateformes

Le 20 janvier 2022, le Parlement européen procédait à un vote sur la législation des services numériques, plus connue sous le nom de Digital Services Act (DSA). Ce texte vise notamment à obliger les géants du numérique à s’attaquer aux contenus illicites en ligne, tels que ceux favorisant l’incitation à la haine ou la désinformation. En effet, l’expression sur l’espace public numérique est structurée autour d’un marché oligopolistique (Facebook, Twitter, Google). C’est donc naturellement que l’attention politique et juridique s’est concentrée sur cette poignée d’acteurs en mettant en lumière leurs dérives et en alertant sur la présence grandissante des contenus haineux. Ces plateformes ont été contraintes d’accepter que leur rôle dépassait celui de simple hébergeur de contenus et ont pris leurs responsabilités en termes de modération et de régulation sur leurs interfaces.

Pour respecter ces nouveaux engagements, de nombreux outils ont été développés par les plateformes afin d’identifier les contenus toxiques. Une modération algorithmique automatisée et des équipes très conséquentes de modérateurs sont devenus deux piliers quasi-indispensables pour traiter une quantité aussi importante de contenus. Ces outils technologiques permettent notamment une modération ex ante, c’est-à-dire avant même que le contenu soit publié et donc visible par les utilisateurs. On parle alors d’une modération « industrielle », qui se différencie d’une modération dite « artisanale » effectuée par des équipes plus restreintes, avec une approche plus manuelle et une importance forte donnée à la contextualisation du contenu. La modération 100% automatisée n’est pas la solution parfaite puisqu’elle comprend son lot de risques, notamment en identifiant des contenus dits « faux positifs », c’est-à-dire modérés alors qu’ils n’auraient pas dû l’être, ou en incitant à une modération excessive, dite « modération préventive » des plateformes pour éviter des sanctions.

La modération ne se limite pas à l’identification des contenus problématiques, il faut ensuite savoir réagir au mieux pour limiter leur propagation ce qui ne passe pas nécessairement par la suppression. En effet, la modération par retrait du contenu peut avoir des effets néfastes comme l’augmentation des réactions toxiques en réponse à la suppression ou la légitimation du contenu supprimé aux yeux de certaines communautés. Les plateformes ont donc développé des méthodes alternatives, dites « graduelles », afin de limiter la visibilité du contenu sans avoir à le supprimer, tels que le déclassement ou le déréférencement du contenu ou sa mise en quarantaine. La propagation de ces contenus toxiques est en constante évolution, forçant les modérateurs à se renouveler et à innover régulièrement dans ce domaine.

Mythe de l’anonymat sur Internet

Malheureusement, la modération ne suffit pas toujours. Si les algorithmes des plateformes leurs permettent d’identifier la quasi-totalité des contenus à caractère illégal (Facebook déclare que « 99,5% des contenus terroristes ou pédopornographiques sont bloqués a priori, et automatiquement, avant même qu’un utilisateur ne puisse le voir. »), il leur est plus difficile de repérer d’autres comportements tels que le harcèlement en meute ou la diffusion de désinformations. 

Dans les cas où des enquêtes de police sont ouvertes, notamment lorsqu’une victime porte plainte, l’une des premières étapes consiste à identifier les responsables potentiels, généralement cachés derrière des pseudonymes qui sont à distinguer de l’anonymat. En effet, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 impose aux hébergeurs et opérateurs de conserver toutes les données de connexion (adresse postale, coordonnées bancaires, n° de téléphone, adresse IP, etc.) afin de pouvoir identifier la personne cachée derrière un pseudo. Ces données sont soumises au secret professionnel mais peuvent être communiquées à la justice en cas de demande. Ainsi, la levée d’un pseudonyme n’est jamais impossible en soi, au contraire, mais elle demande parfois énormément de temps et de moyens à la justice pour y parvenir.

Collaboration avec les services policiers et judiciaires

Lors d’une investigation sur les réseaux sociaux, les services de police tentent de corroborer les pistes en récupérant des traces numériques. Dans certains cas, les contenus en question sont partagés publiquement ce qui permet de répertorier rapidement des preuves. Cependant, lorsque les comptes sont cadenassés, cela doit passer par une réquisition invitant la plateforme à transmettre les données d’identification des comptes concernés. De nombreuses affaires de cyber-harcèlement, telles que l’affaire Mila ou la récente condamnation du Youtubeur Marvel Fitness, ont pu être portées en justice et aboutir à des condamnations grâce à cette collaboration entre les plateformes et les autorités publiques. 

Cependant, d’après Matthieu Audibert, commandement de la gendarmerie dans le cyber-espace, alors que les opérateurs français sont très réactifs et répondent en moyenne à ces demandes en 15 min, les hébergeurs américains s’avèrent généralement moins collaboratifs. Pour leurs exiger le transfert des données, il faut envoyer une réquisition directement à la société mère. Cela peut parfois nécessiter préalablement une demande d’enquête pénale internationale, suivi de l’envoi de la réquisition via le ministère de la justice français auprès d’un magistrat de liaison à Washington, qui transmettra ensuite au procureur de l’État américain de domiciliation de la plateforme. Cela va sans dire, ces cas de figure correspondent à des délais d’action de plusieurs mois, voir n’aboutissent parfois à aucun retour de la part de la plateforme concernée.

Le réseau Twitter est connu pour être le mauvais élève des réseaux sociaux en matière de collaboration avec la justice. L’avocat Éric Morain rappelle : « c’est une obligation dans le code de procédure pénale de déférer à ces réquisitions, et il ne viendrait pas à l’idée de la BNP, Orange ou Free de ne pas le faire. Les autorités adressent de la même façon régulièrement des réquisitions à Facebook ou à Twitter. […] Sauf que, si Facebook collabore depuis deux ou trois ans, en ce qui concerne Twitter, on reçoit des classements sans suite du parquet faute de collaboration. ». En janvier 2022, Twitter France et son DG Damien Viel ont été jugés pour « refus de répondre à une réquisition » et la Cour d’appel de Paris a confirmé une décision de juillet ordonnant à Twitter de détailler ses moyens de lutte contre la haine en ligne, jugés insuffisants.

Moins de lois, plus de moyens !

Une impunité importante persiste sur les réseaux sociaux et l’une des causes principales réside dans le manque de moyens accordés aux services de police et aux régulateurs. Avec plus de moyens, la justice pourrait réagir et condamner rapidement, ce qui refroidirait progressivement l’essor des contenus toxiques et ferait office de modération par incitation. La lenteur actuelle des décisions de condamnations est responsable du sentiment d’impunité récurrent sur Internet. Le mal français voudrait créer de nouvelles lois, épuiser les plateformes sous de nouvelles obligations, alors que la vraie solution serait de donner à la justice (l’un des ministères les moins bien financé) les moyens humains et financiers d’agir efficacement.

Actuellement, la plateforme Pharos en charge de la surveillance des contenus illicites sur Internet est sous-financée et sous-équipée, avec une vingtaine de cyber-gendarmes quand Facebook a plus de 15 000 personnes en charge de sa modération. Les missions sont éparpillées, les cyber-gendarmes n’ont accès qu’à ce qui est visible au public sur les plateformes et c’est les commissariats qui ont la charge d’examiner les conversations et groupes privés.

Par ailleurs, pour forcer ces super plateformes à respecter leurs obligations, l’échelle nationale ne semble pas la plus efficace puisque nos régulateurs semblent aujourd’hui incapables de faire respecter leurs propres mesures. Il est nécessaire d’engager les régulateurs à échelle européenne et de simplifier la définition des infractions en ligne afin de condamner régulièrement et jusqu’à l’épuisement les plateformes, plutôt que de sanctionner une fois par an ces géants du numérique, impassibles face aux montants de leurs condamnations précédentes.

Par Estelle Berdah


Sources

Lois et approches de la régulation

Modération des contenus : renouveler l’approche de la régulation, Renaissance numérique, Juin 2020

La haine en ligne, de nouvelles lois, pour quoi faire ?, Jean-Marie Portal, Mars 2021

Règlement européen : les plateformes en ligne ont désormais une heure pour retirer le contenu terroriste, Mathieu Pollet, Avril 2021

Haine en ligne : le Conseil constitutionnel censure le dispositif-clé de la loi Avia, Raphaël Balenieri, Juin 2020

Anonymat en ligne

« Renforcement de l’anonymat sur Internet », Arnaud Dimeglio, Août 2021

Il est temps d’arrêter de nous bassiner avec l’anonymat en ligne, Julien Lausson, Juillet 2020

Tout comprendre au débat sur l’anonymat sur Internet, Cécile Bertrand, Juillet 2020

Collaboration des plateformes

Twitter France et son directeur jugés pour ne pas avoir aidé la justice, Le Figaro, Janvier 2022

Twitter loses appeal in French case over online hate speech, Business Standard, Janvier 2022

Haine en ligne : Twitter, mauvais élève des réseaux sociaux, Raphaël Balenieri, Juillet 2020

VIDÉO – PODCAST

Tremblez les trolls : la fin de l’impunité sur les réseaux sociaux ?, Médias en Seine 2021

Le numérique, une zone de non-droit ? avec Simon Puech & Alexandre Archambault, Juin 2021

Quitter la version mobile