« Community Notes » sur Twitter : un outil efficace contre les fausses informations ?

En octobre 2023, suite à l’attaque du Hamas contre Israël, la Commission européenne, ainsi que l’Arcom, a adressé un avertissement à la plateforme de réseaux sociaux Twitter, désormais connue sous le nom de X. L’intervention des autorités visait à modérer la diffusion de contenu inapproprié lié à cet événement, incluant de nombreuses vidéos, images et informations fallacieuses. La mise en garde de la Commission européenne et de l’Arcom à l’encontre de X, s’inscrit dans une continuité réglementaire. En effet, cette intervention n’était pas la première du genre. Déjà en octobre 2022, peu après le rachat de la plateforme par Elon Musk, l’Arcom avait rappelé à X ses obligations légales concernant la modération des contenus en ligne. Ces rappels successifs soulignent l’attention accrue des autorités régulatrices sur les pratiques de modération des réseaux sociaux, particulièrement dans le contexte de gestion des crises et de la désinformation.

La lutte contre la désinformation s’intensifie, confronté à des obstacles majeurs tels que la prolifération rapide de nouveaux contenus et la difficulté à discerner le vrai du faux. Cet enjeu, qui doit aussi ménager un équilibre délicat entre la liberté d’expression et la nécessité de limiter la propagation de contenus illicites ou préjudiciables, pousse les plateformes à innover dans leurs approches. En réponse à cette complexité croissante, plusieurs d’entre elles ont récemment adopté des stratégies de modération participative, invitant les utilisateurs à jouer un rôle actif en signalant les publications susceptibles de transgresser leurs règles. L’une des méthodes de modération les plus notables est celle mise en œuvre par la plateforme X : les Notes de la communauté. Initialement testée aux États-Unis en 2021, cette approche a été adoptée à grande échelle à l’international suite à l’acquisition de la plateforme par Elon Musk.

Qu’est qu’une note de communauté et comment cela fonctionne ?

Les notes de communauté sur Twitter (X), un outil novateur de modération participative, visent à lutter contre la désinformation en permettant aux utilisateurs de la plateforme de contribuer à la vérification des faits. Ce système fonctionne grâce à l’engagement collaboratif des membres de Twitter (X), qui peuvent apposer des annotations sur les tweets qu’ils jugent trompeurs ou inexacts. Ces notes sont ensuite visibles par tous, offrant un contexte additionnel qui aide les autres utilisateurs à mieux interpréter les publications.

Le fonctionnement est relativement simple : une fois qu’un tweet est signalé, il est examiné par des contributeurs qui évaluent son exactitude. Si une note est approuvée par suffisamment de vérificateurs, elle est publiée sur le tweet en question, offrant ainsi une forme de validation ou de correction publique. Cette méthode vise non seulement à décourager la diffusion de fausses informations, mais aussi à encourager une culture de la transparence et de la responsabilité parmi les utilisateurs.

L’impact de ces notes se manifeste particulièrement dans les domaines sensibles comme la politique et la publicité. Par exemple, lorsqu’un politicien prétend à tort que les écoles françaises ont historiquement exigé le port de l’uniforme, une note basée sur des sources fiables, telles que des articles de presse vérifiés, peut corriger cette affirmation. De même, dans le cas des conditions d’utilisation d’un réseau social, les notes peuvent clarifier des malentendus courants en s’appuyant sur des documents officiels ou des archives web pour démontrer que certaines pratiques, comme l’utilisation des contenus des utilisateurs, étaient déjà en place bien avant leur mention récente.

Les publicités ne sont pas épargnées par cette vérification ; des notes ciblent souvent des annonces prétendant des bénéfices exagérés ou pratiquant le « dropshipping » sans transparence. Ces interventions permettent de protéger les consommateurs contre des pratiques commerciales douteuses, en exposant la réalité derrière des offres trop alléchantes pour être vraies.

Parfois, le zèle des contributeurs peut mener à ce que certains considèrent comme du « pinaillage » — des corrections de détails minuscules qui, bien que techniquement corrects, peuvent sembler excessifs. Cependant, même ces interventions minimes jouent un rôle dans l’élaboration d’un discours en ligne plus précis et mesuré, reflétant la mission de la plateforme d’encourager une communication honnête et informée.

Des limites à considérer…

Les Notes de la communauté de Twitter (X), bien qu’efficaces dans la lutte contre la désinformation, rencontrent cependant des limites inhérentes à leur popularité et à leur mode de fonctionnement. Prévues pour enrichir le débat public par des corrections et des clarifications, ces notes sont parfois victimes de leur propre succès. En effet, leur usage excessif tend à diluer leur impact, transformant potentiellement un outil de vérification en un moyen de surinformation.

Un autre problème réside dans leur structure même : rédigées et évaluées par les utilisateurs via un système de votes, les Notes de la communauté peuvent être manipulées par des groupes organisés. Ces derniers, agissant de concert, peuvent influencer la visibilité des corrections, en promouvant ou en supprimant des notes selon leurs intérêts, qu’ils soient politiques ou autres. Cette dynamique peut compromettre l’objectivité et la neutralité des informations, permettant à certaines vérités factuelles de se retrouver injustement écartées ou à des narratifs biaisés de prévaloir.

Les notes de la communauté de Twitter (X) sont-elles efficaces ?

Dans une étude récente, des chercheurs de l’Université Paris 1 Panthéon-Sorbonne et de HEC Paris ont examiné l’efficacité des Notes de la communauté de Twitter (X),. L’objectif était de déterminer si ajouter des annotations contextuelles à des tweets potentiellement trompeurs pourrait réduire leur viralité.

L’analyse s’appuie sur une base de données de quelque 285 000 notes collectées via le programme de Notes de la communauté de Twitter (X). Les résultats montrent une réduction notable de la diffusion des tweets annotés. Concrètement, la présence d’une note diminue de presque 50% le nombre de retweets. De plus, les tweets avec notes ont 80% plus de chances d’être supprimés par leurs auteurs, un indicateur que les utilisateurs reconsidèrent peut-être le contenu partagé en présence de contexte supplémentaire.

Cependant, l’étude révèle aussi une limitation majeure : l’efficacité des notes est fortement dépendante de leur rapidité de publication. Avec un délai moyen de 15 heures avant qu’une note ne soit publiée, la plupart des tweets atteignent déjà une large audience avant que l’intervention n’ait lieu, ce qui limite l’impact global du programme.

Face à ces constatations, les chercheurs recommandent une mise en œuvre plus rapide des notes pour améliorer leur efficacité. Ils soulignent que, bien que la modération de contenu pilotée par la communauté montre un potentiel certain, sa capacité à contrer efficacement la propagation de fausses informations est entravée par les retards dans l’application des annotations.

Cette étude vient enrichir le débat sur les stratégies de modération de contenu sur les réseaux sociaux, en démontrant l’importance de la rapidité et de la précision dans les interventions visant à réduire la diffusion de l’information trompeuse. Les résultats encouragent d’autres plateformes à envisager des approches similaires, tout en soulignant la nécessité d’améliorations technologiques et organisationnelles pour maximiser leur impact.

Quel avenir pour ces Notes de la communauté ?

En matière de régulation et d’impact sociétal, les Notes de communauté émergent comme un modèle potentiel pour d’autres plateformes désireuses de responsabiliser leurs utilisateurs dans le combat contre la désinformation. Ce système de modération participative pourrait bien servir de référence pour les législateurs et les organismes de régulation, à l’heure où s’esquissent de nouvelles législations sur la gestion des contenus numériques tels que le Digital Service Act. L’efficacité croissante de cette méthode, sous réserve de certaines améliorations essentielles, la positionne comme un futur standard industriel susceptible d’améliorer la transparence et l’intégrité des informations partagées sur les réseaux sociaux. Malgré les défis présents, l’évolution des Notes Communautaires pourrait marquer un tournant dans les pratiques de modération en ligne, s’inscrivant dans une démarche collective vers des espaces numériques plus fiables et véridiques.

Si Hao Li

Bibliographie et sitographie

https://www.lesechos.fr/tech-medias/hightech/sur-twitter-x-une-montee-de-la-desinformation-depuis-lattaque-du-hamas-1986245

https://www.radiofrance.fr/franceinter/avec-les-notes-de-communaute-twitter-x-marche-sur-les-pas-de-wikipedia-8574656

https://www.francetvinfo.fr/vrai-ou-fake/vrai-ou-faux-les-community-notes-du-reseau-social-x-luttent-elles-efficacement-contre-la-desinformation_6051188.html

https://www.radiofrance.fr/franceinter/podcasts/veille-sanitaire/veille-sanitaire-du-jeudi-31-aout-2023-8788843

https://www.bloomberg.com/graphics/2023-israel-hamas-war-misinformation-twitter-community-notes

https://theconversation.com/les-utilisateurs-de-x-doivent-lutter-seuls-contre-la-desinformation-qui-y-sevit-216779

Casilli, A. A. (2019). En attendant les robots-Enquête sur le travail du clic. Média Diffusion.

Chuai, Y., Tian, H., Pröllochs, N., & Lenzini, G. (2023). The Roll-Out of Community Notes Did Not Reduce Engagement With Misinformation on Twitter. arXiv preprint arXiv:2307.07960.

Renault, T., Amariles, D. R., & Troussel, A. (2024). Collaboratively adding context to social media posts reduces the sharing of false news. arXiv preprint arXiv:2404.02803.

Le chaos informationnel généré par la certification payante sur les réseaux sociaux : étude du cas de X


La prolifération de fausses informations sur les réseaux sociaux est aujourd’hui un problème sociétal et politique majeur. Ceci s’inscrit dans un contexte où les réseaux sociaux se positionnent en tant que principal moyen d’acquisition d’information chez les jeunes. Selon une étude de Médiamétrie datant de 2018, 71 % des individus âgés de 15 à 34 ans déclarent utiliser régulièrement les réseaux sociaux à des fins d’information, surpassant ainsi l’audience des journaux télévisés (49 %), des flashs d’information sur les radios musicales (33 %) et même de la presse quotidienne, incluant sa version en ligne (29 %). 

Cette nouvelle réalité suscite un certain nombre d’inquiétudes largement discutées dans les sphères politiques et médiatiques. L’un des sujets phares concerne le fait que Facebook et X (anciennement Twitter) jouent un rôle central dans la diffusion et la propagation de « fake news », rumeurs et autres formes de désinformation. 

Pourtant, ces géants des médias proposent en majorité un service de vérification de comptes. La vérification, symbolisée par un badge ou une encoche, joue, du moins historiquement, un rôle de confirmation de l’identité du détenteur du compte.

Rapide historique des modèles de certification

Twitter a été le précurseur de la vérification des comptes sur les réseaux sociaux en 2009 après avoir conclu que les suspensions de comptes à posteriori étaient insuffisantes pour faire face aux usurpations d’identité. Au cours des années suivantes, les principales plateformes ont suivi le modèle de Twitter, proposant une vérification de compte avec une terminologie similaire et une iconographie comparable. 

Figure 1 : Historique des programmes de vérification de compte sur les principales plateformes de médias sociaux en janvier 2023 (8.)

La finalité principale de la vérification de compte, point de cohérence au fil du temps et sur différentes plateformes jusqu’aux modifications récentes de X et Meta, a été de remédier à l’usurpation de compte en confirmant l’identité du propriétaire du compte. Cependant, la vérification a rapidement pris une autre signification, notamment en tant que signe de l’importance d’un compte et de la crédibilité de son contenu.

La transition vers un modèle de certification payante

Meta et X, ont récemment entamé une transition majeure dans leurs programmes de certification de compte, évoluant d’un système de confirmation d’identité des utilisateurs à un service premium payant. 

Cette tendance semble principalement motivée par une stratégie visant à accroître les profits et à revitaliser un modèle économique éprouvé. Cependant, ces transformations ne se limitent pas à de simples ajustements de service. Elles entraînent également une refonte significative des modalités d’accès à l’information sur ces plateformes, soulignant ainsi l’impact profond de ces innovations sur la dynamique de partage et de consommation d’informations au sein de ces réseaux sociaux.

Historiquement, Twitter réservait l’attribution des encoches bleues uniquement aux comptes jugés « actifs », « remarquables » et « authentiques ». La démonstration d’authenticité impliquait notamment une preuve d’identité, telle qu’une photo d’un permis de conduire. 

Depuis décembre 2022, X est passé sous un nouveau régime à certification payante, et a assoupli ces critères, notamment en remplaçant « authentique » par « sécurisé » (actif depuis 90 jours, puis encore assoupli à 30 jours, avec un numéro de téléphone confirmé) et « non trompeur ». Il est cohérent de noter que le nouveau processus de vérification pour les coches bleues n’exige ainsi aucune preuve affirmative d’identité. 

La désinformation, enjeu majeur de cette transition ?

Les enjeux liés à ces nouvelles méthodes d’information via les réseaux sociaux se manifestent de manière particulièrement préoccupante chez les jeunes en raison de la nature nouvelle de leur consommation d’information. Un cas interessant concerne les « bulles de filtres », concept popularisé en 2011 par l’essayiste Eli Pariser, qui étend l’idée de la « chambre d’écho » formulée par Sunstein (2001). Cette notion explique un effet inhérent aux médias sociaux et révèle que, par le biais d’algorithmes prédictifs, ces plateformes exposent majoritairement les utilisateurs à des contenus a priori alignés avec leurs préférences et opinions.

En enfermant les internautes dans un univers informationnel qui les isole des citoyens aux opinions divergentes, les réseaux sociaux participent alors à la polarisation et à la fragmentation de l’espace public.

En parallèle, une étude intitulée « Vérification des comptes sur les médias sociaux : Perceptions des utilisateurs et inscription payante », datant de juin 2023 (8), a mis en évidence une méconnaissance des critères de vérification des comptes Twitter. Plus de la moitié des répondants ont démontré une incompréhension sur les critères d’attribution des coches bleues, et plus de 80 % des participants à l’étude a interprété de manière erronée les nouveaux indicateurs de vérification couleur or et gris récemment introduits par X. 

Cette refonte des modalités d’accès à l’information sur les plateformes pose ainsi une question majeure : comment garantir la fiabilité de l’information lorsque le principe même de certification est subvertit, et que cette fonctionnalité ne peut plus être considérée comme un gage de fiabilité ? 

Des conséquences dans le monde réel

L’un des exemples les plus significatifs des risques encourus par la certification payante se manifeste à travers l’exemple du New York Times.  

Seulement quelques heures après avoir déclaré ne pas avoir l’intention de « payer pour maintenir la certification de ses comptes officiels », le prestigieux quotidien américain a vu disparaître le badge bleu du compte du journal, pourtant suivi par une audience de 55 millions d’abonnés. Cet événement a été rapidement suivi d’un tweet du PDG de X, Elon Musk, accusant le média de propagande.

Un internaute possédant déjà un compte vérifié a alors tiré avantage de cette situation en renommant son compte avec le nom du célèbre média américain. Cela a conduit à une situation paradoxale où le véritable compte du New York Times s’est retrouvé non certifié, tandis que le compte frauduleux qui usurpait l’identité du journal conservait sa certification.

D’autres exemples témoignent de conséquences dramatiques de ce nouveau système de certification payante dans le monde réel. Alors que le coût de l’insuline la rend inaccessible à de nombreux citoyen aux États-Unis, un compte vérifié a pris l’identité du géant pharmaceutique Eli Lilly, annonçant faussement que l’entreprise fournirait gratuitement le médicament. En l’espace de quelques heures, le cours des actions d’Eli Lilly a connu une chute de près de 5 %, entraînant des pertes financières évaluées à plusieurs milliards de dollars de capitalisation boursière pour l’entreprise.

Dès lors, comment la certification peut-elle rester synonyme d’authenticité ? L’incapacité à distinguer ceux qui ont payé de ceux qui ne l’ont pas fait pose un défi significatif en terme de crédibilité de l’information, particulièrement au regard du prix extrêmement abordable de ce service, à environ 10 euros par mois.

Les associations tirent la sonnette d’alarme

Le chaos résultant de ces modifications du système de certification soulève des préoccupations sérieuses en matière de droits, qui sont le sujet de divers communiqués d’associations telles que Human Rights Watch ou Reporters sans frontières (RSF). 

Human Rights Watch souligne notamment que les inquiétudes soulevées pointent vers la nécessité de repenser les plateformes sociales en général, tant elles représentent des places publiques numériques et nécessitent une surveillance plus démocratique, y compris des réglementations plus strictes ancrées dans des normes de droits humains. 

« Aucun individu ne devrait détenir le pouvoir que Musk exerce sur une infrastructure d’information aussi cruciale. » Musk chaos raises serious rights concerns over Twitter. – Human Rights Watch (6.)

Reporters sans frontières (RSF) dénonce également cet outil comme dangereux et trompeur, qui instaure un régime à deux vitesses sur l’accès à l’information en ligne et qui ne garantit pas la fiabilité de l’information. RSF appelle donc à retirer cet outil et préconise de mettre en place des règles pour encadrer ces pratiques, en rappelant que les entreprises gérant les réseaux sociaux ont une responsabilité dans le chaos informationnel et que leurs intérêts économiques ne doivent pas passer avant ceux des citoyens. 

Helene Palmer


Bibliographie

  1. Aublanc, M. (2023, 9 avril). Twitter Blue : Comment l’abonnement payant va augmenter le risque de désinformation. www.20minutes.frhttps://www.20minutes.fr/by-the-web/4031545-20230409-twitter-blue-comment-abonnement-payant-va-augmenter-risque-desinformation
  2. Boyadjian, J. (s. d.). Désinformation, non-information ou sur-information ? Cairn.info. https://www.cairn.info/revue-reseaux-2020-4-page-21.htm
  3. Ganesan, A. (2022, 13 novembre). Musk chaos raises serious rights concerns over Twitter. Human Rights Watch. https://www.hrw.org/news/2022/11/12/musk-chaos-raises-serious-rights-concerns-over-twitter
  4. Les jeunes et l’information : Une étude du ministère de la Culture vient éclairer les comportements des jeunes en matière d’accès à l’information. (s. d.). https://www.culture.gouv.fr/Presse/Communiques-de-presse/Les-jeunes-et-l-information-une-etude-du-ministere-de-la-Culture-vient-eclairer-les-comportements-des-jeunes-en-matiere-d-acces-a-l-information
  5. Legacy Verification Policy. (2023, 5 avril). https://help.twitter.com/en/managing-your-account/legacy-verification-policy
  6. Not playing ball. (s. d.). https://blog.twitter.com/official/en_us/a/2009/not-playing-ball.html
  7. RSF réclame la fin des certifications payantes sur les réseaux sociaux et de leur logique censitaire. (s. d.). RSF. https://rsf.org/fr/rsf-r%C3%A9clame-la-fin-des-certifications-payantes-sur-les-r%C3%A9seaux-sociaux-et-de-leur-logique
  8. Xiao, M., Wang, M., Kulshrestha, A., & Mayer, J. (2023, 28 avril). Account verification on social media : user perceptions and paid enrollment. Princeton University. https://arxiv.org/abs/2304.14939
  9. X Verification requirements – How to get the Blue Check. (2023, 2 octobre). https://help.twitter.com/en/managing-your-account/about-twitter-verified-accounts
  10. York, J. (2022a, novembre 16). « Changer les règles du jeu » : les enjeux de la certification payante sur Twitter. France 24. https://www.france24.com/fr/%C3%A9co-tech/20221116-changer-les-r%C3%A8gles-du-jeu-les-enjeux-de-la-certification-payante-sur-twitter
Quitter la version mobile