En octobre 2023, suite à l’attaque du Hamas contre Israël, la Commission européenne, ainsi que l’Arcom, a adressé un avertissement à la plateforme de réseaux sociaux Twitter, désormais connue sous le nom de X. L’intervention des autorités visait à modérer la diffusion de contenu inapproprié lié à cet événement, incluant de nombreuses vidéos, images et informations fallacieuses. La mise en garde de la Commission européenne et de l’Arcom à l’encontre de X, s’inscrit dans une continuité réglementaire. En effet, cette intervention n’était pas la première du genre. Déjà en octobre 2022, peu après le rachat de la plateforme par Elon Musk, l’Arcom avait rappelé à X ses obligations légales concernant la modération des contenus en ligne. Ces rappels successifs soulignent l’attention accrue des autorités régulatrices sur les pratiques de modération des réseaux sociaux, particulièrement dans le contexte de gestion des crises et de la désinformation.
La lutte contre la désinformation s’intensifie, confronté à des obstacles majeurs tels que la prolifération rapide de nouveaux contenus et la difficulté à discerner le vrai du faux. Cet enjeu, qui doit aussi ménager un équilibre délicat entre la liberté d’expression et la nécessité de limiter la propagation de contenus illicites ou préjudiciables, pousse les plateformes à innover dans leurs approches. En réponse à cette complexité croissante, plusieurs d’entre elles ont récemment adopté des stratégies de modération participative, invitant les utilisateurs à jouer un rôle actif en signalant les publications susceptibles de transgresser leurs règles. L’une des méthodes de modération les plus notables est celle mise en œuvre par la plateforme X : les Notes de la communauté. Initialement testée aux États-Unis en 2021, cette approche a été adoptée à grande échelle à l’international suite à l’acquisition de la plateforme par Elon Musk.
Qu’est qu’une note de communauté et comment cela fonctionne ?
Les notes de communauté sur Twitter (X), un outil novateur de modération participative, visent à lutter contre la désinformation en permettant aux utilisateurs de la plateforme de contribuer à la vérification des faits. Ce système fonctionne grâce à l’engagement collaboratif des membres de Twitter (X), qui peuvent apposer des annotations sur les tweets qu’ils jugent trompeurs ou inexacts. Ces notes sont ensuite visibles par tous, offrant un contexte additionnel qui aide les autres utilisateurs à mieux interpréter les publications.
Le fonctionnement est relativement simple : une fois qu’un tweet est signalé, il est examiné par des contributeurs qui évaluent son exactitude. Si une note est approuvée par suffisamment de vérificateurs, elle est publiée sur le tweet en question, offrant ainsi une forme de validation ou de correction publique. Cette méthode vise non seulement à décourager la diffusion de fausses informations, mais aussi à encourager une culture de la transparence et de la responsabilité parmi les utilisateurs.
L’impact de ces notes se manifeste particulièrement dans les domaines sensibles comme la politique et la publicité. Par exemple, lorsqu’un politicien prétend à tort que les écoles françaises ont historiquement exigé le port de l’uniforme, une note basée sur des sources fiables, telles que des articles de presse vérifiés, peut corriger cette affirmation. De même, dans le cas des conditions d’utilisation d’un réseau social, les notes peuvent clarifier des malentendus courants en s’appuyant sur des documents officiels ou des archives web pour démontrer que certaines pratiques, comme l’utilisation des contenus des utilisateurs, étaient déjà en place bien avant leur mention récente.
Les publicités ne sont pas épargnées par cette vérification ; des notes ciblent souvent des annonces prétendant des bénéfices exagérés ou pratiquant le « dropshipping » sans transparence. Ces interventions permettent de protéger les consommateurs contre des pratiques commerciales douteuses, en exposant la réalité derrière des offres trop alléchantes pour être vraies.
Parfois, le zèle des contributeurs peut mener à ce que certains considèrent comme du « pinaillage » — des corrections de détails minuscules qui, bien que techniquement corrects, peuvent sembler excessifs. Cependant, même ces interventions minimes jouent un rôle dans l’élaboration d’un discours en ligne plus précis et mesuré, reflétant la mission de la plateforme d’encourager une communication honnête et informée.
Des limites à considérer…
Les Notes de la communauté de Twitter (X), bien qu’efficaces dans la lutte contre la désinformation, rencontrent cependant des limites inhérentes à leur popularité et à leur mode de fonctionnement. Prévues pour enrichir le débat public par des corrections et des clarifications, ces notes sont parfois victimes de leur propre succès. En effet, leur usage excessif tend à diluer leur impact, transformant potentiellement un outil de vérification en un moyen de surinformation.
Un autre problème réside dans leur structure même : rédigées et évaluées par les utilisateurs via un système de votes, les Notes de la communauté peuvent être manipulées par des groupes organisés. Ces derniers, agissant de concert, peuvent influencer la visibilité des corrections, en promouvant ou en supprimant des notes selon leurs intérêts, qu’ils soient politiques ou autres. Cette dynamique peut compromettre l’objectivité et la neutralité des informations, permettant à certaines vérités factuelles de se retrouver injustement écartées ou à des narratifs biaisés de prévaloir.
Les notes de la communauté de Twitter (X) sont-elles efficaces ?
Dans une étude récente, des chercheurs de l’Université Paris 1 Panthéon-Sorbonne et de HEC Paris ont examiné l’efficacité des Notes de la communauté de Twitter (X),. L’objectif était de déterminer si ajouter des annotations contextuelles à des tweets potentiellement trompeurs pourrait réduire leur viralité.
L’analyse s’appuie sur une base de données de quelque 285 000 notes collectées via le programme de Notes de la communauté de Twitter (X). Les résultats montrent une réduction notable de la diffusion des tweets annotés. Concrètement, la présence d’une note diminue de presque 50% le nombre de retweets. De plus, les tweets avec notes ont 80% plus de chances d’être supprimés par leurs auteurs, un indicateur que les utilisateurs reconsidèrent peut-être le contenu partagé en présence de contexte supplémentaire.
Cependant, l’étude révèle aussi une limitation majeure : l’efficacité des notes est fortement dépendante de leur rapidité de publication. Avec un délai moyen de 15 heures avant qu’une note ne soit publiée, la plupart des tweets atteignent déjà une large audience avant que l’intervention n’ait lieu, ce qui limite l’impact global du programme.
Face à ces constatations, les chercheurs recommandent une mise en œuvre plus rapide des notes pour améliorer leur efficacité. Ils soulignent que, bien que la modération de contenu pilotée par la communauté montre un potentiel certain, sa capacité à contrer efficacement la propagation de fausses informations est entravée par les retards dans l’application des annotations.
Cette étude vient enrichir le débat sur les stratégies de modération de contenu sur les réseaux sociaux, en démontrant l’importance de la rapidité et de la précision dans les interventions visant à réduire la diffusion de l’information trompeuse. Les résultats encouragent d’autres plateformes à envisager des approches similaires, tout en soulignant la nécessité d’améliorations technologiques et organisationnelles pour maximiser leur impact.
Quel avenir pour ces Notes de la communauté ?
En matière de régulation et d’impact sociétal, les Notes de communauté émergent comme un modèle potentiel pour d’autres plateformes désireuses de responsabiliser leurs utilisateurs dans le combat contre la désinformation. Ce système de modération participative pourrait bien servir de référence pour les législateurs et les organismes de régulation, à l’heure où s’esquissent de nouvelles législations sur la gestion des contenus numériques tels que le Digital Service Act. L’efficacité croissante de cette méthode, sous réserve de certaines améliorations essentielles, la positionne comme un futur standard industriel susceptible d’améliorer la transparence et l’intégrité des informations partagées sur les réseaux sociaux. Malgré les défis présents, l’évolution des Notes Communautaires pourrait marquer un tournant dans les pratiques de modération en ligne, s’inscrivant dans une démarche collective vers des espaces numériques plus fiables et véridiques.
Si Hao Li
Bibliographie et sitographie
https://www.bloomberg.com/graphics/2023-israel-hamas-war-misinformation-twitter-community-notes
Casilli, A. A. (2019). En attendant les robots-Enquête sur le travail du clic. Média Diffusion.
Chuai, Y., Tian, H., Pröllochs, N., & Lenzini, G. (2023). The Roll-Out of Community Notes Did Not Reduce Engagement With Misinformation on Twitter. arXiv preprint arXiv:2307.07960.
Renault, T., Amariles, D. R., & Troussel, A. (2024). Collaboratively adding context to social media posts reduces the sharing of false news. arXiv preprint arXiv:2404.02803.