Et si Twitter slashait la désinformation ?

Selon le Baromètre de la confiance politique, publié en février 2025 par Sciences Po et OpinionWay, 45 % des Français se disent méfiants à l’égard de leur état d’esprit politique actuel (source). Un chiffre préoccupant, d’autant plus que la confiance reste un pilier fondamental de nos sociétés modernes : elle est au cœur du fonctionnement de la monnaie, de la justice, ou encore des institutions démocratiques.

Cette crise de confiance s’exprime aussi fortement sur les réseaux sociaux. L’exemple le plus frappant est sans doute le rachat de Twitter par Elon Musk, qui a entraîné de profonds bouleversements dans le fonctionnement de la plateforme. La décision la plus controversée a été celle de mettre fin à la régulation telle qu’elle existait auparavant, ouvrant ainsi la voie à un nouveau modèle de gouvernance des contenus.

Ce changement de paradigme n’est pas resté isolé. Il a inspiré d’autres géants du numérique, comme Meta (maison mère de Facebook, Instagram, etc.), à repenser leurs propres mécanismes de modération. C’est dans ce contexte qu’est née l’initiative des Community Notes, une tentative de régulation participative visant à évaluer les publications entre utilisateurs, à la manière d’un jugement collectif.

1. Le fonctionnement de l’algorithme des Community Notes de X

Le système des Community Notes, développé par la plateforme X (anciennement Twitter), constitue une innovation majeure dans le domaine de la modération communautaire. Son objectif est de faire émerger des annotations jugées utiles par des utilisateurs aux opinions diverses, afin d’apporter du contexte aux publications susceptibles de prêter à confusion (source). Ce modèle repose sur une combinaison d’évaluations humaines et d’algorithmes inspirés des systèmes de recommandation, notamment la matrix factorization.

Un algorithme fondé sur l’utilité perçue

Chaque note rédigée par un contributeur est soumise à l’évaluation d’autres participants, qui peuvent la juger « utile », « quelque peu utile » ou « inutile », correspondant respectivement à des scores numériques de 1.0, 0.5 et 0.0. Ces évaluations alimentent une matrice d’interactions, que l’algorithme utilise pour prédire la pertinence des notes selon les profils des évaluateurs.

L’équation principale du modèle est la suivante :

un = μ + iu + in + fu ⋅ fn

où :

  • un est la note prédite entre l’utilisateur u et la note n,
  • μ est une constante globale,
  • iu et in sont les biais de l’utilisateur et de la note,
  • fu et fn sont leurs vecteurs de facteurs latents.

C’est la valeur in — appelée intercepte de la note — qui détermine son utilité perçue globalement. Une note est classée :

  • Helpful (utile) si in > 0.40
  • Not Helpful (inutile) si in < -0.05 - 0.8 × |fn|
  • Needs More Ratings si aucun critère n’est rempli

Une validation inter-perspectives

Pour qu’une note soit validée comme Helpful, elle doit être jugée utile par au moins cinq utilisateurs de perspectives opposées (selon leurs facteurs latents). Cette contrainte garantit une forme de validation croisée entre points de vue divergents, réduisant ainsi les effets de chambre d’écho ou de manipulation de groupe.

Fiabilité des contributeurs

Les utilisateurs ne participent pas tous avec le même poids : leurs contributions sont pondérées par des scores de fiabilité, répartis en deux catégories.

Score d’auteur

Ce score est basé sur :

  • Un ratio pondéré entre le pourcentage de notes devenues Helpful et Not Helpful :
Score = P(Helpful) - 5 × P(Not Helpful)
  • Une moyenne des scores in des notes précédentes.
    Pour être éligible, un auteur doit avoir un score supérieur à 0 et une moyenne in > 0.05.

Score d’évaluateur

Ce score évalue la capacité d’un utilisateur à prédire correctement le verdict final d’une note. Il est défini ainsi :

Rater Helpfulness = (s - 10 × h) / t
  • s : nombre de votes conformes au statut final
  • h : nombre de votes « Helpful » attribués à des notes abusives
  • t : total des votes valides

Un évaluateur doit avoir un score ≥ 0.66 pour que ses votes soient pris en compte dans le scoring final.

Mécanismes anti-manipulation

Le système prévoit également des protections contre les abus :

  • Si une note reçoit de nombreux signalements négatifs émanant d’un groupe idéologiquement homogène, elle devra franchir un seuil plus élevé pour être validée.
  • Un modèle externe détecte les cas de harcèlement ou d’abus. Les auteurs soutenant une note jugée abusive peuvent être pénalisés.
  • Un mécanisme de stabilisation fige le statut d’une note deux semaines après sa publication, pour éviter les fluctuations liées à de nouvelles évaluations marginales.

Ce système hybride et algorithmique incarne une nouvelle approche de la modération : à la fois participative, scientifique et transparente, il cherche à équilibrer pluralité d’opinions, qualité de l’information, et lutte contre la désinformation à grande échelle.

2. La blockchain comme alternative trustless : le cas du Proof of Stake

Comme nous l’avons vu dans la partie précédente, le système des Community Notes, bien qu’élaboré et transparent dans ses objectifs, reste fondamentalement fermé. Toute la logique de validation tourne autour de son propre algorithme, de sa communauté restreinte de contributeurs, et d’un score calculé à partir de modèles internes. Or, en parcourant le code source du projet, il semble clair qu’il n’existe aucun lien direct entre les notes et les conséquences concrètes sur la plateforme (visibilité réduite d’un tweet, modération automatique, etc.). Le système reste donc circulaire, sans articulation forte avec le reste de l’infrastructure sociale de X.

Pour compenser cette absence de lien « réel » avec le monde extérieur, un mécanisme algorithmique complexe a été mis en place pour tenter de simuler une forme de vérité collective — mais comme toute simulation, il présente des limites, et des échecs sont possibles (biais structurels, effets de groupe, manipulation douce…).

Face à ce dilemme — où placer la confiance ? et surtout, est-elle réellement nécessaire ? — un autre modèle, radicalement différent, a vu le jour : la blockchain, et plus précisément ses systèmes de consensus trustless, qui permettent à des millions d’individus anonymes d’interagir sans jamais avoir à se faire confiance.

Le consensus sans confiance : une logique inversée

Contrairement à Community Notes, qui repose sur la réputation, les évaluations croisées et des scores de fiabilité, les blockchains publiques s’appuient sur un système anti-confiance (source). Autrement dit, elles partent du principe que personne n’est fiable par défaut, et que la sécurité du système doit émerger malgré cela. C’est l’essence même d’un système trustless.

Parmi les mécanismes de consensus utilisés en blockchain, les deux plus connus sont : le Proof of Work (PoW) et le Proof of Stake (PoS). Concentrerons sur le PoS, un modèle particulièrement intéressant pour penser la validation collective dans un contexte décentralisé. Dans un réseau en Proof of Stake, ce ne sont plus des machines qui « minent », mais des individus (ou nœuds) qui mettent en jeu leurs jetons (crypto-monnaies) pour participer à la validation des blocs de données. Ainsi, les garanties de sécurité ne viennent pas de la confiance dans l’individu, mais du fait que triche est sanctionnée et que le système est distribué. C’est donc un mécanisme d’incitation inverse : on ne présume pas la bonne foi des participants, on rend la triche coûteuse.

Une leçon pour les systèmes sociaux ?

La comparaison avec Community Notes soulève une question de fond : pourquoi essayons-nous encore de reconstruire des modèles centralisés (avec scores, réputation, vérification croisée, etc.) alors que des architectures décentralisées et anti-confiance ont prouvé leur efficacité à très grande échelle ?

3. Et si on réinventait la modération sociale avec le slashing ?

Finalement, face à la montée de la post-vérité, il devient crucial de sortir des systèmes uniquement basés sur la correction « après coup », sans conséquences réelles pour les auteurs des contenus trompeurs. Aujourd’hui, lorsqu’un tweet est annoté par une Community Note, il reste visible, partageable, et son auteur n’est que très rarement inquiété, même lorsque la publication a eu un large impact. Or, dans d’autres systèmes — comme la blockchain — on ne se contente pas de signaler une erreur : on la sanctionne économiquement. C’est tout l’intérêt du mécanisme de slashing dans les protocoles Proof of Stake : lorsqu’un acteur agit contre l’intérêt du réseau, une partie de sa mise est supprimée. C’est une manière directe de faire payer la triche, sans avoir besoin de faire confiance à un modérateur humain. Un modèle de slashing social : punir les comptes et redistribuer la valeur.

Ce mécanisme pourrait prendre plusieurs formes. Imaginons un système où, lorsqu’un tweet est jugé problématique par la communauté (via une Community Note validée), plusieurs conséquences automatiques sont déclenchées :

  • Shadow ban progressif : si un compte accumule des publications corrigées par la communauté, sa visibilité peut être réduite automatiquement, jusqu’à une suspension partielle de ses fonctions (commentaires, posts, etc.). Cela introduit un vrai risque réputationnel et algorithmique, comme pour un validateur blockchain fautif.
  • Slashing économique : si le tweet était monétisé (revenus publicitaires, vues sponsorisées, etc.), alors sa rémunération serait retenue ou annulée, et redistribuée aux contributeurs de la Community Note qui a permis de rétablir la vérité. Ainsi, la valeur générée par un contenu faux ou trompeur serait reversée à ceux qui ont rétabli le contexte, créant une incitation forte à participer à la correction collective.

De la viralité à la responsabilité, ce modèle inverserait la logique actuelle : aujourd’hui, la viralité précède la vérité, et la correction arrive souvent trop tard. En intégrant un système de sanctions et de redistribution, la plateforme introduirait une économie de la vérification, où chaque publication engage l’auteur de manière plus directe. En reprenant les principes du slashing, mais appliqués au champ social et informationnel, on ouvrirait la voie à une modération post-virale, dissuasive et redistributive. Non pas pour censurer, mais pour rendre coûteuse la désinformation, et rentable la contribution à une information collective plus saine.

Amaury Denny

Sources

Russie/Ukraine : quand la guerre devient virtuelle

Désinformer. Semer le doute. Décontextualiser. Emouvoir. Propager la haine.

Telles sont les actions rendues possibles par l’intermédiaire des réseaux sociaux dans le cadre de l’invasion agressive menée par la Russie en Ukraine. Cette guerre ne se limite pas aux champs de bataille, mais se caractérise essentiellement par la manière dont elle est propagée et partagée en ligne.

@Source : BFM TV.

Les conflits armés précédents ont également connu l’implication des médias sociaux, mais l’invasion massive de l’Ukraine par la Russie démontre quotidiennement comment les plateformes en ligne altèrent la manière dont la guerre est rapportée, vécue et comprise. Cela est en grande partie dû à la couverture Internet en constante augmentation et à l’utilisation croissante des réseaux sociaux, avec 79% des Ukrainiens utilisant Internet contre 88% des Russes selon les chiffres de Datareportal de 2023. À titre de comparaison, lorsque la Russie a envahi l’Ukraine en 2014, seulement 4 % des abonnés ukrainiens à la téléphonie mobile avaient accès à des réseaux 3G ou plus rapides, et pendant la guerre en Syrie en 2015, seuls 30 % de la population syrienne étaient en ligne (OECD, 2022). Cette dynamique a également mis en évidence l’ampleur de la menace de la désinformation, qui a toujours été utilisée comme une arme mais dont la portée et la pénétration potentielle ont été multipliées à l’aide des réseaux sociaux.

Un terrain de jeu étendu sur plusieurs canaux

Les réseaux sociaux servent d’outils de propagande via les contenus partagés sur les différentes plateformes et les interactions entre les nombreux utilisateurs. Des conversations sur Whatsapp et Telegram, des vidéos relayées sur Twitter, TikTok ou Instagram ou encore des posts sur VKontakte, le ‘Facebook local’ : tous les canaux de diffusion sont mobilisés, qu’il s’agisse des médias traditionnels, des réseaux sociaux, des sites web d’information, des blogs ou encore des messageries instantanées, dans le but de propager des discours, des images ou des vidéos destinés à influencer l’opinion publique ou à désinformer les citoyens.  

Bien que VKontakte soit la solution de réseau social préférée en Russie (comptant 73% de la part des utilisateurs russes), Instagram – appartenant à la même entreprise mère Meta – reste en tête, utilisé par environ 59% des utilisateurs de réseaux sociaux dans ce pays, soit près de 80 millions de personnes selon une estimation de FranceInfo, se basant sur les données de Statista.

Malgré cela, la Russie a récemment décidé de bloquer Instagram pour protester contre Meta. Ces sanctions à l’encontre du géant américain des réseaux sociaux font suite à la décision de Meta d’autoriser la publication de messages incitant à la violence à l’encontre des dirigeants et du personnel militaire russes dans certains pays, et cela uniquement dans le contexte de la guerre en Ukraine. Dans cette guerre de communication, Meta est devenue « la figure de l’Occident », perçue comme une menace par les autorités russes. Les utilisateurs russes doivent désormais se tourner vers les autres réseaux sociaux ou utiliser un réseau privé virtuel (VPN) pour contourner la censure imposée par les autorités. L’interdiction d’Instagram a d’ailleurs entraîné une hausse de la demande de VPN de plus de 2 000 %, selon TOP10VPN, une société de surveillance numérique. Cela confirme l’importance cruciale des réseaux sociaux dans cette guerre de désinformation où tous les canaux de diffusion sont utilisés pour influencer l’opinion publique.

@Photographie : Chesnot/Getty

« C’est gagné quand le doute est installé »

Les récits de désinformation russes reposent fréquemment sur des demi-vérités et des « whataboutisms » – tentatives de répondre à un problème en le comparant à un autre problème qui n’a rien à voir avec le problème initial-, ou sont simplement faux, obscurcissant ainsi les faits. Ainsi, les acteurs russes utilisent une approche diversifiée pour introduire, amplifier et diffuser des récits faux et déformés à travers le monde. Ils se basent notamment sur une combinaison de faux comptes et de comptes artificiels, de sites web anonymes et de sources médiatiques officielles de l’État pour diffuser et amplifier du contenu qui sert leurs intérêts et décrédibilise les récits concurrents.

« Si la désinformation est une arme de guerre indéniable, les stratégies mises en place, et les raisons de leur utilisation diffèrent âprement dans ce conflit : l’un l’utilise pour justifier l’invasion d’un état souverain, l’autre pour tenter justement de préserver cette souveraineté. »

Arnaud Mercier, professeur en sciences de l’information et de la communication (novembre 2022)

Le nombre d’exemples illustrant la désinformation dans ce champ de batail virtuel est indénombrable et ne cesse d’accroître, voici ci-dessous un rappel des plus marquants:

  • Attaque de Marioupol : la discréditation d’une bloggeuse ukrainienne  
@Source : AP. Cette influenceuse beauté a été accusée de mentir après la publication de cette photo.

En mars dernier, un hôpital pour enfants a été la cible d’un bombardement à Marioupol en Ukraine. La Russie a remis en cause la véracité de ces faits et a accusé cette influenceuse ukrainienne d’avoir joué le rôle d’une femme enceinte lors de cette attaque. Le porte-parole du ministère russe de la Défense a même défendu cette affirmation absurde en justifiant que Marianna Podgourskaïa est une bloggeuse Instagram. En plus de la non-validité de l’argument, cette accusation a été rapidement démentie après qu’une de ses publications antérieures prouve qu’elle était bien enceinte à ce moment. Cet exemple illustre la stratégie russe visant à discréditer les informations ukrainiennes en semant le doute dans l’esprit du public, rendant ainsi difficile la distinction entre la vérité et le mensonge.

@Marianna a posté cette photo sur Instagram fin février, demandant à ses followers de deviner si son bébé serait un garçon ou une fille. Source : Instagram.
  • Avions de combats russes dans le ciel ukrainien

La décontextualisation ne vient pas toujours du camp russe, bien que cette technique reste majoritairement utilisée par les pro-russes.

https://twitter.com/pok4439/status/1496729760340520962?s=49&t=ImOdUOxXv3fUoW4gYBrthA

Une publication, qui a été vue plusieurs milliers de fois, prétendait montrer des avions russes survolant l’Ukraine après l’annonce de l’intervention militaire de Vladimir Poutine dans le pays en 2022. Il est important de noter que cette vidéo partagée ne concernait pas la situation actuelle en Ukraine. En réalité, il s’agit d’un extrait d’une vidéo plus longue qui avait été diffusée en 2020 et montrant la répétition de la parade militaire du « jour de la victoire », célébré chaque 9 mai en Russie pour commémorer la victoire sur l’Allemagne nazie et la fin de la Seconde Guerre mondiale. Cette diffusion de fausses informations s’inscrit dans la stratégie russe visant à semer la confusion dans l’opinion publique en décrédibilisant les informations provenant de l’Ukraine.

Susciter l’émotion, parfois avec l’humour

L’utilisation des réseaux sociaux ne se cantonne pas à la propagation de doutes pour discréditer le partie adverse. En effet, les médias sociaux ont évolué pour devenir bien plus qu’un simple canal d’information : ils sont devenus des canaux de mobilisation et d’émotion, notamment en rendant la guerre plus « attrayante ».

De la danse des soldats ukrainiens sur les lignes de front aux visites imperturbables des abris antiatomiques par des citoyens ordinaires, la « première guerre TikTok du monde » a généré un flux constant de reportages d’actualité en direct depuis les zones de combat. Le président ukrainien Volodymyr Zelensky n’est pas le seul à utiliser TikTok comme canal de diffusion, de nombreux citoyens utilisent le réseau social quotidiennement pour informer, parfois de manière humoristique, sur la réalité du combat et de la vie sous les bombardements.

@valerisssh

Thanks for supporting ukrainian refugees!

♬ Zou Bisou Bisou – Gillian Hills

Ces vidéos permettent de rendre compte de la réalité vécue par les populations en Ukraine en éliminant les barrières géographiques. Elles ont aussi la particularité de toucher un public plus jeune qui n’aurait peut-être pas été informé de la guerre par d’autres canaux de communication.

« Si c’était une guerre de mèmes, nous serions en train de gagner. »

Cette citation provient d’une source qui s’occupe du compte du ministère ukrainien de la défense, qui a souhaitée rester anonyme. Elle conclue bien sur la situation actuelle de cette guerre hybride se jouant sur le terrain virtuel de la désinformation.

Valentine CAZIN

Références :

  • BBC News. (2022, October 4). Ukraine crisis: Social media users struggle to separate fact from fiction. BBC News. https://www.bbc.com/news/world-europe-63272202
  • BBC News. (2022, October 3). Ukraine war: Russian officials claim government offensive imminent. https://www.bbc.com/news/world-europe-63272202.amp
  • CNET France. (2022, July 22). VPN : le ban d’Instagram en Russie fait encore bondir leur popularité. CNET France. https://www.cnetfrance.fr/news/vpn-le-ban-d-instagram-en-russie-fait-encore-bondir-leur-popularite-39939067.htm
  • Datareportal. (2023). Digital 2023 Ukraine. https://datareportal.com/reports/digital-2023-ukraine
  • Datareportal. (2023). Digital 2023 Russian Federation. https://datareportal.com/reports/digital-2023-russian-federation
  • France Info. (2022, April 28). Vrai ou Fake : la femme enceinte évacuée sur brancard à Marioupol est-elle une actrice ? France Info. https://www.francetvinfo.fr/monde/europe/manifestations-en-ukraine/vrai-ou-fake-la-femme-enceinte-evacuee-sur-brancard-a-marioupol-est-elle-une-actrice_5014961.html
  • France Info. (2022, February 22). Guerre en Ukraine : un an de propagande et de désinformation. France Info. https://www.francetvinfo.fr/monde/europe/manifestations-en-ukraine/video-guerre-en-ukraine-un-an-de-propagande-et-de-desinformation_5677757.html
  • L’ADN. (2022, March 11). Ukraine : TikTok, la première guerre « attractive » du monde. L’ADN. https://www.ladn.eu/actualite/ukraine-reseau-sociaux-tiktok-tactique-guerre-attractive/
  • NPR. (2023, February 28). How Russia Is Losing (And Winning) The Information War In Ukraine. NPR. https://www.npr.org/2023/02/28/1159712623/how-russia-is-losing-and-winning-the-information-war-in-ukraine
  • OECD. (2022, March 15). Disinformation and Russia’s war of aggression against Ukraine. OECD Ukraine Hub. https://www.oecd.org/ukraine-hub/policy-responses/disinformation-and-russia-s-war-of-aggression-against-ukraine-37186bde/
  • Polytechnique Insights. (2022, March 10). Ukraine : une guerre hybride sur le terrain de la désinformation. Polytechnique Insights. https://www.polytechnique-insights.com/tribunes/geopolitique/ukraine-une-guerre-hybride-sur-le-terrain-de-la-desinformation/
  • Statista. (2022, February). Réseaux sociaux les plus utilisés par les Russes en 2021. Statista Infographies. https://fr.statista.com/infographie/26982/reseaux-sociaux-les-plus-utilises-par-les-russes/#:~:text=Les%20r%C3%A9seaux%20sociaux%20du%20groupe,pour%20les%20deux%20derniers%20cit%C3%A9s.
  • TV5MONDE. (2022, March 23). Conflit en Ukraine : les réseaux sociaux influencent-ils la guerre ? TV5MONDE. https://information.tv5monde.com/info/conflit-en-ukraine-les-reseaux-sociaux-influencent-ils-la-guerre-452619
  • Zolan, A. (2023, February 28). How Russia Is Losing (And Winning) The Information War In Ukraine. NPR. https://www.npr.org/2023/02/28/1159712623/how-russia-is-losing-and-winning-the-information-war-in-ukraine

Assaut du Capitole : entre désinformation et incitations à la violence

Quelles responsabilités pour Facebook et Twitter ?

Le 6 janvier 2021, des partisans de Donald Trump envahissent le Capitole, là où siège le Congrès américain. Une seule idée en tête : empêcher la certification de la victoire de Joe Biden à la présidentielle américaine de 2020. 
Retour sur le rôle joué par ces réseaux sociaux lors de cet évènement majeur de l’histoire américaine.

Une préparation pré-élection présidentielle 2020 afin d’éviter le scandale de 2016

Photo de little plant sur Unsplash

Dans le contexte des élections présidentielles américaines de novembre 2020, il était inconcevable pour Facebook de revivre un scandale de la même ampleur que celui de 2016. En 4 ans, la plateforme a œuvré à la mise en place de mesures concrètes ayant pour but de protéger l’intégrité de la nouvelle élection, limiter la diffusion de fausses informations et lutter contre l’incitation à la haine et à la violence.

Mark Zuckerberg avait affirmé en octobre 2020 que le règlement de la plateforme empêcherait tout candidat de «déclaré victoire prématurément» et de «délégitimer les résultats de l’élection». Afin de limiter la désinformation, Facebook a implémenté la «War Room». Cette cellule de vérification analyse en temps réel les abus signalés sur les élections. Dani Lever, responsable des affaires publiques de Meta a affirmé que Facebook avait mis en pause ses campagnes publicitaires politiques et supprimé le groupe StopTheSteal début novembre 2020.  Le groupe qui comptait 360 000 utilisateurs parmi ses rangs, mettait en doute la légitimité de l’élection en diffusant la théorie du «Big Lie».

Pour Twitter, c’est seulement 2 mois après l’attaque que l’ex CEO Jack Dorsey affirma que la plateforme avait effectivement joué un rôle dans la diffusion de fausse informations et dans l’organisation de cette attaque. Twitter avait misé sur des pratiques de marquage de tweets et de déréférencement. 

Lorsqu’un tweet contenait des informations trompeuses au sujet de l’élection, il était étiqueté d’un avertissement. Une autre mesure plus radicale a été mis en place d’octobre 2020 jusqu’à l’élection. Si certains messages de personnalités politiques et/ou influentes contenaient des propos non vérifiés et trompeurs, une bannière contenant un avertissement sur le contenu empêchait de lire le tweet. Les tweets ciblés étaient privés d’interactions (retweet, like, commentaire). En amont de l’élection, Twitter avait décidé début 2020 d’instaurer des messages de fact checking à la fin des tweets contenant du contenu trompeur.

@realDonaldTrump sur Twitter

Des baisses de vigilance sous l’impulsion de la liberté d’expression 

Après l’annonce des résultats, Facebook était soulagé. L’opération s’était déroulée sans encombre. Certaines mesures, temporaires, ont donc été retirées.
Facebook a décidé de démanteler la cellule Civic Integrity Team composée d’experts qui détectaient et combattaient la désinformation et les discours haineux. Ces changements ont commencé à inquiéter plusieurs employés du réseau social. A partir de la fin des élections, certains employés ont remarqué que le nombre de signalements pour des messages contenant de fausses informations augmentaient fortement. 
Des documents internes, révélés par la lanceuse d’alerte Frances Haugen, ont soulignés les manquements de Facebook en termes de lutte contre la désinformation et d’incitation à la violence ayant joué un rôle dans l’attaque du Capitole.
Des pistes d’amélioration du règlement ont été proposées pour contrer la désinformation mais déclinées par la hiérarchie. L’une des raisons avancées par la direction est que cela ne ferait qu’augmenter le nombre de signalements erronés et diminuerait l’engagement sur la plateforme. Comme précisé par Haugen lors de son témoignage au Sénat, Facebook semble vouloir faire passer son « profit avant la sécurité » et « avant la population ».

Image par El Sun de Pixabay

La suppression du groupe StopTheSteal n’a non plus été d’une grande efficacité. Cela donna un boost de popularité aux groupes moins importants contenant des propos #StoptheSteal. Les membres du groupe d’origine se sont juste dispatchés. StopTheSteal était bien plus qu’un groupe Facebook et la plateforme n’a pas vraiment œuvré à contrôler et signaler ces groupes complotistes. 

Sur Facebook, les algorithmes jouent un rôle majeur dans la diffusion de ces fausses informations. Dans les documents révélés, il a été confirmé qu’il n’a fallu que 2 jours pour qu’un utilisateur, suivant quelques personnalités/médias conservateurs, ait des recommandations conspirationnistes et 1 semaine pour que des contenus du groupe QAnon lui soient recommandés.

L’une des révélations majeure des Facebook Files était la mise en place d’une politique de fact-checking XCheck permettant de limiter les faux signalements de comptes. Certaines personnalités politiques et comptes les plus suivis bénéficiaient d’une vérification des signalement à part. Cependant, certaines de ces personnalités soumises à ce système se retrouvaient «whitelisted» et exemptées du règlement de Facebook : «Contrairement au reste de notre communauté, ces personnes peuvent enfreindre nos normes sans aucunes conséquences».

De son côté, Twitter a aussi failli. 
Il n’a pas su prendre en considération les avertissements de ses employés sur les risques de la mauvaise gestion de la désinformation et des incitations à la violence sur la plateforme après les élections de 2020. Malgré les efforts et les signalements reportés par Twitter Safety Policy team, en charge de la rédaction du règlement de la plateforme, aucune mesure supplémentaire n’a été prise. Les dirigeants semblaient plus inquiets de déclencher la colère des supporters du président sortant plutôt que de préserver le discours électoral (Draft Comittee Report, The Washington Post, 2023).

Un règlement proposé par la Twitter Safety Policy team visant les messages qui incitaient indirectement à la violence («coded incitement to violence» CIV) n’a pas été retenu par les dirigeants, considérant que les messages visés pouvaient être interprétés dans un autre contexte. Le supposé règlement portait notamment sur ce message: «stand back and stand by». Il avait été utilisé par le président Trump pour s’adresser plus tôt dans l’année au groupe d’extrême droite Proud Boys connu pour ses idées fortes et ses comportements violents. Peu de temps après, cette expression était devenu le cri de ralliement de groupes de supporters Trump sur Twitter.

Twitter a pris l’initiative d’écouter les signalements déposés par des organisations comme Fair Fights luttant pour des élections justes aux États-Unis. Ces tweets, directement liés à l’incitation à la violence au nom d’une élection truquée, ont reçu des avertissements mais n’ont cependant pas été retirés. Pour Twitter, ces messages restaient dans le cadre de la liberté d’expression et n’avaient en aucun cas dépassé les limites du règlement.
Twitter montre ici des signes de relâchement quant à la gestion des messages haineux et de la désinformation.

Un rapport de la MDPI révéla qu’afin d’éviter les signalements, des hashtags contenants des fautes étaient utilisés massivement. Des tweets relatifs aux suspicions de corruption des Biden utilisaient majoritairement le #bidencrimefamiily plutôt que #bidencrimefamily. Cela devait déjouer les mesures mises en place par le règlement de la plateforme tout en ralliant les supporters autour de théories conspirationnistes.

@realDonaldTrump sur Twitter

Le 19 décembre 2020, Trump écrivait : «Big protest un D.C. on January 6th». Par la suite, le nombre de tweets utilisant les CIV «locked and loaded» et «civil war» ont augmenté de manière exponentielle.

Selon un ancien employé de la plateforme, il a fallu attendre l’attaque du 6 janvier 2021 pour que Twitter demande à la Safety Policy team de mettre en place en urgence la CIV Policy. Cependant, toujours incomplète dû à son blocage quelques mois plus tôt, son application était imparfaite.

Au Capitol, les attaquants documentaient leur avancée sur Twitter, obligeant les responsables de la modération à supprimer/bannir en direct les contenus et hashtags problématiques. D’autres hashtags, remontés dans les tendances, ont dû être déréférencé comme #CivilWar.

Une prise de conscience sur l’importance de la désinformation et de l’incitation à la haine ?

Donald J.Trump sur Facebook

Dani Lever confirme la suppression des contenus ayant comme la mention StoptheSteal dès l’instant de l’attaque ainsi que la suspension du compte de Donald Trump pendant 24 heures. Comme l’a annoncé Facebook, cela fut étendu à 2 semaines puis à une durée indéterminée. 

C’est finalement il y a un peu plus d’un mois, le 17 mars 2023, que l’ancien président fait son retour avec une vidéo et 3 mots : I’M BACK !


Facebook s’est engagé à renforcer l’obligation des administrateurs de groupes de vérifier les messages postés, à désactiver les interactions sur les posts provenant de groupes avec des taux élevés de discours haineux/violents et à déréférencer les contenus qui enfreindraient les règlements.

Après l’attaque, Twitter a suspendu le compte @realDonaldTrump (une première fois pendant 12 heures puis de manière permanente). Fin 2022, après l’arrivée d’Elon Musk à la tête de Twitter, son compte a été à nouveau débloqué. Plus de 70000 comptes ont été bloqués, des mesures ont été ajoutées à la Civic Integrity Policy, les comptes affiliés aux contenus conspirationnistes ont été déréférencés et certains sujets ne pourront plus apparaître dans les tendances.

Bien que les attaquants présents au Capitol ainsi que Donald Trump sont responsables de leurs actions, il est clair que les réseaux sociaux ont joué un rôle majeur dans la préparation en amont de cet évènement. Même si le January 6th Comittee a décidé de s’attarder sur la responsabilité de Trump, cette affaire aura été l’opportunité pour ces grands réseaux sociaux d’être mis face aux conséquences de leurs décisions.

Margot Brenier


Bibliographie :

Timberg, C., Dwoskin, E., & Albergotti, R. (2021, 22 octobre). Inside Facebook, Jan. 6 violence fueled anger, regret over missed warning signs. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2021/10/22/jan-6-capitol-riot-facebook/

Zakrzewski, C., Lima, C., & Harwell, D. (2023, 17 janvier). What the Jan. 6 probe found out about social media, but didn’t report. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2023/01/17/jan6-committee-report-social-media/

Bond, S. (2021, 23 octobre). How the « Stop the Steal » movement outwitted Facebook ahead of the Jan. 6 insurrection. NPR. [ref. 30 avril 2023] 
https://www.npr.org/2021/10/22/1048543513/facebook-groups-jan-6-insurrection

Bond, S. (2020, 9 octobre). Twitter Expands Warning Labels To Slow Spread of Election Misinformation. NPR. [ref. 30 avril 2023]
https://www.npr.org/2020/10/09/922028482/twitter-expands-warning-labels-to-slow-spread-of-election-misinformation

Reporter, G. S. (2021, 25 octobre). Facebook missed weeks of warning signs over Capitol attack, documents suggest. the Guardian. [ref. 30 avril 2023] https://www.theguardian.com/technology/2021/oct/23/facebook-whistleblower-january-6-capitol-attack

Social Media & the January 6th Attack on the U.S. Capitol. (s. d.). [ref. 30 avril 2023] https://www.washingtonpost.com/documents/5bfed332-d350-47c0-8562-0137a4435c68.pdf?itid=lk_inline_manual_3

Conger, K. (2021, 25 mars). Jack Dorsey says Twitter played a role in U.S. Capitol riot. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2021/03/25/business/jack-dorsey-twitter-capitol-riot.html

Stanley-Becker, I., & Dwoskin, E. (2020, 1 novembre). Trump allies, largely unconstrained by Facebook’s rules against repeated falsehoods, cement pre-election dominance. Washington Post. [ref. 30 avril 2023]
https://www.washingtonpost.com/technology/2020/11/01/facebook-election-misinformation/

Frenkel, S., & Isaac, M. (2018, 19 septembre). Inside Facebook’s Election ‘War Room’. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2018/09/19/technology/facebook-election-war-room.html

Perrigo, B. (2021, 7 octobre). How Facebook Forced a Reckoning by Shutting Down the Team That Put People Ahead of Profits. Time. [ref. 30 avril 2023]
https://time.com/6104899/facebook-reckoning-frances-haugen/

Wong, J. C. (2020, 29 septembre). QAnon explained : the antisemitic conspiracy theory gaining traction around the world. the Guardian. [ref. 30 avril 2023]
https://www.theguardian.com/us-news/2020/aug/25/qanon-conspiracy-theory-explained-trump-what-is

Meta. (2021, 7 janvier). Our Response to the Violence in Washington. Meta. [ref. 30 avril 2023]
https://about.fb.com/news/2021/01/responding-to-the-violence-in-washington-dc/

Tran, H. M. (2021). Studying the Community of Trump Supporters on Twitter during the 2020 US Presidential Election via Hashtags # maga and # trump2020. Journalism and media2(4), 709‑731. [ref. 30 avril 2023]
https://doi.org/10.3390/journalmedia2040042

Permanent suspension of @realDonaldTrump. (s. d.). [ref. 30 avril 2023]
https://blog.twitter.com/en_us/topics/company/2020/suspension

Quitter la version mobile