Assaut du Capitole : entre désinformation et incitations à la violence

Quelles responsabilités pour Facebook et Twitter ?

Le 6 janvier 2021, des partisans de Donald Trump envahissent le Capitole, là où siège le Congrès américain. Une seule idée en tête : empêcher la certification de la victoire de Joe Biden à la présidentielle américaine de 2020. 
Retour sur le rôle joué par ces réseaux sociaux lors de cet évènement majeur de l’histoire américaine.

Une préparation pré-élection présidentielle 2020 afin d’éviter le scandale de 2016

Photo de little plant sur Unsplash

Dans le contexte des élections présidentielles américaines de novembre 2020, il était inconcevable pour Facebook de revivre un scandale de la même ampleur que celui de 2016. En 4 ans, la plateforme a œuvré à la mise en place de mesures concrètes ayant pour but de protéger l’intégrité de la nouvelle élection, limiter la diffusion de fausses informations et lutter contre l’incitation à la haine et à la violence.

Mark Zuckerberg avait affirmé en octobre 2020 que le règlement de la plateforme empêcherait tout candidat de «déclaré victoire prématurément» et de «délégitimer les résultats de l’élection». Afin de limiter la désinformation, Facebook a implémenté la «War Room». Cette cellule de vérification analyse en temps réel les abus signalés sur les élections. Dani Lever, responsable des affaires publiques de Meta a affirmé que Facebook avait mis en pause ses campagnes publicitaires politiques et supprimé le groupe StopTheSteal début novembre 2020.  Le groupe qui comptait 360 000 utilisateurs parmi ses rangs, mettait en doute la légitimité de l’élection en diffusant la théorie du «Big Lie».

Pour Twitter, c’est seulement 2 mois après l’attaque que l’ex CEO Jack Dorsey affirma que la plateforme avait effectivement joué un rôle dans la diffusion de fausse informations et dans l’organisation de cette attaque. Twitter avait misé sur des pratiques de marquage de tweets et de déréférencement. 

Lorsqu’un tweet contenait des informations trompeuses au sujet de l’élection, il était étiqueté d’un avertissement. Une autre mesure plus radicale a été mis en place d’octobre 2020 jusqu’à l’élection. Si certains messages de personnalités politiques et/ou influentes contenaient des propos non vérifiés et trompeurs, une bannière contenant un avertissement sur le contenu empêchait de lire le tweet. Les tweets ciblés étaient privés d’interactions (retweet, like, commentaire). En amont de l’élection, Twitter avait décidé début 2020 d’instaurer des messages de fact checking à la fin des tweets contenant du contenu trompeur.

@realDonaldTrump sur Twitter

Des baisses de vigilance sous l’impulsion de la liberté d’expression 

Après l’annonce des résultats, Facebook était soulagé. L’opération s’était déroulée sans encombre. Certaines mesures, temporaires, ont donc été retirées.
Facebook a décidé de démanteler la cellule Civic Integrity Team composée d’experts qui détectaient et combattaient la désinformation et les discours haineux. Ces changements ont commencé à inquiéter plusieurs employés du réseau social. A partir de la fin des élections, certains employés ont remarqué que le nombre de signalements pour des messages contenant de fausses informations augmentaient fortement. 
Des documents internes, révélés par la lanceuse d’alerte Frances Haugen, ont soulignés les manquements de Facebook en termes de lutte contre la désinformation et d’incitation à la violence ayant joué un rôle dans l’attaque du Capitole.
Des pistes d’amélioration du règlement ont été proposées pour contrer la désinformation mais déclinées par la hiérarchie. L’une des raisons avancées par la direction est que cela ne ferait qu’augmenter le nombre de signalements erronés et diminuerait l’engagement sur la plateforme. Comme précisé par Haugen lors de son témoignage au Sénat, Facebook semble vouloir faire passer son « profit avant la sécurité » et « avant la population ».

Image par El Sun de Pixabay

La suppression du groupe StopTheSteal n’a non plus été d’une grande efficacité. Cela donna un boost de popularité aux groupes moins importants contenant des propos #StoptheSteal. Les membres du groupe d’origine se sont juste dispatchés. StopTheSteal était bien plus qu’un groupe Facebook et la plateforme n’a pas vraiment œuvré à contrôler et signaler ces groupes complotistes. 

Sur Facebook, les algorithmes jouent un rôle majeur dans la diffusion de ces fausses informations. Dans les documents révélés, il a été confirmé qu’il n’a fallu que 2 jours pour qu’un utilisateur, suivant quelques personnalités/médias conservateurs, ait des recommandations conspirationnistes et 1 semaine pour que des contenus du groupe QAnon lui soient recommandés.

L’une des révélations majeure des Facebook Files était la mise en place d’une politique de fact-checking XCheck permettant de limiter les faux signalements de comptes. Certaines personnalités politiques et comptes les plus suivis bénéficiaient d’une vérification des signalement à part. Cependant, certaines de ces personnalités soumises à ce système se retrouvaient «whitelisted» et exemptées du règlement de Facebook : «Contrairement au reste de notre communauté, ces personnes peuvent enfreindre nos normes sans aucunes conséquences».

De son côté, Twitter a aussi failli. 
Il n’a pas su prendre en considération les avertissements de ses employés sur les risques de la mauvaise gestion de la désinformation et des incitations à la violence sur la plateforme après les élections de 2020. Malgré les efforts et les signalements reportés par Twitter Safety Policy team, en charge de la rédaction du règlement de la plateforme, aucune mesure supplémentaire n’a été prise. Les dirigeants semblaient plus inquiets de déclencher la colère des supporters du président sortant plutôt que de préserver le discours électoral (Draft Comittee Report, The Washington Post, 2023).

Un règlement proposé par la Twitter Safety Policy team visant les messages qui incitaient indirectement à la violence («coded incitement to violence» CIV) n’a pas été retenu par les dirigeants, considérant que les messages visés pouvaient être interprétés dans un autre contexte. Le supposé règlement portait notamment sur ce message: «stand back and stand by». Il avait été utilisé par le président Trump pour s’adresser plus tôt dans l’année au groupe d’extrême droite Proud Boys connu pour ses idées fortes et ses comportements violents. Peu de temps après, cette expression était devenu le cri de ralliement de groupes de supporters Trump sur Twitter.

Twitter a pris l’initiative d’écouter les signalements déposés par des organisations comme Fair Fights luttant pour des élections justes aux États-Unis. Ces tweets, directement liés à l’incitation à la violence au nom d’une élection truquée, ont reçu des avertissements mais n’ont cependant pas été retirés. Pour Twitter, ces messages restaient dans le cadre de la liberté d’expression et n’avaient en aucun cas dépassé les limites du règlement.
Twitter montre ici des signes de relâchement quant à la gestion des messages haineux et de la désinformation.

Un rapport de la MDPI révéla qu’afin d’éviter les signalements, des hashtags contenants des fautes étaient utilisés massivement. Des tweets relatifs aux suspicions de corruption des Biden utilisaient majoritairement le #bidencrimefamiily plutôt que #bidencrimefamily. Cela devait déjouer les mesures mises en place par le règlement de la plateforme tout en ralliant les supporters autour de théories conspirationnistes.

@realDonaldTrump sur Twitter

Le 19 décembre 2020, Trump écrivait : «Big protest un D.C. on January 6th». Par la suite, le nombre de tweets utilisant les CIV «locked and loaded» et «civil war» ont augmenté de manière exponentielle.

Selon un ancien employé de la plateforme, il a fallu attendre l’attaque du 6 janvier 2021 pour que Twitter demande à la Safety Policy team de mettre en place en urgence la CIV Policy. Cependant, toujours incomplète dû à son blocage quelques mois plus tôt, son application était imparfaite.

Au Capitol, les attaquants documentaient leur avancée sur Twitter, obligeant les responsables de la modération à supprimer/bannir en direct les contenus et hashtags problématiques. D’autres hashtags, remontés dans les tendances, ont dû être déréférencé comme #CivilWar.

Une prise de conscience sur l’importance de la désinformation et de l’incitation à la haine ?

Donald J.Trump sur Facebook

Dani Lever confirme la suppression des contenus ayant comme la mention StoptheSteal dès l’instant de l’attaque ainsi que la suspension du compte de Donald Trump pendant 24 heures. Comme l’a annoncé Facebook, cela fut étendu à 2 semaines puis à une durée indéterminée. 

C’est finalement il y a un peu plus d’un mois, le 17 mars 2023, que l’ancien président fait son retour avec une vidéo et 3 mots : I’M BACK !


Facebook s’est engagé à renforcer l’obligation des administrateurs de groupes de vérifier les messages postés, à désactiver les interactions sur les posts provenant de groupes avec des taux élevés de discours haineux/violents et à déréférencer les contenus qui enfreindraient les règlements.

Après l’attaque, Twitter a suspendu le compte @realDonaldTrump (une première fois pendant 12 heures puis de manière permanente). Fin 2022, après l’arrivée d’Elon Musk à la tête de Twitter, son compte a été à nouveau débloqué. Plus de 70000 comptes ont été bloqués, des mesures ont été ajoutées à la Civic Integrity Policy, les comptes affiliés aux contenus conspirationnistes ont été déréférencés et certains sujets ne pourront plus apparaître dans les tendances.

Bien que les attaquants présents au Capitol ainsi que Donald Trump sont responsables de leurs actions, il est clair que les réseaux sociaux ont joué un rôle majeur dans la préparation en amont de cet évènement. Même si le January 6th Comittee a décidé de s’attarder sur la responsabilité de Trump, cette affaire aura été l’opportunité pour ces grands réseaux sociaux d’être mis face aux conséquences de leurs décisions.

Margot Brenier


Bibliographie :

Timberg, C., Dwoskin, E., & Albergotti, R. (2021, 22 octobre). Inside Facebook, Jan. 6 violence fueled anger, regret over missed warning signs. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2021/10/22/jan-6-capitol-riot-facebook/

Zakrzewski, C., Lima, C., & Harwell, D. (2023, 17 janvier). What the Jan. 6 probe found out about social media, but didn’t report. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2023/01/17/jan6-committee-report-social-media/

Bond, S. (2021, 23 octobre). How the « Stop the Steal » movement outwitted Facebook ahead of the Jan. 6 insurrection. NPR. [ref. 30 avril 2023] 
https://www.npr.org/2021/10/22/1048543513/facebook-groups-jan-6-insurrection

Bond, S. (2020, 9 octobre). Twitter Expands Warning Labels To Slow Spread of Election Misinformation. NPR. [ref. 30 avril 2023]
https://www.npr.org/2020/10/09/922028482/twitter-expands-warning-labels-to-slow-spread-of-election-misinformation

Reporter, G. S. (2021, 25 octobre). Facebook missed weeks of warning signs over Capitol attack, documents suggest. the Guardian. [ref. 30 avril 2023] https://www.theguardian.com/technology/2021/oct/23/facebook-whistleblower-january-6-capitol-attack

Social Media & the January 6th Attack on the U.S. Capitol. (s. d.). [ref. 30 avril 2023] https://www.washingtonpost.com/documents/5bfed332-d350-47c0-8562-0137a4435c68.pdf?itid=lk_inline_manual_3

Conger, K. (2021, 25 mars). Jack Dorsey says Twitter played a role in U.S. Capitol riot. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2021/03/25/business/jack-dorsey-twitter-capitol-riot.html

Stanley-Becker, I., & Dwoskin, E. (2020, 1 novembre). Trump allies, largely unconstrained by Facebook’s rules against repeated falsehoods, cement pre-election dominance. Washington Post. [ref. 30 avril 2023]
https://www.washingtonpost.com/technology/2020/11/01/facebook-election-misinformation/

Frenkel, S., & Isaac, M. (2018, 19 septembre). Inside Facebook’s Election ‘War Room’. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2018/09/19/technology/facebook-election-war-room.html

Perrigo, B. (2021, 7 octobre). How Facebook Forced a Reckoning by Shutting Down the Team That Put People Ahead of Profits. Time. [ref. 30 avril 2023]
https://time.com/6104899/facebook-reckoning-frances-haugen/

Wong, J. C. (2020, 29 septembre). QAnon explained : the antisemitic conspiracy theory gaining traction around the world. the Guardian. [ref. 30 avril 2023]
https://www.theguardian.com/us-news/2020/aug/25/qanon-conspiracy-theory-explained-trump-what-is

Meta. (2021, 7 janvier). Our Response to the Violence in Washington. Meta. [ref. 30 avril 2023]
https://about.fb.com/news/2021/01/responding-to-the-violence-in-washington-dc/

Tran, H. M. (2021). Studying the Community of Trump Supporters on Twitter during the 2020 US Presidential Election via Hashtags # maga and # trump2020. Journalism and media2(4), 709‑731. [ref. 30 avril 2023]
https://doi.org/10.3390/journalmedia2040042

Permanent suspension of @realDonaldTrump. (s. d.). [ref. 30 avril 2023]
https://blog.twitter.com/en_us/topics/company/2020/suspension

Quitter la version mobile