Russie/Ukraine : quand la guerre devient virtuelle

Désinformer. Semer le doute. Décontextualiser. Emouvoir. Propager la haine.

Telles sont les actions rendues possibles par l’intermédiaire des réseaux sociaux dans le cadre de l’invasion agressive menée par la Russie en Ukraine. Cette guerre ne se limite pas aux champs de bataille, mais se caractérise essentiellement par la manière dont elle est propagée et partagée en ligne.

@Source : BFM TV.

Les conflits armés précédents ont également connu l’implication des médias sociaux, mais l’invasion massive de l’Ukraine par la Russie démontre quotidiennement comment les plateformes en ligne altèrent la manière dont la guerre est rapportée, vécue et comprise. Cela est en grande partie dû à la couverture Internet en constante augmentation et à l’utilisation croissante des réseaux sociaux, avec 79% des Ukrainiens utilisant Internet contre 88% des Russes selon les chiffres de Datareportal de 2023. À titre de comparaison, lorsque la Russie a envahi l’Ukraine en 2014, seulement 4 % des abonnés ukrainiens à la téléphonie mobile avaient accès à des réseaux 3G ou plus rapides, et pendant la guerre en Syrie en 2015, seuls 30 % de la population syrienne étaient en ligne (OECD, 2022). Cette dynamique a également mis en évidence l’ampleur de la menace de la désinformation, qui a toujours été utilisée comme une arme mais dont la portée et la pénétration potentielle ont été multipliées à l’aide des réseaux sociaux.

Un terrain de jeu étendu sur plusieurs canaux

Les réseaux sociaux servent d’outils de propagande via les contenus partagés sur les différentes plateformes et les interactions entre les nombreux utilisateurs. Des conversations sur Whatsapp et Telegram, des vidéos relayées sur Twitter, TikTok ou Instagram ou encore des posts sur VKontakte, le ‘Facebook local’ : tous les canaux de diffusion sont mobilisés, qu’il s’agisse des médias traditionnels, des réseaux sociaux, des sites web d’information, des blogs ou encore des messageries instantanées, dans le but de propager des discours, des images ou des vidéos destinés à influencer l’opinion publique ou à désinformer les citoyens.  

Bien que VKontakte soit la solution de réseau social préférée en Russie (comptant 73% de la part des utilisateurs russes), Instagram – appartenant à la même entreprise mère Meta – reste en tête, utilisé par environ 59% des utilisateurs de réseaux sociaux dans ce pays, soit près de 80 millions de personnes selon une estimation de FranceInfo, se basant sur les données de Statista.

Malgré cela, la Russie a récemment décidé de bloquer Instagram pour protester contre Meta. Ces sanctions à l’encontre du géant américain des réseaux sociaux font suite à la décision de Meta d’autoriser la publication de messages incitant à la violence à l’encontre des dirigeants et du personnel militaire russes dans certains pays, et cela uniquement dans le contexte de la guerre en Ukraine. Dans cette guerre de communication, Meta est devenue « la figure de l’Occident », perçue comme une menace par les autorités russes. Les utilisateurs russes doivent désormais se tourner vers les autres réseaux sociaux ou utiliser un réseau privé virtuel (VPN) pour contourner la censure imposée par les autorités. L’interdiction d’Instagram a d’ailleurs entraîné une hausse de la demande de VPN de plus de 2 000 %, selon TOP10VPN, une société de surveillance numérique. Cela confirme l’importance cruciale des réseaux sociaux dans cette guerre de désinformation où tous les canaux de diffusion sont utilisés pour influencer l’opinion publique.

@Photographie : Chesnot/Getty

« C’est gagné quand le doute est installé »

Les récits de désinformation russes reposent fréquemment sur des demi-vérités et des « whataboutisms » – tentatives de répondre à un problème en le comparant à un autre problème qui n’a rien à voir avec le problème initial-, ou sont simplement faux, obscurcissant ainsi les faits. Ainsi, les acteurs russes utilisent une approche diversifiée pour introduire, amplifier et diffuser des récits faux et déformés à travers le monde. Ils se basent notamment sur une combinaison de faux comptes et de comptes artificiels, de sites web anonymes et de sources médiatiques officielles de l’État pour diffuser et amplifier du contenu qui sert leurs intérêts et décrédibilise les récits concurrents.

« Si la désinformation est une arme de guerre indéniable, les stratégies mises en place, et les raisons de leur utilisation diffèrent âprement dans ce conflit : l’un l’utilise pour justifier l’invasion d’un état souverain, l’autre pour tenter justement de préserver cette souveraineté. »

Arnaud Mercier, professeur en sciences de l’information et de la communication (novembre 2022)

Le nombre d’exemples illustrant la désinformation dans ce champ de batail virtuel est indénombrable et ne cesse d’accroître, voici ci-dessous un rappel des plus marquants:

  • Attaque de Marioupol : la discréditation d’une bloggeuse ukrainienne  
@Source : AP. Cette influenceuse beauté a été accusée de mentir après la publication de cette photo.

En mars dernier, un hôpital pour enfants a été la cible d’un bombardement à Marioupol en Ukraine. La Russie a remis en cause la véracité de ces faits et a accusé cette influenceuse ukrainienne d’avoir joué le rôle d’une femme enceinte lors de cette attaque. Le porte-parole du ministère russe de la Défense a même défendu cette affirmation absurde en justifiant que Marianna Podgourskaïa est une bloggeuse Instagram. En plus de la non-validité de l’argument, cette accusation a été rapidement démentie après qu’une de ses publications antérieures prouve qu’elle était bien enceinte à ce moment. Cet exemple illustre la stratégie russe visant à discréditer les informations ukrainiennes en semant le doute dans l’esprit du public, rendant ainsi difficile la distinction entre la vérité et le mensonge.

@Marianna a posté cette photo sur Instagram fin février, demandant à ses followers de deviner si son bébé serait un garçon ou une fille. Source : Instagram.
  • Avions de combats russes dans le ciel ukrainien

La décontextualisation ne vient pas toujours du camp russe, bien que cette technique reste majoritairement utilisée par les pro-russes.

https://twitter.com/pok4439/status/1496729760340520962?s=49&t=ImOdUOxXv3fUoW4gYBrthA

Une publication, qui a été vue plusieurs milliers de fois, prétendait montrer des avions russes survolant l’Ukraine après l’annonce de l’intervention militaire de Vladimir Poutine dans le pays en 2022. Il est important de noter que cette vidéo partagée ne concernait pas la situation actuelle en Ukraine. En réalité, il s’agit d’un extrait d’une vidéo plus longue qui avait été diffusée en 2020 et montrant la répétition de la parade militaire du « jour de la victoire », célébré chaque 9 mai en Russie pour commémorer la victoire sur l’Allemagne nazie et la fin de la Seconde Guerre mondiale. Cette diffusion de fausses informations s’inscrit dans la stratégie russe visant à semer la confusion dans l’opinion publique en décrédibilisant les informations provenant de l’Ukraine.

Susciter l’émotion, parfois avec l’humour

L’utilisation des réseaux sociaux ne se cantonne pas à la propagation de doutes pour discréditer le partie adverse. En effet, les médias sociaux ont évolué pour devenir bien plus qu’un simple canal d’information : ils sont devenus des canaux de mobilisation et d’émotion, notamment en rendant la guerre plus « attrayante ».

De la danse des soldats ukrainiens sur les lignes de front aux visites imperturbables des abris antiatomiques par des citoyens ordinaires, la « première guerre TikTok du monde » a généré un flux constant de reportages d’actualité en direct depuis les zones de combat. Le président ukrainien Volodymyr Zelensky n’est pas le seul à utiliser TikTok comme canal de diffusion, de nombreux citoyens utilisent le réseau social quotidiennement pour informer, parfois de manière humoristique, sur la réalité du combat et de la vie sous les bombardements.

@valerisssh

Thanks for supporting ukrainian refugees!

♬ Zou Bisou Bisou – Gillian Hills

Ces vidéos permettent de rendre compte de la réalité vécue par les populations en Ukraine en éliminant les barrières géographiques. Elles ont aussi la particularité de toucher un public plus jeune qui n’aurait peut-être pas été informé de la guerre par d’autres canaux de communication.

« Si c’était une guerre de mèmes, nous serions en train de gagner. »

Cette citation provient d’une source qui s’occupe du compte du ministère ukrainien de la défense, qui a souhaitée rester anonyme. Elle conclue bien sur la situation actuelle de cette guerre hybride se jouant sur le terrain virtuel de la désinformation.

Valentine CAZIN

Références :

  • BBC News. (2022, October 4). Ukraine crisis: Social media users struggle to separate fact from fiction. BBC News. https://www.bbc.com/news/world-europe-63272202
  • BBC News. (2022, October 3). Ukraine war: Russian officials claim government offensive imminent. https://www.bbc.com/news/world-europe-63272202.amp
  • CNET France. (2022, July 22). VPN : le ban d’Instagram en Russie fait encore bondir leur popularité. CNET France. https://www.cnetfrance.fr/news/vpn-le-ban-d-instagram-en-russie-fait-encore-bondir-leur-popularite-39939067.htm
  • Datareportal. (2023). Digital 2023 Ukraine. https://datareportal.com/reports/digital-2023-ukraine
  • Datareportal. (2023). Digital 2023 Russian Federation. https://datareportal.com/reports/digital-2023-russian-federation
  • France Info. (2022, April 28). Vrai ou Fake : la femme enceinte évacuée sur brancard à Marioupol est-elle une actrice ? France Info. https://www.francetvinfo.fr/monde/europe/manifestations-en-ukraine/vrai-ou-fake-la-femme-enceinte-evacuee-sur-brancard-a-marioupol-est-elle-une-actrice_5014961.html
  • France Info. (2022, February 22). Guerre en Ukraine : un an de propagande et de désinformation. France Info. https://www.francetvinfo.fr/monde/europe/manifestations-en-ukraine/video-guerre-en-ukraine-un-an-de-propagande-et-de-desinformation_5677757.html
  • L’ADN. (2022, March 11). Ukraine : TikTok, la première guerre « attractive » du monde. L’ADN. https://www.ladn.eu/actualite/ukraine-reseau-sociaux-tiktok-tactique-guerre-attractive/
  • NPR. (2023, February 28). How Russia Is Losing (And Winning) The Information War In Ukraine. NPR. https://www.npr.org/2023/02/28/1159712623/how-russia-is-losing-and-winning-the-information-war-in-ukraine
  • OECD. (2022, March 15). Disinformation and Russia’s war of aggression against Ukraine. OECD Ukraine Hub. https://www.oecd.org/ukraine-hub/policy-responses/disinformation-and-russia-s-war-of-aggression-against-ukraine-37186bde/
  • Polytechnique Insights. (2022, March 10). Ukraine : une guerre hybride sur le terrain de la désinformation. Polytechnique Insights. https://www.polytechnique-insights.com/tribunes/geopolitique/ukraine-une-guerre-hybride-sur-le-terrain-de-la-desinformation/
  • Statista. (2022, February). Réseaux sociaux les plus utilisés par les Russes en 2021. Statista Infographies. https://fr.statista.com/infographie/26982/reseaux-sociaux-les-plus-utilises-par-les-russes/#:~:text=Les%20r%C3%A9seaux%20sociaux%20du%20groupe,pour%20les%20deux%20derniers%20cit%C3%A9s.
  • TV5MONDE. (2022, March 23). Conflit en Ukraine : les réseaux sociaux influencent-ils la guerre ? TV5MONDE. https://information.tv5monde.com/info/conflit-en-ukraine-les-reseaux-sociaux-influencent-ils-la-guerre-452619
  • Zolan, A. (2023, February 28). How Russia Is Losing (And Winning) The Information War In Ukraine. NPR. https://www.npr.org/2023/02/28/1159712623/how-russia-is-losing-and-winning-the-information-war-in-ukraine

Assaut du Capitole : entre désinformation et incitations à la violence

Quelles responsabilités pour Facebook et Twitter ?

Le 6 janvier 2021, des partisans de Donald Trump envahissent le Capitole, là où siège le Congrès américain. Une seule idée en tête : empêcher la certification de la victoire de Joe Biden à la présidentielle américaine de 2020. 
Retour sur le rôle joué par ces réseaux sociaux lors de cet évènement majeur de l’histoire américaine.

Une préparation pré-élection présidentielle 2020 afin d’éviter le scandale de 2016

Photo de little plant sur Unsplash

Dans le contexte des élections présidentielles américaines de novembre 2020, il était inconcevable pour Facebook de revivre un scandale de la même ampleur que celui de 2016. En 4 ans, la plateforme a œuvré à la mise en place de mesures concrètes ayant pour but de protéger l’intégrité de la nouvelle élection, limiter la diffusion de fausses informations et lutter contre l’incitation à la haine et à la violence.

Mark Zuckerberg avait affirmé en octobre 2020 que le règlement de la plateforme empêcherait tout candidat de «déclaré victoire prématurément» et de «délégitimer les résultats de l’élection». Afin de limiter la désinformation, Facebook a implémenté la «War Room». Cette cellule de vérification analyse en temps réel les abus signalés sur les élections. Dani Lever, responsable des affaires publiques de Meta a affirmé que Facebook avait mis en pause ses campagnes publicitaires politiques et supprimé le groupe StopTheSteal début novembre 2020.  Le groupe qui comptait 360 000 utilisateurs parmi ses rangs, mettait en doute la légitimité de l’élection en diffusant la théorie du «Big Lie».

Pour Twitter, c’est seulement 2 mois après l’attaque que l’ex CEO Jack Dorsey affirma que la plateforme avait effectivement joué un rôle dans la diffusion de fausse informations et dans l’organisation de cette attaque. Twitter avait misé sur des pratiques de marquage de tweets et de déréférencement. 

Lorsqu’un tweet contenait des informations trompeuses au sujet de l’élection, il était étiqueté d’un avertissement. Une autre mesure plus radicale a été mis en place d’octobre 2020 jusqu’à l’élection. Si certains messages de personnalités politiques et/ou influentes contenaient des propos non vérifiés et trompeurs, une bannière contenant un avertissement sur le contenu empêchait de lire le tweet. Les tweets ciblés étaient privés d’interactions (retweet, like, commentaire). En amont de l’élection, Twitter avait décidé début 2020 d’instaurer des messages de fact checking à la fin des tweets contenant du contenu trompeur.

@realDonaldTrump sur Twitter

Des baisses de vigilance sous l’impulsion de la liberté d’expression 

Après l’annonce des résultats, Facebook était soulagé. L’opération s’était déroulée sans encombre. Certaines mesures, temporaires, ont donc été retirées.
Facebook a décidé de démanteler la cellule Civic Integrity Team composée d’experts qui détectaient et combattaient la désinformation et les discours haineux. Ces changements ont commencé à inquiéter plusieurs employés du réseau social. A partir de la fin des élections, certains employés ont remarqué que le nombre de signalements pour des messages contenant de fausses informations augmentaient fortement. 
Des documents internes, révélés par la lanceuse d’alerte Frances Haugen, ont soulignés les manquements de Facebook en termes de lutte contre la désinformation et d’incitation à la violence ayant joué un rôle dans l’attaque du Capitole.
Des pistes d’amélioration du règlement ont été proposées pour contrer la désinformation mais déclinées par la hiérarchie. L’une des raisons avancées par la direction est que cela ne ferait qu’augmenter le nombre de signalements erronés et diminuerait l’engagement sur la plateforme. Comme précisé par Haugen lors de son témoignage au Sénat, Facebook semble vouloir faire passer son « profit avant la sécurité » et « avant la population ».

Image par El Sun de Pixabay

La suppression du groupe StopTheSteal n’a non plus été d’une grande efficacité. Cela donna un boost de popularité aux groupes moins importants contenant des propos #StoptheSteal. Les membres du groupe d’origine se sont juste dispatchés. StopTheSteal était bien plus qu’un groupe Facebook et la plateforme n’a pas vraiment œuvré à contrôler et signaler ces groupes complotistes. 

Sur Facebook, les algorithmes jouent un rôle majeur dans la diffusion de ces fausses informations. Dans les documents révélés, il a été confirmé qu’il n’a fallu que 2 jours pour qu’un utilisateur, suivant quelques personnalités/médias conservateurs, ait des recommandations conspirationnistes et 1 semaine pour que des contenus du groupe QAnon lui soient recommandés.

L’une des révélations majeure des Facebook Files était la mise en place d’une politique de fact-checking XCheck permettant de limiter les faux signalements de comptes. Certaines personnalités politiques et comptes les plus suivis bénéficiaient d’une vérification des signalement à part. Cependant, certaines de ces personnalités soumises à ce système se retrouvaient «whitelisted» et exemptées du règlement de Facebook : «Contrairement au reste de notre communauté, ces personnes peuvent enfreindre nos normes sans aucunes conséquences».

De son côté, Twitter a aussi failli. 
Il n’a pas su prendre en considération les avertissements de ses employés sur les risques de la mauvaise gestion de la désinformation et des incitations à la violence sur la plateforme après les élections de 2020. Malgré les efforts et les signalements reportés par Twitter Safety Policy team, en charge de la rédaction du règlement de la plateforme, aucune mesure supplémentaire n’a été prise. Les dirigeants semblaient plus inquiets de déclencher la colère des supporters du président sortant plutôt que de préserver le discours électoral (Draft Comittee Report, The Washington Post, 2023).

Un règlement proposé par la Twitter Safety Policy team visant les messages qui incitaient indirectement à la violence («coded incitement to violence» CIV) n’a pas été retenu par les dirigeants, considérant que les messages visés pouvaient être interprétés dans un autre contexte. Le supposé règlement portait notamment sur ce message: «stand back and stand by». Il avait été utilisé par le président Trump pour s’adresser plus tôt dans l’année au groupe d’extrême droite Proud Boys connu pour ses idées fortes et ses comportements violents. Peu de temps après, cette expression était devenu le cri de ralliement de groupes de supporters Trump sur Twitter.

Twitter a pris l’initiative d’écouter les signalements déposés par des organisations comme Fair Fights luttant pour des élections justes aux États-Unis. Ces tweets, directement liés à l’incitation à la violence au nom d’une élection truquée, ont reçu des avertissements mais n’ont cependant pas été retirés. Pour Twitter, ces messages restaient dans le cadre de la liberté d’expression et n’avaient en aucun cas dépassé les limites du règlement.
Twitter montre ici des signes de relâchement quant à la gestion des messages haineux et de la désinformation.

Un rapport de la MDPI révéla qu’afin d’éviter les signalements, des hashtags contenants des fautes étaient utilisés massivement. Des tweets relatifs aux suspicions de corruption des Biden utilisaient majoritairement le #bidencrimefamiily plutôt que #bidencrimefamily. Cela devait déjouer les mesures mises en place par le règlement de la plateforme tout en ralliant les supporters autour de théories conspirationnistes.

@realDonaldTrump sur Twitter

Le 19 décembre 2020, Trump écrivait : «Big protest un D.C. on January 6th». Par la suite, le nombre de tweets utilisant les CIV «locked and loaded» et «civil war» ont augmenté de manière exponentielle.

Selon un ancien employé de la plateforme, il a fallu attendre l’attaque du 6 janvier 2021 pour que Twitter demande à la Safety Policy team de mettre en place en urgence la CIV Policy. Cependant, toujours incomplète dû à son blocage quelques mois plus tôt, son application était imparfaite.

Au Capitol, les attaquants documentaient leur avancée sur Twitter, obligeant les responsables de la modération à supprimer/bannir en direct les contenus et hashtags problématiques. D’autres hashtags, remontés dans les tendances, ont dû être déréférencé comme #CivilWar.

Une prise de conscience sur l’importance de la désinformation et de l’incitation à la haine ?

Donald J.Trump sur Facebook

Dani Lever confirme la suppression des contenus ayant comme la mention StoptheSteal dès l’instant de l’attaque ainsi que la suspension du compte de Donald Trump pendant 24 heures. Comme l’a annoncé Facebook, cela fut étendu à 2 semaines puis à une durée indéterminée. 

C’est finalement il y a un peu plus d’un mois, le 17 mars 2023, que l’ancien président fait son retour avec une vidéo et 3 mots : I’M BACK !


Facebook s’est engagé à renforcer l’obligation des administrateurs de groupes de vérifier les messages postés, à désactiver les interactions sur les posts provenant de groupes avec des taux élevés de discours haineux/violents et à déréférencer les contenus qui enfreindraient les règlements.

Après l’attaque, Twitter a suspendu le compte @realDonaldTrump (une première fois pendant 12 heures puis de manière permanente). Fin 2022, après l’arrivée d’Elon Musk à la tête de Twitter, son compte a été à nouveau débloqué. Plus de 70000 comptes ont été bloqués, des mesures ont été ajoutées à la Civic Integrity Policy, les comptes affiliés aux contenus conspirationnistes ont été déréférencés et certains sujets ne pourront plus apparaître dans les tendances.

Bien que les attaquants présents au Capitol ainsi que Donald Trump sont responsables de leurs actions, il est clair que les réseaux sociaux ont joué un rôle majeur dans la préparation en amont de cet évènement. Même si le January 6th Comittee a décidé de s’attarder sur la responsabilité de Trump, cette affaire aura été l’opportunité pour ces grands réseaux sociaux d’être mis face aux conséquences de leurs décisions.

Margot Brenier


Bibliographie :

Timberg, C., Dwoskin, E., & Albergotti, R. (2021, 22 octobre). Inside Facebook, Jan. 6 violence fueled anger, regret over missed warning signs. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2021/10/22/jan-6-capitol-riot-facebook/

Zakrzewski, C., Lima, C., & Harwell, D. (2023, 17 janvier). What the Jan. 6 probe found out about social media, but didn’t report. Washington Post. [ref. 30 avril 2023] https://www.washingtonpost.com/technology/2023/01/17/jan6-committee-report-social-media/

Bond, S. (2021, 23 octobre). How the « Stop the Steal » movement outwitted Facebook ahead of the Jan. 6 insurrection. NPR. [ref. 30 avril 2023] 
https://www.npr.org/2021/10/22/1048543513/facebook-groups-jan-6-insurrection

Bond, S. (2020, 9 octobre). Twitter Expands Warning Labels To Slow Spread of Election Misinformation. NPR. [ref. 30 avril 2023]
https://www.npr.org/2020/10/09/922028482/twitter-expands-warning-labels-to-slow-spread-of-election-misinformation

Reporter, G. S. (2021, 25 octobre). Facebook missed weeks of warning signs over Capitol attack, documents suggest. the Guardian. [ref. 30 avril 2023] https://www.theguardian.com/technology/2021/oct/23/facebook-whistleblower-january-6-capitol-attack

Social Media & the January 6th Attack on the U.S. Capitol. (s. d.). [ref. 30 avril 2023] https://www.washingtonpost.com/documents/5bfed332-d350-47c0-8562-0137a4435c68.pdf?itid=lk_inline_manual_3

Conger, K. (2021, 25 mars). Jack Dorsey says Twitter played a role in U.S. Capitol riot. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2021/03/25/business/jack-dorsey-twitter-capitol-riot.html

Stanley-Becker, I., & Dwoskin, E. (2020, 1 novembre). Trump allies, largely unconstrained by Facebook’s rules against repeated falsehoods, cement pre-election dominance. Washington Post. [ref. 30 avril 2023]
https://www.washingtonpost.com/technology/2020/11/01/facebook-election-misinformation/

Frenkel, S., & Isaac, M. (2018, 19 septembre). Inside Facebook’s Election ‘War Room’. The New York Times. [ref. 30 avril 2023]
https://www.nytimes.com/2018/09/19/technology/facebook-election-war-room.html

Perrigo, B. (2021, 7 octobre). How Facebook Forced a Reckoning by Shutting Down the Team That Put People Ahead of Profits. Time. [ref. 30 avril 2023]
https://time.com/6104899/facebook-reckoning-frances-haugen/

Wong, J. C. (2020, 29 septembre). QAnon explained : the antisemitic conspiracy theory gaining traction around the world. the Guardian. [ref. 30 avril 2023]
https://www.theguardian.com/us-news/2020/aug/25/qanon-conspiracy-theory-explained-trump-what-is

Meta. (2021, 7 janvier). Our Response to the Violence in Washington. Meta. [ref. 30 avril 2023]
https://about.fb.com/news/2021/01/responding-to-the-violence-in-washington-dc/

Tran, H. M. (2021). Studying the Community of Trump Supporters on Twitter during the 2020 US Presidential Election via Hashtags # maga and # trump2020. Journalism and media2(4), 709‑731. [ref. 30 avril 2023]
https://doi.org/10.3390/journalmedia2040042

Permanent suspension of @realDonaldTrump. (s. d.). [ref. 30 avril 2023]
https://blog.twitter.com/en_us/topics/company/2020/suspension

Quitter la version mobile