Credit image : Dimitrios Kambouris / Kevin Dietsch / Getty Image
Le monde contemporain évolue sous un déluge d’informations, dont le principal déversoir sont les réseaux sociaux. Des plateformes devenues les autoroutes de la communication globale, où tout circule : le vrai, le faux, et surtout le sensationnel. Mais à mesure que l’instantanéité et les algorithmes s’invitent dans l’équation, une ombre grandit sur le débat public : la prolifération des fausses informations. Vérités alternatives, manipulations subtiles ou intox assumée, peu importe le flacon, pourvu qu’on ait l’illusion.
C’est ici qu’intervient le fact-checking, sentinelle de la vérité qui traque l’info frelatée et redonne aux faits leurs lettres de noblesse. Décrypter, recouper, rétablir : un travail aussi noble qu’ardu, qui se heurte à la dynamique du buzz. Face aux vaisseaux amiraux de l’influence que sont X (ex-Twitter) sous la houlette d’Elon Musk et Meta (Facebook, Instagram) dirigé par Mark Zuckerberg, la modération et la vérification ne pèsent pas toujours bien lourd. Entre liberté d’expression brandie en étendard et monétisation du chaos informationnel, ces géants du numérique façonnent l’espace public selon des logiques difficilement conciliables avec la quête d’une information fiable.
À travers cet article, plongeons dans les coulisses d’un affrontement feutré où la vérité tente de ne pas se faire avaler par l’algorithme.
Elon Musk et la liberté d’expression sans compromis
Depuis son rachat de Twitter en 2022, Elon Musk s’est attelé à un projet ambitieux : transformer la plateforme en une agora numérique où la liberté d’expression tutoie l’absolu. L’idéal est séduisant, mais la réalité est plus chaotique.
X, ex-Twitter, se veut un espace où toutes les voix des plus éclairées aux plus fumeuses peuvent s’exprimer sans entraves. Traduction : adieu la modération stricte, bonjour le grand bain de la controverse. Résultat ? En deux semaines, les tweets antisémites bondissent de 61 %, les insultes racistes explosent de 200 %1. Liberté d’expression, certes. Conséquences, aussi.
Ce virage a donné des sueurs froides aux annonceurs. En un an, les dépenses publicitaires des 30 plus gros annonceurs ont fondu de 42 %2. Le CPM, jadis respectable à 5,77 $, s’écrase à 0,65 $. Greenpeace et une centaine d’ONG ont plié bagage, et même des institutions académiques françaises comme l’École Polytechnique et CentraleSupélec ont déserté X, lassées du règne de la désinformation.
Musk voulait une « place publique numérique ». Il a obtenu un marché aux cris, où la vérité se noie sous le vacarme de l’engagement à tout prix.
« Community Notes » : une modération démocratique… ou un mirage collaboratif ?
Lorsque Elon Musk a mis en avant Community Notes comme remède à la désinformation sur X (ex-Twitter), l’idée avait de quoi séduire : confier aux utilisateurs la tâche d’apporter des corrections aux publications trompeuses. Une approche participative, presque utopique. Mais dans la réalité, la modération par la foule se heurte à des limites qui en réduisent considérablement l’efficacité.
Un contrepoids insuffisant face à la désinformation
Le principe est simple : des contributeurs apportent des annotations censées contextualiser ou corriger les contenus trompeurs. L’objectif ? Rétablir les faits de manière transparente. Mais la mécanique se grippe vite. Selon le Center for Countering Digital Hate (CCDH), 74 % des publications contenant de fausses informations ne sont jamais corrigées par Community Notes. Pire, même lorsque des annotations sont ajoutées, elles peinent à rivaliser avec la viralité du tweet initial, déjà diffusé à grande échelle3.
Un outil vulnérable aux manipulations
Là où l’initiative se voulait neutre et objective, elle devient vite le terrain de jeux d’acteurs aux intérêts divergents. Les groupes organisés s’y infiltrent, biaisant le système à leur avantage. Plutôt qu’un rempart contre la désinformation, Community Notes se transforme en un espace où les corrections sont elles-mêmes contestées, reflétant les fractures idéologiques qui traversent la plateforme.
Un rythme bien trop lent face à l’instantanéité du web
Autre problème majeur : la vitesse. Là où une fake news se répand en quelques heures, une correction via Community Notes met bien plus de temps à être validée. L’information erronée a déjà eu le temps de s’imposer dans l’opinion publique avant même que son caractère trompeur ne soit signalé. Or, sur un réseau où la viralité est reine, la lenteur de réaction condamne l’outil à l’inefficacité4.
Un pari qui exacerbe la fragmentation
En misant sur une correction communautaire plutôt qu’une modération stricte, Musk prolonge sa vision d’un espace où la liberté d’expression s’exerce sans véritable garde-fou. Une vision séduisante sur le papier, mais qui, dans les faits, ne fait qu’accroître la fragmentation informationnelle. Les Community Notes devaient rétablir la vérité, elles deviennent un écho des tensions idéologiques qui traversent la plateforme.
Meta : la vérité sous contrôle ou la modération sous influence ?
Là où Elon Musk prône une liberté d’expression quasi absolue sur X, Mark Zuckerberg adopte une approche plus méthodique sur Meta (Facebook, Instagram). Ici, l’objectif est clair : traquer la désinformation sans étouffer le débat. Pour y parvenir, Meta s’appuie sur un savant mélange de collaborations externes et de technologies d’intelligence artificielle. Un équilibre subtil, mais pas sans controverses.
La modération à coups de fact-checking
Meta ne joue plus en solo. La plateforme a récemment décidé d’arrêter son programme de vérification des faits sur ses applications, mettant fin à ses collaborations avec des organismes comme PolitiFact et FactCheck.org. L’idée initiale était d’étiqueter et limiter la visibilité des publications trompeuses. Pendant la pandémie, ce système avait inondé les publications antivaccins de messages d’alerte et de liens vers des sources fiables. Même stratégie lors des élections brésiliennes5, où Meta a musclé sa lutte contre les fausses nouvelles électorales. Une modération rigoureuse, mais désormais abandonnée au profit d’une autre approche.
L’intelligence artificielle comme outil clé
Meta utilise également des algorithmes sophistiqués pour surveiller et analyser les contenus. Ces outils identifient rapidement les publications potentiellement nuisibles, interrompant leur propagation avant qu’elles ne deviennent virales. Lors des attentats de Christchurch, par exemple, l’IA de Meta6 a permis de supprimer rapidement les vidéos diffusées en direct.
Cependant, ces algorithmes ne sont pas exempts de défauts7. Ils peuvent signaler des contenus satiriques ou humoristiques, ou échouer à identifier certains messages codés. Leur fonctionnement opaque soulève également des questions sur la transparence et la responsabilité des plateformes.
Vérité officielle ou censure déguisée ?
Mais cette approche a ses détracteurs. Certains dénoncent une modération à sens unique, qui privilégierait certaines narrations au détriment d’autres. En 2023, Human Rights Watch8 a recensé plus de 1 050 suppressions de contenus pro-palestiniens sur Facebook et Instagram, renforçant les soupçons d’un biais idéologique. Même chose lors de la pandémie : des publications critiquant certaines politiques sanitaires ont été censurées, relançant le débat sur une vérité officielle imposée par des experts et des entreprises privées.
Ces exemples montrent que l’approche de Meta, bien qu’efficace pour limiter la désinformation, soulève des préoccupations sur la liberté d’expression. Le débat sur la modération des contenus numériques oscille souvent entre deux extrêmes : garantir une information vérifiée tout en respectant la diversité des opinions, ou risquer une forme de censure institutionnalisée. En fin de compte, la stratégie de Meta, fondée sur des partenariats et une technologie de modération sophistiquée, incarne une tentative de trouver un équilibre, mais elle illustre aussi les défis d’une modération perçue parfois comme intrusive.
Liberté ou responsabilité : quel avenir pour l’information en ligne ?
Les stratégies de Musk et Zuckerberg incarnent deux visions opposées du contrôle de l’information. D’un côté, une liberté d’expression quasi absolue, quitte à laisser proliférer la désinformation. De l’autre, une modération rigoureuse, qui peut parfois ressembler à une censure déguisée. Entre engagement économique et responsabilité éthique, les plateformes numériques peinent à trouver l’équilibre parfait.
Vers un modèle hybride
Plutôt que d’opposer ces extrêmes, une approche intermédiaire semble émerger. L’Union européenne a déjà pris les devants avec le Digital Services Act (DSA)9, qui impose aux géants du numérique plus de transparence sur leurs algorithmes et une meilleure gestion des contenus problématiques. Ce cadre juridique vise à responsabiliser les plateformes tout en préservant une liberté d’expression encadrée.
Aux États-Unis, Meta a mis en place un Conseil de surveillance10 composé d’experts indépendants chargés d’examiner les décisions de modération controversées. Ce modèle, qui allie contrôle externe et transparence, pourrait inspirer d’autres initiatives à l’échelle mondiale.
L’intelligence artificielle et la coopération à la rescousse
Plutôt que de laisser la modération à la seule discrétion des plateformes, des initiatives collaboratives émergent. Le Google News Initiative et le projet CrossCheck11 ont prouvé que des efforts conjoints entre médias, ONG et experts pouvaient mieux lutter contre la désinformation. En s’appuyant sur l’intelligence artificielle et la coopération intersectorielle, ces modèles montrent qu’une régulation efficace ne signifie pas forcément une censure excessive.
Former plutôt que censurer
Mais la technologie seule ne suffira pas. L’éducation aux médias devient un enjeu clé pour armer les citoyens face à la manipulation de l’information. En Finlande, ce travail commence dès l’école primaire, où les enfants apprennent à identifier les biais et à vérifier les sources. Résultat : le pays est l’un des plus résilients face à la désinformation en Europe. Une approche qui pourrait inspirer bien d’autres pays.
Ruben LOMBA MINANGA
Sources
- https://www.bfmtv.com/tech/twitter-les-insultes-racistes-et-antisemites-en-forte-hausse-depuis-le-rachat-d-elon-musk_AV-202212040111.html ↩︎
- https://www.agenceecofin.com/reseaux-sociaux/2001-104693-les-achats-de-publicite-des-30-principaux-annonceurs-de-twitter-ont-baisse-de-42-depuis-son-rachat-par-elon-musk ↩︎
- https://www.socialmediatoday.com/news/reports-find-community-notes-failing-address-misinformation-x-formally-twitter/731558/ ↩︎
- https://dl.acm.org/doi/10.1145/3686967 ↩︎
- https://www.lefigaro.fr/secteur/high-tech/fin-du-fact-checking-chez-meta-le-bresil-estime-cette-decision-mauvaise-pour-la-democratie-20250108 ↩︎
- https://www.actuia.com/actualite/meta-ai-devoile-une-technologie-dia-pour-ameliorer-la-moderation-sur-facebook-et-instagram/ ↩︎
- https://siecledigital.fr/2024/12/05/meta-admet-une-moderation-excessive-de-contenu-sur-ses-reseaux/ ↩︎
- https://www.hrw.org/report/2023/12/21/metas-broken-promises/systemic-censorship-palestine-content-instagram-and ↩︎
- https://freedomhouse.org/article/eu-digital-services-act-win-transparency ↩︎
- https://www.oversightboard.com/ ↩︎
- https://blog.google/outreach-initiatives/google-news-initiative/fact-checking-french-election-lessons-crosscheck-collaborative-effort-combat-misinformation/ ↩︎