Extrême droite et réseaux sociaux : vers une normalisation idéologique par la viralité

Dans quelles mesures les chambres d’écho des médias d’extrême droite participent au déplacement de la fenêtre d’Overton ? 

Le 28 janvier dernier, le ministre de la Justice, Gérald Darmanin était l’invité de Pascal Praud sur la chaine CNews pour évoquer les solutions qu’il souhaitait mettre en place pour lutter contre la délinquance. A cette occasion, le présentateur de l’émission controversé l’heure des pros, pose à son invité la question suivante : « Est-ce que vous avez pensé à rouvrir les bagnes ? ». Bien que ces propos puissent sembler particulièrement choquants voir hors du domaine de l’entendable ils participent à un mécanisme bien connu des sciences politiques : celui de déplacer la fenêtre d’Overton. La fenêtre d’Overton définit le périmètre de ce qui peut être dit au sein d’une société, c’est-à-dire les idées qui sont jugées acceptables par une population. A l’extérieure de cette fenêtre, se trouvent les idées radicales rejetées par la majorité d’une population. A l’image de la société, la fenêtre d’Overton n’est pas figée, elle correspond au cadre du dicible dans une société donnée à une époque précise. C’est ainsi qu’elle se déplace au gré de l’évolution des normes et des valeurs au cours d’un processus lent mais certains acteurs du monde médiatique et numérique œuvrent à déplacer cette fenêtre. 

Chambres d’écho et bulles de filtres : de quoi parle-t-on ? 

Dans ce processus, les chambres d‘échos et en particulier celles des sphères de l’extrême droite sont régulièrement pointées du doigts mais nous pouvons nous interroger sur leur réel impact dans le déplacement de la fenêtre d’Overton. Les chambres d’échos médiatiques désignent, une situation dans laquelle l’information, les idées, ou les croyances sont amplifiées ou renforcées par la communication et la répétition dans un système défini. Ce phénomène repose sur l’amplification : plus une infirmation est partagée, plus elle semble crédible et ceci qu’elle soit avérée ou totalement erronée. Les chambres d’échos sont souvent associées aux bulles de filtres qui sont un concept développé par Eli Pariser dans son ouvrage The Filter Bubble publié en 2011. Ce phénomène représente selon lui « l’univers personnel d’informations » qui nous est proposé par des filtres personnalisés sur les réseaux sociaux, mais également des moteurs de recherche. En d’autres termes, la personnalisation des contenus sur les réseaux sociaux au moyen des algorithmes, principe inhérent de ces plateformes, qui a pour but de maximiser l’engagement des utilisateurs limiterait l’exposition à des opinions divergentes et donc renforceraient le mécanisme des chambres d’échos.

Néanmoins de nombreuses études relativisent leur importance et notamment celles de Fletcher et al. intitulé How Many People Live in Politcally Partisan Online News Echo Chambers in Différent Countries concluant qu’en réalité seulement 5% des internautes se retrouvent réellement dans des écosystèmes médiatiques partisans fermés. 

En réalité, les algorithmes des réseaux sociaux ne peuvent pas expliquer à eux seuls le déplacement de la fenêtre d’Overton car ils ne peuvent pas être complètement décorrélés des préférences des individus qui ont toujours existées et ce bien avant l’arrivée des réseaux sociaux. Ce que nous expose Alex Bruns dans « Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem » est que l’homophilie se donne à voir depuis longtemps dans les sociétés et n’est pas une nouveauté liée au monde numérique. Les individus ont toujours préféré être exposés à des contenus résonnant avec leur système de valeur et leurs idéologies, les réseaux ont juste permis de massifier l’accès à des contenus préférentiels. Finalement comme nous le dit Dominique Cardon « la bulle c’est nous qui la créons » en choisissant nos amis, nos sources et nos médias. 

Bien que l’impact réel des bulles de filtres soit remis en cause par de nombreuses études, le phénomène des chambres d’échos dans les sphères d’extrême droite n’est pas complètement à mettre de côté pour autant. En effet, en analysant le fonctionnement des algorithmes des réseaux sociaux, nous voyons que les contenus qui suscitent le plus d’interactions sont ceux que l’algorithme va davantage mettre en avant. 

C’est ainsi que les contenus les plus clivants et les tweets choquants sont ceux qui suscite le plus d’interactions que ce soit de likes et de partage d’utilisateurs d’accord ou de débats dans les commentaires entre utilisateurs qui ne partagent pas les propos avancés. Ceci contribue alors à la mise en avant sur la plateforme de déclarations racistes, sexistes, homophobe, antisémites et islamophobes faisant partie des thèmes préférentiels de l’extrême droite. Ses contenus relayés massivement et s’appuyant souvent sur des mauvaises informations ou des fausses informations finissent par rendre audibles des idées jusqu’ici impensables et donc contribuent à déplacer la fenêtre d’Overton. Ce mécanisme pourrait même se voir amplifier dans les prochains mois avec la bascule en train de s’opérer sur les utilisateurs de X. 

Twitter sous Elon Musk : un laboratoire algorithmique pour l’extrême droite mondiale. 

Depuis son rachat par Elon Musk en octobre 2022, Twitter (rebaptisé X) a connu une transformation radicale de ses politiques de modérations, de ses algorithmes de recommandation et de son positionnement idéologique. Celui qui s’autoproclame « défenseur absolu de la liberté d’expression » – qualificatif lui permettant de faire la promotion de discours anti-démocratiques et en opposition avec les principes essentiels du droit international – a mis fin à de nombreux mécanismes de régulations internes. Parmi eux nous pouvons citer la suspension du conseil de sécurité, le licenciement des équipes chargées de la modération de contenus haineux ou encore la réactivation de nombreux comptes précédemment bannis pour incitation à la haine, désinformation ou propos violents (Donald Trump, Andrew Tate, …).

Ceci a entrainé une désertion massive de personnalités modérées, progressistes ou journalistiques, dénonçant l’augmentation des discours de haine et le manque de sécurité pour les utilisateurs vulnérables, laissant alors la plateforme entre les mains de l’extrême droite. Désormais des figures comme Jordan Peterson, Tucker Carlson ou encore Éric Zemmour ont pignon sur rue et la visibilité de leurs contributions est démultipliée par les logiques algorithmiques. Ce phénomène est accentué par des stratégies d’astroturfing : des campagnes coordonnées de désinformation menées par des comptes automatisés ou semi-automatisés, qui se chargent de relayer massivement certains contenus pour leur donner l’illusion d’une popularité organique. Les techniques sont diverses : création de faux comptes dédiés au retweet intensif, diffusion de tweets prêts à l’emploi sur des groupes Telegram ou Discord ou encore l’achat de likes ou de retweet manipulant la perception du débat. Dans ce contexte, X est devenu un écosystème favorable à la propagation des idées d’extrême droite qui ne sont pas seulement tolérées, mais parfois récompensées par une exposition accrue. L’effet de chambre d’écho s’en trouve renforcé : les utilisateurs interagissent de plus en plus entre eux dans des réseaux idéologiquement homogènes, où les discours de haine sont validés, partagés et banalisés. Ce rééquilibrage idéologique de la plateforme, combiné à sa logique d’amplification algorithmique, participe ainsi à un déplacement concret de la fenêtre d’Overton : ce qui était hier perçu comme inacceptable ou marginal s’installe aujourd’hui dans le débat public comme une opinion « controversée mais légitime ». 

CNews et la « stratégie Bannon »

La chaine d’information en continu relaie régulièrement un discours longtemps resté à la marge : les bienfaits de la colonisation, la remise en cause du droit du sol ou encore l’ensauvagement des jeunes de banlieues. Mais ce qui en fait une arme redoutablement efficace n’est pas tant la diffusion linéaire de ce genre de propos que la viralisation de ses séquences sur les réseaux sociaux et surtout sur X. Des extraits polémiques deviennent des mèmes, repris parfois par des comptes anonymes mais massivement suivis. On assiste ainsi à une boucle : les idées extrêmes sont lancées à l’antenne, amplifiées par les réseaux sociaux, intégrées dans le top de tendances twitter, reprises par des médias traditionnels… puis validées comme débat légitime. Cette volontée d’inonder l’espace public a été théorisé par un ex-conseiller de Donald Trump, Steve Bannon, par la maxime suivante : « Flood the zone with shit ». Cette phrase sert à présenter une stratégie de chaos informationnel ou l’espace public est saturé de contenus radicaux ou confus, afin de rendre audibles des idées jusqu’ici impensables. Cette stratégie, basée sur la répétition et l’outrance, s’exporte et trouve un terrain fertile sur les réseaux sociaux. C’est très certainement cela qui a inspiré Donald Trump lorsqu’il a déclaré lors du débat contre Kamala Harris que les migrants mangeaient des chiens et des chats. 

In Fine qu’en est-il ? 

L’effet cumulatif de ces dynamiques – chambres d’écho, amplification algorithmique, astroturfing, légitimation médiatique – contribue bel et bien à rendre certaines idées plus visibles, plus acceptables, voire mainstream. Le glissement du débat sur les retraites, l’immigration ou la sécurité montre que des thématiques jadis cantonnées à l’extrême droite irriguent aujourd’hui le débat politique « classique ». Mais attention aux effets de loupe car l’importance réelle des chambres d’écho est souvent surestimée par les médias traditionnels, qui y voient une menace à leur propre légitimité​. Il serait ainsi intéressant de coupler des analyses algorithmiques à d’autres plus sociologique et ce surtout depuis la transformation de X pour mettre à jour les termes de bulles de filtres ou des chambres d’échos en y intégrant d’autres facteurs.  



Victor de Beja

Sources

Bruns, A. (2019). Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem. Digital Media Research Centre. https://www.taylorfrancis.com/reader/download/4aa190ba-1ab1-4e69-b193-68979c469b18/chapter/pdf?context=ubx

Cardon, D. (2019). À quoi rêvent les algorithmes : Nos vies à l’heure des big data. Seuil.

CScience. (2022). Les chambres d’écho et la perte de notre sens critiquehttps://www.cscience.ca/analyse-les-chambres-decho-et-la-perte-de-notre-sens-critique/

Darras, É. (2017). Les faux-semblants du Front National. Presses de Sciences Po. Cairn

Le Monde. (2022, 16 février). La fenêtre d’Overton ou le champ de l’acceptable en politiquehttps://www.lemonde.fr/idees/article/2022/02/16/la-fenetre-d-overton-ou-le-champ-de-l-acceptable-en-politique_6113836_3232.html

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.

Fletcher, R., Cornia, A., Graves, L., & Nielsen, R. K. (2020). How Many People Live in Politically Partisan Online News Echo Chambers in Different Countries?. Reuters Institute.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Quitter la version mobile