Extrême droite et réseaux sociaux : vers une normalisation idéologique par la viralité

Dans quelles mesures les chambres d’écho des médias d’extrême droite participent au déplacement de la fenêtre d’Overton ? 

Le 28 janvier dernier, le ministre de la Justice, Gérald Darmanin était l’invité de Pascal Praud sur la chaine CNews pour évoquer les solutions qu’il souhaitait mettre en place pour lutter contre la délinquance. A cette occasion, le présentateur de l’émission controversé l’heure des pros, pose à son invité la question suivante : « Est-ce que vous avez pensé à rouvrir les bagnes ? ». Bien que ces propos puissent sembler particulièrement choquants voir hors du domaine de l’entendable ils participent à un mécanisme bien connu des sciences politiques : celui de déplacer la fenêtre d’Overton. La fenêtre d’Overton définit le périmètre de ce qui peut être dit au sein d’une société, c’est-à-dire les idées qui sont jugées acceptables par une population. A l’extérieure de cette fenêtre, se trouvent les idées radicales rejetées par la majorité d’une population. A l’image de la société, la fenêtre d’Overton n’est pas figée, elle correspond au cadre du dicible dans une société donnée à une époque précise. C’est ainsi qu’elle se déplace au gré de l’évolution des normes et des valeurs au cours d’un processus lent mais certains acteurs du monde médiatique et numérique œuvrent à déplacer cette fenêtre. 

Chambres d’écho et bulles de filtres : de quoi parle-t-on ? 

Dans ce processus, les chambres d‘échos et en particulier celles des sphères de l’extrême droite sont régulièrement pointées du doigts mais nous pouvons nous interroger sur leur réel impact dans le déplacement de la fenêtre d’Overton. Les chambres d’échos médiatiques désignent, une situation dans laquelle l’information, les idées, ou les croyances sont amplifiées ou renforcées par la communication et la répétition dans un système défini. Ce phénomène repose sur l’amplification : plus une infirmation est partagée, plus elle semble crédible et ceci qu’elle soit avérée ou totalement erronée. Les chambres d’échos sont souvent associées aux bulles de filtres qui sont un concept développé par Eli Pariser dans son ouvrage The Filter Bubble publié en 2011. Ce phénomène représente selon lui « l’univers personnel d’informations » qui nous est proposé par des filtres personnalisés sur les réseaux sociaux, mais également des moteurs de recherche. En d’autres termes, la personnalisation des contenus sur les réseaux sociaux au moyen des algorithmes, principe inhérent de ces plateformes, qui a pour but de maximiser l’engagement des utilisateurs limiterait l’exposition à des opinions divergentes et donc renforceraient le mécanisme des chambres d’échos.

Néanmoins de nombreuses études relativisent leur importance et notamment celles de Fletcher et al. intitulé How Many People Live in Politcally Partisan Online News Echo Chambers in Différent Countries concluant qu’en réalité seulement 5% des internautes se retrouvent réellement dans des écosystèmes médiatiques partisans fermés. 

En réalité, les algorithmes des réseaux sociaux ne peuvent pas expliquer à eux seuls le déplacement de la fenêtre d’Overton car ils ne peuvent pas être complètement décorrélés des préférences des individus qui ont toujours existées et ce bien avant l’arrivée des réseaux sociaux. Ce que nous expose Alex Bruns dans « Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem » est que l’homophilie se donne à voir depuis longtemps dans les sociétés et n’est pas une nouveauté liée au monde numérique. Les individus ont toujours préféré être exposés à des contenus résonnant avec leur système de valeur et leurs idéologies, les réseaux ont juste permis de massifier l’accès à des contenus préférentiels. Finalement comme nous le dit Dominique Cardon « la bulle c’est nous qui la créons » en choisissant nos amis, nos sources et nos médias. 

Bien que l’impact réel des bulles de filtres soit remis en cause par de nombreuses études, le phénomène des chambres d’échos dans les sphères d’extrême droite n’est pas complètement à mettre de côté pour autant. En effet, en analysant le fonctionnement des algorithmes des réseaux sociaux, nous voyons que les contenus qui suscitent le plus d’interactions sont ceux que l’algorithme va davantage mettre en avant. 

C’est ainsi que les contenus les plus clivants et les tweets choquants sont ceux qui suscite le plus d’interactions que ce soit de likes et de partage d’utilisateurs d’accord ou de débats dans les commentaires entre utilisateurs qui ne partagent pas les propos avancés. Ceci contribue alors à la mise en avant sur la plateforme de déclarations racistes, sexistes, homophobe, antisémites et islamophobes faisant partie des thèmes préférentiels de l’extrême droite. Ses contenus relayés massivement et s’appuyant souvent sur des mauvaises informations ou des fausses informations finissent par rendre audibles des idées jusqu’ici impensables et donc contribuent à déplacer la fenêtre d’Overton. Ce mécanisme pourrait même se voir amplifier dans les prochains mois avec la bascule en train de s’opérer sur les utilisateurs de X. 

Twitter sous Elon Musk : un laboratoire algorithmique pour l’extrême droite mondiale. 

Depuis son rachat par Elon Musk en octobre 2022, Twitter (rebaptisé X) a connu une transformation radicale de ses politiques de modérations, de ses algorithmes de recommandation et de son positionnement idéologique. Celui qui s’autoproclame « défenseur absolu de la liberté d’expression » – qualificatif lui permettant de faire la promotion de discours anti-démocratiques et en opposition avec les principes essentiels du droit international – a mis fin à de nombreux mécanismes de régulations internes. Parmi eux nous pouvons citer la suspension du conseil de sécurité, le licenciement des équipes chargées de la modération de contenus haineux ou encore la réactivation de nombreux comptes précédemment bannis pour incitation à la haine, désinformation ou propos violents (Donald Trump, Andrew Tate, …).

Ceci a entrainé une désertion massive de personnalités modérées, progressistes ou journalistiques, dénonçant l’augmentation des discours de haine et le manque de sécurité pour les utilisateurs vulnérables, laissant alors la plateforme entre les mains de l’extrême droite. Désormais des figures comme Jordan Peterson, Tucker Carlson ou encore Éric Zemmour ont pignon sur rue et la visibilité de leurs contributions est démultipliée par les logiques algorithmiques. Ce phénomène est accentué par des stratégies d’astroturfing : des campagnes coordonnées de désinformation menées par des comptes automatisés ou semi-automatisés, qui se chargent de relayer massivement certains contenus pour leur donner l’illusion d’une popularité organique. Les techniques sont diverses : création de faux comptes dédiés au retweet intensif, diffusion de tweets prêts à l’emploi sur des groupes Telegram ou Discord ou encore l’achat de likes ou de retweet manipulant la perception du débat. Dans ce contexte, X est devenu un écosystème favorable à la propagation des idées d’extrême droite qui ne sont pas seulement tolérées, mais parfois récompensées par une exposition accrue. L’effet de chambre d’écho s’en trouve renforcé : les utilisateurs interagissent de plus en plus entre eux dans des réseaux idéologiquement homogènes, où les discours de haine sont validés, partagés et banalisés. Ce rééquilibrage idéologique de la plateforme, combiné à sa logique d’amplification algorithmique, participe ainsi à un déplacement concret de la fenêtre d’Overton : ce qui était hier perçu comme inacceptable ou marginal s’installe aujourd’hui dans le débat public comme une opinion « controversée mais légitime ». 

CNews et la « stratégie Bannon »

La chaine d’information en continu relaie régulièrement un discours longtemps resté à la marge : les bienfaits de la colonisation, la remise en cause du droit du sol ou encore l’ensauvagement des jeunes de banlieues. Mais ce qui en fait une arme redoutablement efficace n’est pas tant la diffusion linéaire de ce genre de propos que la viralisation de ses séquences sur les réseaux sociaux et surtout sur X. Des extraits polémiques deviennent des mèmes, repris parfois par des comptes anonymes mais massivement suivis. On assiste ainsi à une boucle : les idées extrêmes sont lancées à l’antenne, amplifiées par les réseaux sociaux, intégrées dans le top de tendances twitter, reprises par des médias traditionnels… puis validées comme débat légitime. Cette volontée d’inonder l’espace public a été théorisé par un ex-conseiller de Donald Trump, Steve Bannon, par la maxime suivante : « Flood the zone with shit ». Cette phrase sert à présenter une stratégie de chaos informationnel ou l’espace public est saturé de contenus radicaux ou confus, afin de rendre audibles des idées jusqu’ici impensables. Cette stratégie, basée sur la répétition et l’outrance, s’exporte et trouve un terrain fertile sur les réseaux sociaux. C’est très certainement cela qui a inspiré Donald Trump lorsqu’il a déclaré lors du débat contre Kamala Harris que les migrants mangeaient des chiens et des chats. 

In Fine qu’en est-il ? 

L’effet cumulatif de ces dynamiques – chambres d’écho, amplification algorithmique, astroturfing, légitimation médiatique – contribue bel et bien à rendre certaines idées plus visibles, plus acceptables, voire mainstream. Le glissement du débat sur les retraites, l’immigration ou la sécurité montre que des thématiques jadis cantonnées à l’extrême droite irriguent aujourd’hui le débat politique « classique ». Mais attention aux effets de loupe car l’importance réelle des chambres d’écho est souvent surestimée par les médias traditionnels, qui y voient une menace à leur propre légitimité​. Il serait ainsi intéressant de coupler des analyses algorithmiques à d’autres plus sociologique et ce surtout depuis la transformation de X pour mettre à jour les termes de bulles de filtres ou des chambres d’échos en y intégrant d’autres facteurs.  



Victor de Beja

Sources

Bruns, A. (2019). Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem. Digital Media Research Centre. https://www.taylorfrancis.com/reader/download/4aa190ba-1ab1-4e69-b193-68979c469b18/chapter/pdf?context=ubx

Cardon, D. (2019). À quoi rêvent les algorithmes : Nos vies à l’heure des big data. Seuil.

CScience. (2022). Les chambres d’écho et la perte de notre sens critiquehttps://www.cscience.ca/analyse-les-chambres-decho-et-la-perte-de-notre-sens-critique/

Darras, É. (2017). Les faux-semblants du Front National. Presses de Sciences Po. Cairn

Le Monde. (2022, 16 février). La fenêtre d’Overton ou le champ de l’acceptable en politiquehttps://www.lemonde.fr/idees/article/2022/02/16/la-fenetre-d-overton-ou-le-champ-de-l-acceptable-en-politique_6113836_3232.html

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.

Fletcher, R., Cornia, A., Graves, L., & Nielsen, R. K. (2020). How Many People Live in Politically Partisan Online News Echo Chambers in Different Countries?. Reuters Institute.


Les bulles de filtre : une influence sociale et politique ?

Parmi les nombreuses critiques récentes issues de la presse occidentale du réseau social TikTok, revient souvent l’idée que l’application du géant chinois Byte Dance favoriserait la création de bulles de filtre, et ce bien plus que ses concurrents comme Facebook, Instagram, Twitter ou même LinkedIn.

L’existence des bulles de filtre

Concept souvent répandu au sein des presses presque lobbystes « anti réseaux sociaux » mais finalement assez peu démontré, la bulle de filtre est décrite par Eli Rider comme « l’état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d’une personnalisation mise en place à son insu ».

Ainsi, en utilisant diverses données collectées sur les utilisateurs, des algorithmes déterminent les contenus qui leur seront accessibles. L’expression « bulle de filtres » illustre l’isolement résultant de ce mécanisme : chaque utilisateur navigue dans une version unique du web, adaptée à ses préférences et créant donc une « bulle » personnalisée.

Stratégies d’audience et algorithmes

En conséquence de leurs modèles d’affaires centrés sur le contenu et la data, les grandes entreprises d’internet développent des stratégies d’audience reposant sur la hiérarchisation des pages web dictée par l’implémentation d’algorithmes, comme le Page Rank de Google, qui offre plus de visibilité aux pages les plus citées, liées et commentées. Et l’on retrouve également ces mêmes types de stratégies sur les réseaux sociaux.

Dans A quoi rêvent les algorithmes ? , Dominique Cardon explique que « les calculateurs reproduisent l’ordre social ».

Ces algorithmes trient et hiérarchisent les informations, sans que l’on sache précisément leurs composantes techniques. Ces actions ont des visées commerciales, en présentant aux utilisateurs des publicités adaptées à leur profil. On assiste donc à une « personnalisation » de l’information.

De plus, les algorithmes renforcent la culture du « winner takes all » : grâce aux recommandations, plus un contenu est vu, plus il sera suggéré à d’autres utilisateurs. Celui-ci entre alors dans un cercle vertueux (ou vicieux ?), au détriment des autres contenus qui sont complètement négligés. C’est pour cette raison que les algorithmes ont tendance à rendre certaines informations invisibles. Et ces derrière ces deux concepts que se cache celui de la chambre d’écho, au cœur du débat sur les bulles de filtre. Cette notion fait référence à l’idée que les réseaux sociaux, en créant un environnement cognitivement homogène, nous renvoient une image emprisonnant de nous-mêmes, validant ainsi nos opinions et croyances préexistantes et annihilant notre libre arbitre.

Renforcement de l’entre-soi idéologique et fragmentation de la réalité sociale

Ce constat un tant soit peu dramatique est susceptible d’entraîner des conséquences directs sur la politisation des individus. L’entre-soi idéologique serait donc favorisé par Internet et plus particulièrement par les réseaux sociaux. Les forums tels que « jeuxvideo.com » sont connus pour abriter une communauté d’extrême droite ou de droite radicale, créant une chambre d’écho où ces idées sont renforcées. Les utilisateurs opposés à ces idéologies évitent généralement ce site, ce qui explique le faible nombre de signalements. En revanche, Facebook et Twitter rassemblent des communautés et opinions diverses, ce qui peut entraîner des confrontations idéologiques et plus de signalements de contenus discriminatoires. De plus, les algorithmes de recommandation sur des plateformes comme Instagram ou TikTok maintiennent ces bulles en utilisant les traces numériques telles que les likes, les re-visionnages ou les commentaires sur du contenu d’extrême droite par exemple. Le contenu suivant sera alors influencé par ces traces. Cela conduit à une information biaisée, concentrée sur des thématiques réactionnaires, identitaires, racistes ou xénophobes.

En fin de compte, les individus se retrouvent dans une réalité fragmentée, contribuant ainsi à la segmentation de la société. Les groupes sociaux continuent d’exister sur Internet et l’idée d’un internet en dehors du monde est illusoire. Les nouvelles technologies ne modifient pas fondamentalement les rapports sociaux hors ligne. Les conflits et dynamiques sociales existent indépendamment de l’Internet. Les individus ont une existence sociale qui dépasse le contexte en ligne et leur comportement sur Internet est souvent influencé par leur réalité sociale et leur identité en dehors de la sphère numérique. Cependant, cette existence sociale est renforcée par ces réseaux. Pendant les années 2015 et 2016, marquées par une vague d’attentats terroristes en France, le nombre de signalements de contenus haineux en ligne a connu une augmentation significative. Les catégories de contenus les plus signalées étaient celles impliquant des « provocations publiques à la haine et la discrimination raciale, ethnique ou religieuse », des « apologies de crimes de guerre et contre l’humanité », ainsi que des « injures ou diffamations xénophobes ou discriminatoires ».  Cette corrélation entre les événements majeurs tels que les attentats et l’augmentation des signalements démontre en partie que les réseaux sociaux peuvent refléter voire amplifier les phénomènes sociaux qui se produisent à l’extérieur comme en témoigne l’augmentation des rixes mortels entre jeunes dans les quartiers populaires.

Au-delà des limites des bulles de filtre : la démocratisation de l’espace public

Ce constat ne doit cependant pas devenir dogmatique car Internet reste selon Dominique Cardon un des meilleurs moyens de démocratisation  de l’espace public. Dans La démocratie Internet, Internet est décrit comme le moyen d’un élargissement de l’espace public, favorisant sa démocratisation. L’auteur soutient que l’apparition de nouveaux acteurs dans l’espace public a entraîné la levée des obstacles qui bloquaient l’accès à la parole, et a multiplié des formes des expressions publiques plus subjectives, personnelles et privées via les réseaux sociaux.

« Internet pousse les murs de l’espace public, tout en enlevant le plancher ».

Internet a bouleversé la hiérarchie des émetteurs de savoir et de vérité, autrefois presque incontestable dans les médias de masse traditionnels. Aujourd’hui, l’autorité ne repose plus uniquement sur quelques institutions médiatiques établies, telles que les journaux, les chaînes de télévision et les radios. Internet a permis à n’importe qui de devenir un émetteur potentiel de savoir et d’informations. Les plateformes en ligne, comme les blogs, les réseaux sociaux et les sites web indépendants, offrent à chacun la possibilité de partager ses idées, opinions et connaissances avec un public potentiellement mondial. Cette démocratisation de la production de contenu a donné lieu à une multitude de sources d’information accessibles aux individus, renforçant en théorie l’idée de neutralité globale des réseaux. Cela remet en question les médias de masse, les nouveaux médias étant perçus à différents moments comme une avancée, une libération des formes de communication traditionnelles, favorisant une meilleure interconnexion entre les individus et un nouveau lien social.

Fractures informationnelles et polarisation du paysage médiatique

Si le marché de l’information s’est profondément transformé avec l’émergence des réseaux, les médias traditionnels restent assez consommés en particulier en France. Il semble donc intéressant d’analyser la polarisation de l’espace médiatique français pour comprendre les fractures informationnelles auxquelles contribuent les bulles de filtres des nouveaux médias.

Selon un rapport publié par l’Institut Montaigne, Bruno Patino, Dominique Cardon et Théophile Lenoir affirment que le champ médiatique en France est structuré selon un axe vertical, avec d’un côté les médias du centre et de l’autre les médias périphériques, tandis qu’aux États-Unis, il est polarisé selon un axe gauche droite horizontal. Cependant, quel que soit le pays, les réseaux sociaux proches du centre sont utilisés par une population d’individus diplômés de l’enseignement supérieur : « C’est en fait un monde social qui élargit le champ des dominants : hommes politiques, journalistes, urbains, etc. ».

Ainsi, cette polarisation se répercute sur les réseaux sociaux. Dans les médias du centre, les plus institutionnalisés, dont Twitter et Facebook sont relativement proches, la circulation de l’information fonctionne différemment que dans les espaces les plus éloignés de ce centre. Une fraction de la population se voit exclue de l’espace public prédominant où elle forge sa relation avec le monde, en s’opposant aux médias centraux. Les « fake news » résultent alors d’une opposition sociale entre le public central et le public périphérique. Pour qu’une fausse information soit crédible, elle doit être soutenue par une personne ayant une certaine autorité. Ce phénomène, appelé « blanchiment d’information » développé par Dominique Cardon, implique que des personnalités influentes légitiment cette information. Les « fake news » ne peuvent se propager que si des individus y croient, les diffusent, les ciblent et les adaptent pour les intégrer à l’agenda médiatique, souvent en créant une communauté. Les milieux d’extrême droite identitaires utilisent principalement cette tactique en diffusant des informations exagérées, manipulées ou sorties de leur contexte, renforçant ainsi les bulles de filtres et confortant leurs partisans. Et on assiste de plus en plus à un glissement dangereux de certains médias et réseaux sociaux.

Une influence palpable pour qui ?

En conclusion, Internet et les réseaux sociaux reflète nos comportements dans le monde réel en les modifiant légèrement. Si un individu évolue dans un environnement socialement homogène, fermé ou de niche comme les mouvements identitaires, la « bulle » aura une influence significative amplifiante. Nonobstant, beaucoup de progrès techniques offrent désormais la possibilité aux individus même marginalisés de retrouver leur libre arbitre par un contrôle technique des filtres.

Mais pour la majorité de la population, il est compliqué de prouver que les réseaux sociaux via les bulles de filtre emprisonnent les individus. Les réseaux sociaux formeraient en fait une multitude de communautés où les informations circuleraient entre elles via les liens faibles augmentant ainsi la neutralité. En outre, l’irrationalité psychologique des individus est telle qu’il est difficile d’affirmer avec certitude que les propositions de contenu des algorithmes exercent une grande influence sur nos comportement sociaux et politiques, pour une majorité modérée aux sources informationnelles diverses en tout cas…

Bibliographie

  • Dominique Cardon : A quoi rêvent les algorithmes ?
  • Dominique Cardon : La Démocratie d’Internet
  • Institut Montaigne : Bruno Patino, Dominique Cardon et Théophile Lenoir
  • ENS Lyon
  • Wikipédia
  • Le Monde
  • Le Bilan
  • Le Figaro
  • Radio France
  • L’Obs
  • France Culture
  • Libération
  • Le Parisien
  • Le Journal du Net
  • La Gazette des Communes
  • L’internaute

Un article écrit par Jonathan Lévy Guillain

Quitter la version mobile