Les bulles de filtre : une influence sociale et politique ?

Parmi les nombreuses critiques récentes issues de la presse occidentale du réseau social TikTok, revient souvent l’idée que l’application du géant chinois Byte Dance favoriserait la création de bulles de filtre, et ce bien plus que ses concurrents comme Facebook, Instagram, Twitter ou même LinkedIn.

L’existence des bulles de filtre

Concept souvent répandu au sein des presses presque lobbystes « anti réseaux sociaux » mais finalement assez peu démontré, la bulle de filtre est décrite par Eli Rider comme « l’état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d’une personnalisation mise en place à son insu ».

Ainsi, en utilisant diverses données collectées sur les utilisateurs, des algorithmes déterminent les contenus qui leur seront accessibles. L’expression « bulle de filtres » illustre l’isolement résultant de ce mécanisme : chaque utilisateur navigue dans une version unique du web, adaptée à ses préférences et créant donc une « bulle » personnalisée.

Stratégies d’audience et algorithmes

En conséquence de leurs modèles d’affaires centrés sur le contenu et la data, les grandes entreprises d’internet développent des stratégies d’audience reposant sur la hiérarchisation des pages web dictée par l’implémentation d’algorithmes, comme le Page Rank de Google, qui offre plus de visibilité aux pages les plus citées, liées et commentées. Et l’on retrouve également ces mêmes types de stratégies sur les réseaux sociaux.

Dans A quoi rêvent les algorithmes ? , Dominique Cardon explique que « les calculateurs reproduisent l’ordre social ».

Ces algorithmes trient et hiérarchisent les informations, sans que l’on sache précisément leurs composantes techniques. Ces actions ont des visées commerciales, en présentant aux utilisateurs des publicités adaptées à leur profil. On assiste donc à une « personnalisation » de l’information.

De plus, les algorithmes renforcent la culture du « winner takes all » : grâce aux recommandations, plus un contenu est vu, plus il sera suggéré à d’autres utilisateurs. Celui-ci entre alors dans un cercle vertueux (ou vicieux ?), au détriment des autres contenus qui sont complètement négligés. C’est pour cette raison que les algorithmes ont tendance à rendre certaines informations invisibles. Et ces derrière ces deux concepts que se cache celui de la chambre d’écho, au cœur du débat sur les bulles de filtre. Cette notion fait référence à l’idée que les réseaux sociaux, en créant un environnement cognitivement homogène, nous renvoient une image emprisonnant de nous-mêmes, validant ainsi nos opinions et croyances préexistantes et annihilant notre libre arbitre.

Renforcement de l’entre-soi idéologique et fragmentation de la réalité sociale

Ce constat un tant soit peu dramatique est susceptible d’entraîner des conséquences directs sur la politisation des individus. L’entre-soi idéologique serait donc favorisé par Internet et plus particulièrement par les réseaux sociaux. Les forums tels que « jeuxvideo.com » sont connus pour abriter une communauté d’extrême droite ou de droite radicale, créant une chambre d’écho où ces idées sont renforcées. Les utilisateurs opposés à ces idéologies évitent généralement ce site, ce qui explique le faible nombre de signalements. En revanche, Facebook et Twitter rassemblent des communautés et opinions diverses, ce qui peut entraîner des confrontations idéologiques et plus de signalements de contenus discriminatoires. De plus, les algorithmes de recommandation sur des plateformes comme Instagram ou TikTok maintiennent ces bulles en utilisant les traces numériques telles que les likes, les re-visionnages ou les commentaires sur du contenu d’extrême droite par exemple. Le contenu suivant sera alors influencé par ces traces. Cela conduit à une information biaisée, concentrée sur des thématiques réactionnaires, identitaires, racistes ou xénophobes.

En fin de compte, les individus se retrouvent dans une réalité fragmentée, contribuant ainsi à la segmentation de la société. Les groupes sociaux continuent d’exister sur Internet et l’idée d’un internet en dehors du monde est illusoire. Les nouvelles technologies ne modifient pas fondamentalement les rapports sociaux hors ligne. Les conflits et dynamiques sociales existent indépendamment de l’Internet. Les individus ont une existence sociale qui dépasse le contexte en ligne et leur comportement sur Internet est souvent influencé par leur réalité sociale et leur identité en dehors de la sphère numérique. Cependant, cette existence sociale est renforcée par ces réseaux. Pendant les années 2015 et 2016, marquées par une vague d’attentats terroristes en France, le nombre de signalements de contenus haineux en ligne a connu une augmentation significative. Les catégories de contenus les plus signalées étaient celles impliquant des « provocations publiques à la haine et la discrimination raciale, ethnique ou religieuse », des « apologies de crimes de guerre et contre l’humanité », ainsi que des « injures ou diffamations xénophobes ou discriminatoires ».  Cette corrélation entre les événements majeurs tels que les attentats et l’augmentation des signalements démontre en partie que les réseaux sociaux peuvent refléter voire amplifier les phénomènes sociaux qui se produisent à l’extérieur comme en témoigne l’augmentation des rixes mortels entre jeunes dans les quartiers populaires.

Au-delà des limites des bulles de filtre : la démocratisation de l’espace public

Ce constat ne doit cependant pas devenir dogmatique car Internet reste selon Dominique Cardon un des meilleurs moyens de démocratisation  de l’espace public. Dans La démocratie Internet, Internet est décrit comme le moyen d’un élargissement de l’espace public, favorisant sa démocratisation. L’auteur soutient que l’apparition de nouveaux acteurs dans l’espace public a entraîné la levée des obstacles qui bloquaient l’accès à la parole, et a multiplié des formes des expressions publiques plus subjectives, personnelles et privées via les réseaux sociaux.

« Internet pousse les murs de l’espace public, tout en enlevant le plancher ».

Internet a bouleversé la hiérarchie des émetteurs de savoir et de vérité, autrefois presque incontestable dans les médias de masse traditionnels. Aujourd’hui, l’autorité ne repose plus uniquement sur quelques institutions médiatiques établies, telles que les journaux, les chaînes de télévision et les radios. Internet a permis à n’importe qui de devenir un émetteur potentiel de savoir et d’informations. Les plateformes en ligne, comme les blogs, les réseaux sociaux et les sites web indépendants, offrent à chacun la possibilité de partager ses idées, opinions et connaissances avec un public potentiellement mondial. Cette démocratisation de la production de contenu a donné lieu à une multitude de sources d’information accessibles aux individus, renforçant en théorie l’idée de neutralité globale des réseaux. Cela remet en question les médias de masse, les nouveaux médias étant perçus à différents moments comme une avancée, une libération des formes de communication traditionnelles, favorisant une meilleure interconnexion entre les individus et un nouveau lien social.

Fractures informationnelles et polarisation du paysage médiatique

Si le marché de l’information s’est profondément transformé avec l’émergence des réseaux, les médias traditionnels restent assez consommés en particulier en France. Il semble donc intéressant d’analyser la polarisation de l’espace médiatique français pour comprendre les fractures informationnelles auxquelles contribuent les bulles de filtres des nouveaux médias.

Selon un rapport publié par l’Institut Montaigne, Bruno Patino, Dominique Cardon et Théophile Lenoir affirment que le champ médiatique en France est structuré selon un axe vertical, avec d’un côté les médias du centre et de l’autre les médias périphériques, tandis qu’aux États-Unis, il est polarisé selon un axe gauche droite horizontal. Cependant, quel que soit le pays, les réseaux sociaux proches du centre sont utilisés par une population d’individus diplômés de l’enseignement supérieur : « C’est en fait un monde social qui élargit le champ des dominants : hommes politiques, journalistes, urbains, etc. ».

Ainsi, cette polarisation se répercute sur les réseaux sociaux. Dans les médias du centre, les plus institutionnalisés, dont Twitter et Facebook sont relativement proches, la circulation de l’information fonctionne différemment que dans les espaces les plus éloignés de ce centre. Une fraction de la population se voit exclue de l’espace public prédominant où elle forge sa relation avec le monde, en s’opposant aux médias centraux. Les « fake news » résultent alors d’une opposition sociale entre le public central et le public périphérique. Pour qu’une fausse information soit crédible, elle doit être soutenue par une personne ayant une certaine autorité. Ce phénomène, appelé « blanchiment d’information » développé par Dominique Cardon, implique que des personnalités influentes légitiment cette information. Les « fake news » ne peuvent se propager que si des individus y croient, les diffusent, les ciblent et les adaptent pour les intégrer à l’agenda médiatique, souvent en créant une communauté. Les milieux d’extrême droite identitaires utilisent principalement cette tactique en diffusant des informations exagérées, manipulées ou sorties de leur contexte, renforçant ainsi les bulles de filtres et confortant leurs partisans. Et on assiste de plus en plus à un glissement dangereux de certains médias et réseaux sociaux.

Une influence palpable pour qui ?

En conclusion, Internet et les réseaux sociaux reflète nos comportements dans le monde réel en les modifiant légèrement. Si un individu évolue dans un environnement socialement homogène, fermé ou de niche comme les mouvements identitaires, la « bulle » aura une influence significative amplifiante. Nonobstant, beaucoup de progrès techniques offrent désormais la possibilité aux individus même marginalisés de retrouver leur libre arbitre par un contrôle technique des filtres.

Mais pour la majorité de la population, il est compliqué de prouver que les réseaux sociaux via les bulles de filtre emprisonnent les individus. Les réseaux sociaux formeraient en fait une multitude de communautés où les informations circuleraient entre elles via les liens faibles augmentant ainsi la neutralité. En outre, l’irrationalité psychologique des individus est telle qu’il est difficile d’affirmer avec certitude que les propositions de contenu des algorithmes exercent une grande influence sur nos comportement sociaux et politiques, pour une majorité modérée aux sources informationnelles diverses en tout cas…

Bibliographie

  • Dominique Cardon : A quoi rêvent les algorithmes ?
  • Dominique Cardon : La Démocratie d’Internet
  • Institut Montaigne : Bruno Patino, Dominique Cardon et Théophile Lenoir
  • ENS Lyon
  • Wikipédia
  • Le Monde
  • Le Bilan
  • Le Figaro
  • Radio France
  • L’Obs
  • France Culture
  • Libération
  • Le Parisien
  • Le Journal du Net
  • La Gazette des Communes
  • L’internaute

Un article écrit par Jonathan Lévy Guillain

Algorithmes prédictifs : la fin du libre arbitre ?

Akindo – Getty Images

Omniprésents dans notre quotidien, les Géants du Net semblent satisfaire tous nos besoins numériques. L’émergence d’outils technologiques et d’algorithmes toujours plus performants facilite largement nos possibilités de communiquer, de nous informer, nous divertir, et même de consommer. Mais à quel prix ?

Derrière la gratuité de ces services, se cache en effet une addition peu ordinaire : l’exploitation de nos données et de nos préférences personnelles.

Cette monétisation des données utilisateurs voit le jour au début des années 2000, lorsque Google introduit la publicité dans son nouveau modèle économique. L’idée est simple : utiliser les données de navigation pour établir des profils utilisateurs et appréhender les préférences de chacun, afin d’orienter les annonceurs vers les individus susceptibles d’être intéressés par leurs offres. Progressivement, la donnée est ainsi devenue l’or noir des Géants du numérique, et les stratégies de ciblage se sont, depuis, normalisées. Aujourd’hui, nos parcours en ligne sont constamment analysés par les mastodontes qui établissent des profils utilisateurs toujours plus précis. Entre systèmes de recommandation et algorithmes prédictifs, nous sommes en permanence confrontés à des contenus qui nous ressemblent, favorisant notre intérêt et notre dépendance.

Mais cette personnalisation ne rimerait-elle pas avec manipulation ? En effet, derrière cette volonté de satisfaire nos attentes, les Géants sont accusés d’utiliser nos données pour affirmer leur position sur le marché numérique. Mais ce n’est pas tout. Il semblerait que leur influence ne se limite plus à nos simples écrans. Au-delà du bouleversement économique et politique dont ils sont l’origine, les grands acteurs du Web orienteraient désormais nos choix et notre jugement.

Face à cette emprise, une question apparaît donc comme légitime : quel espace reste-t-il à notre libre arbitre ?  

Vers un capitalisme de surveillance ?

Pour la sociologue Shoshana Zuboff, les Big Tech ont impulsé un basculement vers une nouvelle ère capitalistique, celle de la surveillance. Dans son ouvrage « L’âge du capitalisme de surveillance », elle montre comment ce nouveau modèle repose sur quelques acteurs dominants, qui ne se contentent plus de collecter et monétiser les données utilisateurs, mais bien de les exploiter selon leurs propres intérêts. Là où le capitalisme industriel exploitait la nature pour produire des sources d’énergie, le capitalisme de surveillance utiliserait désormais la nature humaine comme source de profit. Face à ces algorithmes prédictifs qui anticipent tout ce qui est susceptible de nous plaire et de nous maintenir en ligne, la sociologue est donc inquiète pour nos libertés fondamentales.

« Leur connaissance remplace notre liberté »

Alessandra Montalto – New York Times

Comment les géants du numérique s’immiscent dans nos vies ?

D’une part, en prenant le contrôle de nos paniers. Et leur influence sur nos achats ne se limite plus au simple ciblage publicitaire. L’exemple évoqué par Shoshana est celui de Pokémon Go. Ce jeu de réalité augmentée sur téléphone, visant à chasser des Pokémons dans la rue, guidait en fait les joueurs vers des enseignes bien réelles. Pokémon chassé, client appâté. Google avait en effet passé des accords avec certains commerces, comme McDonald’s ou Starbucks, pour multiplier les Pokémons dans ces zones-là, et pousser le client à la consommation.

Mais ce n’est pas tout, l’ultra-ciblage auquel nous sommes confrontés va également introduire les Géants dans notre intimité.

Plus nous passons de temps en ligne, plus nous sommes confrontés à des publicités, et plus les revenus des grandes entreprises numériques ont une chance d’augmenter. Ces dernières vont donc tout faire pour accroître notre temps passé devant les écrans, en nous proposant uniquement les contenus susceptibles de nous intéresser. Les algorithmes prédictifs vont ainsi garantir une offre sur mesure, à partir de critères précis de notre personnalité et de notre activité numérique (contenus likés et commentés, recherches effectuées, pages consultées par exemple). Notre existence est ainsi examinée avec soin : opinion politique, centres d’intérêt, préférences, déplacements, parcours en ligne … Et bien que l’offre qui en découle puisse s’avérer conforme à nos attentes (fils d’actualité dépouillés de tous contenus qui ne nous ressemblent pas), les algorithmes prédictifs viennent finalement nous conformer. Ils brident notre curiosité et nous privent d’une certaine autonomie dans nos jugements. Notre approche de l’information est impactée, et nous voilà enfermés dans des bulles de filtres, pour reprendre le terme du militant Eli Pariser.

Rose Wong

Sur les réseaux sociaux particulièrement, nous voyons ainsi défiler des contenus allant dans le sens de nos opinions. Confortés dans nos idées, trop peu confrontés à celles des autres. L’absence de débat nous donne l’impression que notre façon de penser est la bonne, ce qui vient largement influencer notre raisonnement. Ces bulles de filtres viennent aussi isoler l’utilisateur, amené à penser que sa perception est celle qui prévaut dans le monde extérieur. En effet, l’approbation excessive de notre opinion garantie par la bulle, engendre finalement une forme d’inconscience face aux réalités de l’actualité. A l’image de l’élection de Donald Trump en 2016, qui a surpris plus d’un démocrate. Dans le fil d’actualité des partisans d’Hillary Clinton, rien n’indiquait en effet que le candidat républicain pouvait réunir une majorité.

Les Géants du Net, par le biais des algorithmes prédictifs, viennent donc cloisonner notre vision du monde, entacher la remise en question et limiter la sérendipité. En nous proposant des contenus pertinents pour nous, ils viennent finalement contrôler notre accès à l’information et à la culture.

Reconquérir notre liberté

Les grandes entreprises numériques sont faciles à blâmer, mais il ne faut pas oublier qu’elles cherchent simplement à défendre leurs intérêts économiques. Alors oui, nos choix sont influencés et les services numériques opaques peuvent nuire à notre libre arbitre. Néanmoins, nous ne pouvons pas nier notre part de responsabilité dans cet enfermement, dans la mesure où nous choisissons la place que nous laissons aux algorithmes dans notre quotidien, et que ces derniers se basent sur nos propres comportements d’origine. Il est donc important de revoir nos habitudes de navigation et de ne plus interagir uniquement avec les contenus qui nous ressemblent. Il faut continuer de s’informer auprès de médias variés, entretenir notre esprit critique. Il est également essentiel de prendre du recul sur les services numériques, de mesurer notre dépendance, et de ne pas se laisser aveugler. C’est à nous de briser nos chaînes et de quitter le confort de notre bulle informationnelle. A nous de faire d’Internet un outil clé de la diversité d’opinions et de la démocratie, en multipliant nos recherches, nos sources d’informations, en nous confrontant aux idées divergentes. Diversifions nos centres d’intérêt et n’ayons pas peur de l’inconnu.

En bref, soyons curieux !

Free Your Mind par Akindo – Getty Images

Zélie Duban

Sources

Quitter la version mobile