Modération : à quand la fin de l’impunité sur les réseaux sociaux ?

Le phénomène d’émiettement identitaire, en corrélation avec l’utilisation grandissante des réseaux sociaux, s’aggrave ces dernières années entre l’espace physique et l’espace numérique. L’idée commune selon laquelle l’identité définie dans l’espace public disparaît au profit d’une autre identité sur Internet favorise le sentiment d’impunité et l’augmentation des contenus toxiques sur les espaces d’expression en ligne. Les tentatives de régulation ont été nombreuses, tant par les autorités publiques que par les plateformes elles-mêmes.

L’heure est au bilan sur l’état actuel de la modération des contenus en ligne.

Responsabilisation progressive des plateformes

Le 20 janvier 2022, le Parlement européen procédait à un vote sur la législation des services numériques, plus connue sous le nom de Digital Services Act (DSA). Ce texte vise notamment à obliger les géants du numérique à s’attaquer aux contenus illicites en ligne, tels que ceux favorisant l’incitation à la haine ou la désinformation. En effet, l’expression sur l’espace public numérique est structurée autour d’un marché oligopolistique (Facebook, Twitter, Google). C’est donc naturellement que l’attention politique et juridique s’est concentrée sur cette poignée d’acteurs en mettant en lumière leurs dérives et en alertant sur la présence grandissante des contenus haineux. Ces plateformes ont été contraintes d’accepter que leur rôle dépassait celui de simple hébergeur de contenus et ont pris leurs responsabilités en termes de modération et de régulation sur leurs interfaces.

Pour respecter ces nouveaux engagements, de nombreux outils ont été développés par les plateformes afin d’identifier les contenus toxiques. Une modération algorithmique automatisée et des équipes très conséquentes de modérateurs sont devenus deux piliers quasi-indispensables pour traiter une quantité aussi importante de contenus. Ces outils technologiques permettent notamment une modération ex ante, c’est-à-dire avant même que le contenu soit publié et donc visible par les utilisateurs. On parle alors d’une modération « industrielle », qui se différencie d’une modération dite « artisanale » effectuée par des équipes plus restreintes, avec une approche plus manuelle et une importance forte donnée à la contextualisation du contenu. La modération 100% automatisée n’est pas la solution parfaite puisqu’elle comprend son lot de risques, notamment en identifiant des contenus dits « faux positifs », c’est-à-dire modérés alors qu’ils n’auraient pas dû l’être, ou en incitant à une modération excessive, dite « modération préventive » des plateformes pour éviter des sanctions.

La modération ne se limite pas à l’identification des contenus problématiques, il faut ensuite savoir réagir au mieux pour limiter leur propagation ce qui ne passe pas nécessairement par la suppression. En effet, la modération par retrait du contenu peut avoir des effets néfastes comme l’augmentation des réactions toxiques en réponse à la suppression ou la légitimation du contenu supprimé aux yeux de certaines communautés. Les plateformes ont donc développé des méthodes alternatives, dites « graduelles », afin de limiter la visibilité du contenu sans avoir à le supprimer, tels que le déclassement ou le déréférencement du contenu ou sa mise en quarantaine. La propagation de ces contenus toxiques est en constante évolution, forçant les modérateurs à se renouveler et à innover régulièrement dans ce domaine.

Mythe de l’anonymat sur Internet

Malheureusement, la modération ne suffit pas toujours. Si les algorithmes des plateformes leurs permettent d’identifier la quasi-totalité des contenus à caractère illégal (Facebook déclare que « 99,5% des contenus terroristes ou pédopornographiques sont bloqués a priori, et automatiquement, avant même qu’un utilisateur ne puisse le voir. »), il leur est plus difficile de repérer d’autres comportements tels que le harcèlement en meute ou la diffusion de désinformations. 

Dans les cas où des enquêtes de police sont ouvertes, notamment lorsqu’une victime porte plainte, l’une des premières étapes consiste à identifier les responsables potentiels, généralement cachés derrière des pseudonymes qui sont à distinguer de l’anonymat. En effet, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 impose aux hébergeurs et opérateurs de conserver toutes les données de connexion (adresse postale, coordonnées bancaires, n° de téléphone, adresse IP, etc.) afin de pouvoir identifier la personne cachée derrière un pseudo. Ces données sont soumises au secret professionnel mais peuvent être communiquées à la justice en cas de demande. Ainsi, la levée d’un pseudonyme n’est jamais impossible en soi, au contraire, mais elle demande parfois énormément de temps et de moyens à la justice pour y parvenir.

Collaboration avec les services policiers et judiciaires

Lors d’une investigation sur les réseaux sociaux, les services de police tentent de corroborer les pistes en récupérant des traces numériques. Dans certains cas, les contenus en question sont partagés publiquement ce qui permet de répertorier rapidement des preuves. Cependant, lorsque les comptes sont cadenassés, cela doit passer par une réquisition invitant la plateforme à transmettre les données d’identification des comptes concernés. De nombreuses affaires de cyber-harcèlement, telles que l’affaire Mila ou la récente condamnation du Youtubeur Marvel Fitness, ont pu être portées en justice et aboutir à des condamnations grâce à cette collaboration entre les plateformes et les autorités publiques. 

Cependant, d’après Matthieu Audibert, commandement de la gendarmerie dans le cyber-espace, alors que les opérateurs français sont très réactifs et répondent en moyenne à ces demandes en 15 min, les hébergeurs américains s’avèrent généralement moins collaboratifs. Pour leurs exiger le transfert des données, il faut envoyer une réquisition directement à la société mère. Cela peut parfois nécessiter préalablement une demande d’enquête pénale internationale, suivi de l’envoi de la réquisition via le ministère de la justice français auprès d’un magistrat de liaison à Washington, qui transmettra ensuite au procureur de l’État américain de domiciliation de la plateforme. Cela va sans dire, ces cas de figure correspondent à des délais d’action de plusieurs mois, voir n’aboutissent parfois à aucun retour de la part de la plateforme concernée.

Le réseau Twitter est connu pour être le mauvais élève des réseaux sociaux en matière de collaboration avec la justice. L’avocat Éric Morain rappelle : « c’est une obligation dans le code de procédure pénale de déférer à ces réquisitions, et il ne viendrait pas à l’idée de la BNP, Orange ou Free de ne pas le faire. Les autorités adressent de la même façon régulièrement des réquisitions à Facebook ou à Twitter. […] Sauf que, si Facebook collabore depuis deux ou trois ans, en ce qui concerne Twitter, on reçoit des classements sans suite du parquet faute de collaboration. ». En janvier 2022, Twitter France et son DG Damien Viel ont été jugés pour « refus de répondre à une réquisition » et la Cour d’appel de Paris a confirmé une décision de juillet ordonnant à Twitter de détailler ses moyens de lutte contre la haine en ligne, jugés insuffisants.

Moins de lois, plus de moyens !

Une impunité importante persiste sur les réseaux sociaux et l’une des causes principales réside dans le manque de moyens accordés aux services de police et aux régulateurs. Avec plus de moyens, la justice pourrait réagir et condamner rapidement, ce qui refroidirait progressivement l’essor des contenus toxiques et ferait office de modération par incitation. La lenteur actuelle des décisions de condamnations est responsable du sentiment d’impunité récurrent sur Internet. Le mal français voudrait créer de nouvelles lois, épuiser les plateformes sous de nouvelles obligations, alors que la vraie solution serait de donner à la justice (l’un des ministères les moins bien financé) les moyens humains et financiers d’agir efficacement.

Actuellement, la plateforme Pharos en charge de la surveillance des contenus illicites sur Internet est sous-financée et sous-équipée, avec une vingtaine de cyber-gendarmes quand Facebook a plus de 15 000 personnes en charge de sa modération. Les missions sont éparpillées, les cyber-gendarmes n’ont accès qu’à ce qui est visible au public sur les plateformes et c’est les commissariats qui ont la charge d’examiner les conversations et groupes privés.

Par ailleurs, pour forcer ces super plateformes à respecter leurs obligations, l’échelle nationale ne semble pas la plus efficace puisque nos régulateurs semblent aujourd’hui incapables de faire respecter leurs propres mesures. Il est nécessaire d’engager les régulateurs à échelle européenne et de simplifier la définition des infractions en ligne afin de condamner régulièrement et jusqu’à l’épuisement les plateformes, plutôt que de sanctionner une fois par an ces géants du numérique, impassibles face aux montants de leurs condamnations précédentes.

Par Estelle Berdah


Sources

Lois et approches de la régulation

Modération des contenus : renouveler l’approche de la régulation, Renaissance numérique, Juin 2020

La haine en ligne, de nouvelles lois, pour quoi faire ?, Jean-Marie Portal, Mars 2021

Règlement européen : les plateformes en ligne ont désormais une heure pour retirer le contenu terroriste, Mathieu Pollet, Avril 2021

Haine en ligne : le Conseil constitutionnel censure le dispositif-clé de la loi Avia, Raphaël Balenieri, Juin 2020

Anonymat en ligne

« Renforcement de l’anonymat sur Internet », Arnaud Dimeglio, Août 2021

Il est temps d’arrêter de nous bassiner avec l’anonymat en ligne, Julien Lausson, Juillet 2020

Tout comprendre au débat sur l’anonymat sur Internet, Cécile Bertrand, Juillet 2020

Collaboration des plateformes

Twitter France et son directeur jugés pour ne pas avoir aidé la justice, Le Figaro, Janvier 2022

Twitter loses appeal in French case over online hate speech, Business Standard, Janvier 2022

Haine en ligne : Twitter, mauvais élève des réseaux sociaux, Raphaël Balenieri, Juillet 2020

VIDÉO – PODCAST

Tremblez les trolls : la fin de l’impunité sur les réseaux sociaux ?, Médias en Seine 2021

Le numérique, une zone de non-droit ? avec Simon Puech & Alexandre Archambault, Juin 2021

Quitter la version mobile