TikTok : future plateforme de référence pour les films et les séries ?

Envie de regarder le nouveau film « Barbie » gratuitement ? C’est possible sur TikTok, à condition d’accepter son découpage en 49 parties.

Sur TikTok, la diversité du contenu est frappante. On y trouve aussi bien des vidéos de danse virales, que des sketches comiques hilarants ou encore des conseils sur les relations amoureuses. En résumé, peu importe ce que vous recherchez ou pas, TikTok saura quelle vidéo vous montrer. 
Depuis quelques mois, un nouveau type de contenu prend de l’ampleur ou du moins, commence à faire parler.

Après avoir bouleversé l’industrie de la musique, TikTok s’attaque à celle de l’audiovisuel

Comme beaucoup de plateforme l’ont été avant elle, TikTok se transforme progressivement en « pirate de l’audiovisuel ». En effet, il est maintenant possible de regarder des films, des séries et des émissions télévisées, découpés en plusieurs parties et diffusés par des comptes TikTok dédiés à ce type de contenus. Ces contenus sont majoritairement mis en ligne de manière illégale. Les enregistrement clandestins, qu’il soient de films projetés au cinéma ou de contenus disponibles sur les plateformes de streaming, tous y passent. En outre, des séries populaires telles que « South Park » ou « Malcolm » sont présentes sur TikTok depuis un certain temps.


tractlljc4t sur TikTok

Ce mode de consommation peut sembler quelque peu déroutant. Cependant, il gagne en popularité au sein de la plateforme, et cela s’explique par plusieurs facteurs. 

Tout d’abord, ces séquences ont une capacité remarquable à capter et retenir l’attention des utilisateurs. En découpant un épisode de série en plusieurs parties, un compte peut publier une vidéo consistant uniquement en une scène riche en suspense, incitant ainsi les spectateurs à vouloir connaître la suite.
De plus, TikTok développe des fonctionnalités qui facilitent la consommation de ce type de contenus comme le « Clear Mode » ou le mode « Plein écran ».

Le rôle fondamental de l’algorithme de recommandation

Image par Katamaheen de Pixabay

Dans le fil d’actualité « Pour toi », les contenus découpés en plusieurs parties sont proposés aux utilisateurs de manière aléatoire,  ce qui contribue à la popularité de ce format. Dans un univers d’hyperchoix où une multitude d’options est constamment disponible, la fatigue décisionnelle se fait ressentir. Exacerbée par les choix infinis sur des plateformes comme Netflix, TikTok évite à l’utilisateur de se trouver dans cette situation d’anxiété en le conduisant directement au contenu. « Je suis déjà là, je suis déjà en train de le regarder, je suis déjà en train de faire défiler sur TikTok. » Voici ce que déclare un utilisateur à propos de TikTok (Wall Street Journal, 2023). Pas besoin d’aller sur une plateforme de streaming ou sur la télévision : TikTok dit à l’utilisateur quoi regarder. En résumé, avec l’algorithme de recommandation, les contenus sont presque servis sur un plateau d’argent.

L’algorithme de recommandation de TikTok contribue à mettre en lumière ces extraits dans les « Pour toi », permettant aux comptes TikTok de toucher un public plus large et d’augmenter leur visibilité. L’algorithme favorisant les vidéos regardées jusqu’à la fin, la plupart des contenus sont découpés par tranches de 3 à 5 minutes, bien que les vidéos peuvent aller jusqu’à 10 minutes. Ces vidéos courtes jouent aussi avec la frustration ressentie par l’utilisateur qui sera pousser à aller regarder d’autres vidéos ou à demander en commentaires quand est-ce que la partie suivante sera disponible. Il est important de noter que les commentaires jouent aussi un rôle important dans la recommandation par l’algorithme. 

Afin de ne pas se faire repérer par les algorithmes de modération, les créateurs ne publient pas les différentes parties d’un même contenu à la suite. Les parties sont souvent « uploadées » sur la plateforme à des heures ou jours d’intervalle, laissant le temps à la publication d’autres contenus. Autre particularité de ces vidéos, il est très rare de voir inscrit dans les descriptions le nom original du film, de la série ou de l’émission en question. Il s’agit d’une autre astuce utilisées pour éviter que la vidéos soient retirées de manière automatique de la plateforme.

Bien que ce type de visionnage puisse paraître atypique, il s’inscrit donc dans une stratégie de captation et de rétention de l’attention tout en exploitant les mécanismes propres à l’algorithme de TikTok pour maximiser la portée et l’impact du contenu publié.

Le cinéma se fait pirater, il prend les devants !

En 2020, Quibi, le service de streaming de vidéos courtes venu tout droit d’Hollywood n’a pas tenu longtemps sur le marché. Bien que ce fut un échec, le potentiel de ce type de contenu paraît aujourd’hui plus important que ce qu’il était il y a quelques années. Comme annoncé lors du festival Médias en Seine à Paris en 2023, l’une des prochaines tendances média qui se dessine est la nécessité de maitriser le format de vidéos verticales (Reuters Institute, 2023).

Neil Shyminsly, expert en Pop culture et professeur d’anglais au Cambrian College, affirme qu’ « il y a une crainte croissante que la programmation télévisuelle devienne de plus en plus courte à mesure que le succès est déterminé par l’algorithme de TikTok. » (CBCNews, 2023). 

Photo de Hannah Wernecke sur Unsplash

Effectivement, certains grands studios se sont déjà lancés dans la publication de contenus en plusieurs parties. Le 3 octobre 2023, à l’occasion du Mean Girls Day, Paramount à rendu disponible le temps d’une journée le film Mean Girls en intégralité, découpé en 23 parties sur son compte TikTok. « Les paramètres semblent évoluer », a déclaré Alex Alben, professeur de droit de l’internet et de la confidentialité à la Faculté de droit de l’UCLA. « Quelqu’un au sein du studio est en train de peser le fait qu’ils bénéficieraient davantage de la diffusion d’un extrait de leur film par des millions de personnes plutôt que de chercher à l’interdire. » (NewYorkTimes, 2023). Un représentant de Paramount a expliqué que la publication de « Mean Girls » sur TikTok visait à accroître la visibilité du film auprès d’un nouveau public potentiel (NewYorkTimes, 2023). Un coup marketing de la part du studio ? Très probable, sachant que le jour même, la sortie du nouveau « Mean Girls » au cinéma début janvier 2024 a été annoncée.

D’autres studios et plateformes de streaming ont très vite suivi. En août 2023, Peacock a publié un épisode de 2023 de la version américaine de « Love Island » ainsi qu’un épisode de « Killing It » divisé en 5 parties. Voici ce qu’Anupam Chander, professeur de droit et technologie à Georgetown, dit à ce propos : « Il peut être utile pour les détenteurs des droits d’auteur de voir leur travail distribué à un public plus large afin de susciter davantage d’intérêt pour ce travail et générer des ventes ultérieures. ». En réalité, certains détenteurs des droits de ces contenus, qu’ils soient publiés légalement ou non, pourraient profiter de cette tendance. Dans les faits, cela peut permettre de remettre au gout du jours d’anciens contenus et de booster la popularité de ceux qui en ont besoin. Il faut reconnaître que la capacité de TikTok à engager son public est forte et va au-delà des jeunes générations (InsiderIntelligence, 2023).

De nouvelles productions uniquement dédiées à TikTok

TikTok a vu émerger de nouvelles productions uniquement dédiées à sa plateforme. Dès 2020, plusieurs séries australiennes ont vu le jour telles que Love Songs, publiée par épisodes de 10 minutes ou Scattered, publiée en 38 épisodes de 1 minute. Récemment, Adam McKay, avec sa société de production Yellow Dot Studios, est devenu le premier producteur hollywoodien à investir dans une série diffusée uniquement sur TikTok. Intitulée « Cobell Energy », elle est diffusée depuis le 14 novembre 2023 sur la plateforme à raison de 2 épisodes par semaine.

cobellenergy sur Tiktok

Et le respect des droits d’auteur dans tout ça ?

Il est évident que la publication illégale de contenus sous droits pose question. Réguler ce type de contenus sur TikTok devient un challenge très complexe en comptant les 34 millions de vidéos postées par jour sur la plateforme. Comment gérer le sentiment de non-respect du travail accompli pour la réalisation d’un film, d’une série etc. ? Publier un contenu en plusieurs parties porte-t-il atteinte à la nature même de celui-ci ? Comment gérer le partage de revenu ? Beaucoup de questions n’ayant pas de réponses encore assez concrètes. 

Pour remédier à ces publications, trop nombreuses, de contenus allant à l’encontre des conditions d’utilisation de la plateforme, TikTok a mis en place un algorithme de détection des contenus sous droits d’auteur. En plus de cela, les détenteurs de ces droits ainsi que les utilisateurs peuvent signaler à la plateforme un contenu qu’ils considèrent comme « piraté ».
Avec l’arrivée du Digital Services Act en Europe, de nombreuses plateformes comme TikTok se sont vues imposées la mise en place de mécanismes de signalement mais aussi de contrôle plus soutenus de ces contenus illicites. En septembre 2023, TikTok a annoncé avoir supprimé plus de 4 millions de contenus jugés comme illicites par l’Union Européenne.

Finalement, il ne reste plus qu’à voir si ce type de consommation et de diffusion dépassera le stade de tendance et réussira à s’installer dans le temps.

Margot Brenier


Bibliographie

Alcántara, A. (2023, 16 septembre). People are streaming pirated movies on TikTok, one short clip at a time. WSJ. https://www.wsj.com/tech/tiktok-pirated-movies-free-2cd9389a

Croquet, P., & Trouvé, P. (2023, 9 octobre). On TikTok, the success of « sliced up » films and TV series. Le Monde.fr. https://www.lemonde.fr/en/pixels/article/2023/10/07/on-tiktok-the-success-of-sliced-up-films-and-tv-series_6155629_13.html

Holtermann, C., & Kircher, M. M. (2023, 4 octobre). ‘Mean Girls’ has a One-Day run on TikTok. The New York Times. https://www.nytimes.com/2023/10/04/style/tiktok-movies-mean-girls.html#:~:text=A%20Paramount%20representative%20wrote%20in,companies%20have%20experimented%20with%20TikTok.

Hoover, A. (2023, 14 novembre). TikTok is the new TV. WIRED. https://www.wired.com/story/tiktok-new-show-tv-takeover/

Murray, C. (2023, 24 octobre). Will ‘Don’t Look Up’ director’s new series work on TikTok ? It will need better luck than these social media efforts. Forbes. https://www.forbes.com/sites/conormurray/2023/10/24/will-dont-look-up-directors-new-series-work-on-tiktok-it-will-need-better-luck-than-these-social-media-efforts/?sh=42cf59fc5aa1

Radio-Canada. (2023, 15 juin). La transformation de TikTok en plateforme de diffusion, un clip piraté à la fois. Radio-Canada. https://ici.radio-canada.ca/nouvelle/1988120/tiktok-contenu-pirate-series-films-cinema-plateforme-diffusion-tendance

Rahmil, D. (2023, 28 septembre). Regarder Barbie par tranches de 3 minutes, c’est la vie de cinéphile que j’ai choisie. L’ADN. https://www.ladn.eu/media-mutants/tendance-tiktok-regarder-films-tranches/

Renaud-Chouraqui, E. (2024, 23 janvier). Quel sera l’impact du DSA dans la lutte contre la contrefaçon en ligne ? https://info.haas-avocats.com/droit-digital/quel-sera-limpact-du-dsa-dans-la-lutte-contre-la-contrefacon-en-ligne

Richards, J. (2021, 14 juin). TikTok TV : Aussie Gen Z drama ‘Scattered’ and the promise of a new platform. NME. https://www.nme.com/en_au/features/tv-interviews/tiktok-tv-aussie-gen-z-drama-scattered-2968680

Six, N. (2020, 8 avril). Quibi, le « Netflix » des vidéos courtes, se lance sur mobile aux Etats-Unis. Le Monde.fr. https://www.lemonde.fr/pixels/article/2020/04/07/quibi-le-netflix-des-videos-courtes-se-lance-sur-mobile-aux-etats-unis_6035878_4408996.html

Tingley, A. (2023, 14 novembre). Variety. Variety. https://variety.com/2023/digital/news/adam-mckay-yellow-dot-studios-cobell-energy-tiktok-series-ari-cagan-1235764568/

Régulation des réseaux sociaux : étude comparative France / États-Unis / Chine

Les tentatives internationales de régulation des mastodontes que sont les réseaux sociaux ont été nombreuses. Ces géants sont régulièrement au coeur des débats, suscitant la peur face à tant d’hégémonie et souvent qualifiés de « plus puissants que les États ».

L’heure est au bilan sur l’état actuel de cette régulation, avec une étude comparative de 3 visions : européenne, américaine et chinoise.

© Source : https://www.lebigdata.fr/dsa-digital-services-act-ue-censure

Digital Service Act (DSA) : l’Europe se met d’accord

Le 23 avril dernier a été marqué par la conclusion tant attendue d’un accord provisoire entre la Commission, le Conseil et le Parlement européen sur le projet de loi Digital Service Act (DSA). Emboitant le pas au Digital Market Act (DMA) dont l’accord provisoire a été obtenu en mars 2022, ce texte européen cible la régulation des contenus illicites en ligne et la modernisation du cadre légal déjà en vigueur. En complément de la régulation économique des plateforme « gatekeepers » proposée par le DMA, cette règlementation a pour but de rendre « ce qui est illégal hors ligne (…) illégal en ligne dans l’UE« , comme l’a déclaré Ursula von der Leyen, présidente de la Commission européenne. Il vise de nombreuses entreprises et plateformes, telles que les opérateurs, les marketplaces, les services de cloud et les réseaux sociaux, et instaure des obligations spécifiques aux plateformes dites « very large » (NDLR : les plateformes comptant plus de 45 millions d’utilisateurs actifs ) dans une optique de responsabilisation de ces dernières.

Au-delà des enjeux de traçabilité liés aux marketplaces et l’interdiction de la publicité ciblée à destination d’enfants auxquels s’attaque le DSA, de nombreuses obligations visent directement les réseaux sociaux et les pratiques en ligne telles que les discours haineux, la discrimination, le revenge porn et la publication de contenu illicite dans son ensemble. En pratique, ces mesures devraient permettrede lutter contre ces agissements et de signaler plus facilement lesdits contenus. On peut notamment noter l’obligation de retrait immédiat dans le cas de partage de contenus intimes non consentis par les victimes de cyber-violence. Les algorithmes, ingrédient secret des plateformes les plus performantes, ne sont pas épargnés : le texte exige plus de transparence quant à leur fonctionnement, obligeant les géants de la tech à fournir un accès à leur algorithme à la Commission européenne et aux États membres. Dès le 1 janvier 2024, date provisoire d’entrée en vigueur du texte, les entreprises en faute pourront risquer des amendes allant jusqu’à 6% de leur chiffre d’affaires mondial ainsi qu’une exclusion du marché européen.

Les États-unis tentent de rattraper leur retard

À travers ces initiatives de régulation, les lois européenne pourraient bien s’établir comme un modèle à l’international, comme s’en ai notamment réjouit la lanceuse d’alerte Francis Haugens « Allez les Etats-Unis, maintenant c’est notre tour » en faisant référence au projet du DSA.

En effet, bien que les travaux de parlementaires américains aient contribué à l’inspiration du projet DMA (NDLR : rapport de la sous-commission du droit antitrust, commercial et administratif de la commission judiciaire de la Chambre des représentants des États-Unis sur la concurrence sur les marchés numériques), le droit sur internet aux Etats-Unis est assez pauvre. Il se résume grossièrement à deux lois adoptées à la fin des années 90 : la section 230 du Communications Decency Act (CDA) qui garantit la liberté d’expression en ligne et le Children’s Online Privacy Protection Act (COPPA), qui vise la protection en ligne des enfants de moins de 13 ans. Cependant, les Etats-Unis semblent vouloir rattraper leur retard dans ce domaine. Joe Biden a déjà exprimé la nécessité de reformer la section 230 du CDA et plusieurs projets de loi ont récemment été introduits. Parmi eux, on retrouve le Kids Online Safety Act (KOSA) datant de février 2022, qui imposerait de nouvelles garanties, de nouveaux outils et de nouvelles exigences de transparence pour les mineurs en ligne de moins de 17 ans. Enfin, on peut également noter le Earn It Act (EIA), réintroduit en février dernier puis adopté, qui met en avant la lutte contre la diffusion de contenus pédopornographiques sur Internet.

En ce qui concerne spécifiquement les réseaux sociaux, la sénatrice Amy Klobuchar a introduit à la Commission fédérale du commerce le 10 février 2022 le projet de loi Social Media NUDGE Act (Nudging Users to Drive Good Experiences on Social Media). Ce projet doit permettre à la National Science Foundation (NSF) et à la National Academy of Sciences, Engineering, and Medicine (NASEM) de réaliser une étude sur les plateformes de médias sociaux et les questions d’addiction, de désinformation et de mise en avant de contenus dangereux en lien avec les algorithmes existants. Les enjeux de transparence sont également au cœur du projet, avec par exemple un rapport de transparence public requis tous les 6 mois pour les grandes entreprises des médias sociaux, tout comme les informations concernant la finalité des contenus signalés. Des enjeux sensiblement similaires à ceux portés par le DSA

En Chine, une régulation gouvernementale unique en son genre

Passé relativement inaperçu en Europe, le Règlement sur l’administration de la recommandation sur les algorithmes des services d’information sur Internet a été mis en application en Chine le 1er mars 2022.

© Source : https://ruedesconfines.com/pendant-la-crise-les-chinois-jouent-avec-les-reseaux-sociaux/

Cet ensemble de recommandations vise très spécifiquement les algorithmes, leur transparence et leur utilisation avec des mesures telles que la possibilité pour les utilisateurs de désactiver leur profil ou qu’il soit pas pris en compte, la conservation par les entreprises des traces du fonctionnement de leur algorithme pendant six mois ou encore la nécessité pour les entreprise capables de mobiliser l’opinion publique de s’enregistrer auprès des autorités. 

Bien que la transparence liée aux algorithmes soit là aussi le noyau du projet, l’esprit général du règlement s’éloigne des projets européen et américain. En effet, les projets occidentaux se distinguent à moindre échelle par des mesures visant la protection des droits humains (Europe) et des droits consommateurs (États-Unis). De son côté, le projet chinois met avant tout l’accent sur la protection du pays, de sa sécurité et de ses valeurs (celles promues par le régime) et ne masque pas la volonté du parti d’incarner le monopole étatique du contrôle, s’accaparant les nouvelles richesses générées par les géants de la tech : les données.

Le danger d’un contrôle d’état sous couvert de régulation

Dans une logique similaire, l’administration du cyberespace de Chine (CAC) a également annoncé début avril le lancement de la campagne QingLang d’ici la fin de l’année 2022, poursuivant l’objectif de création d’un espace en ligne sain. Déjà évoquées l’année passée, ces opérations se définissent littéralement comme « nettoyé et non contaminé ». Ce qui s’illustre notamment à travers les suppressions et les fermetures engendrées par les régulateurs chinois. En 2021, plus de 22 millions d’informations illégales ont été supprimés et plus d’un milliard de comptes illégaux ont été fermé afin de lutter contre le « chaos ». Ce grand nettoyage de l’internet chinois s’est notamment déroulé avant les JO de Pékin. Cette tendance à la censure s’est également confirmée fin 2021 avec l’interdiction de LinkedIn en Chine, la dernière plateforme américaine encore présente dans le pays.

Si la  critique officielle n’est pas monnaie courante en Chine, la situation est différente aux États-Unis où les projets de régulation ne font pas toujours l’unanimité. Le NUDGE Act est notamment critiqué comme un projet remettant en cause la liberté d’expression promue par la section 230 et si chère à la culture américaine. Certains projet sont également critiqué pour leur contenu, comme le Earn It Act. Ici, bien que la lutte contre la diffusion de contenu pédopornographique ne soit pas remise en cause en soit, c’est les moyens proposés (suppression du chiffrement de bout en bout) et leurs conséquences sur les données privées qui sont questionnés. En effet, si les États-Unis semblent aspirer à égaler le cadre législatif européen en matière de numérique, les enjeux relatifs à la protection des données semblent encore pêcher, comme l’illustrait déjà l’arrêt Schrems II quelques années auparavant.

Ce décalage entre projet théorique et application technique s’illustre avec des questionnements similaires en Europe. On peut noter par exemple les débats autour de l’obligation d’inter-opérabilité imposée aux médias sociaux et les limites technologiques s’y afférant.

L’intelligence artificielle, prochaine course à la règlementation ?

L’intelligence artificielle est devenue le fer de lance des algorithmes qui font fonctionner les réseaux sociaux. En Europe, la Commission Européenne a proposée l’Artificial Intelligence Act en avril 2021, avec une dynamique similaire aux projets de DMA, DSA et Data Governance Act (DGA).  Des initiatives fédérales similaires ont également émergé depuis aux Etats-Unis, notamment en Alabama, au Colorado, dans l’Illinois et dans le Mississippi avec des lois comme l’Artificial Intelligence Interview Act et l’Alabama Council on Advanced Technology and Artificial Intelligence. Plus spécifiquement un projet de régulation des algorithmes d’IA à l’échelle fédérale a même été introduit au Sénat américain en février dernier. Cet Algorithmic Accountability Act témoigne de l’influence de l’Europe sur les États-Unis en matière de régulation numérique ainsi que de la volonté de convergence de ces deux modèles.

La percée de l’IA dans tous les secteurs, des réseaux sociaux au transport ou à la santé est déjà prémonitoire sur la complexité de la création d’un cadre juridique réglementaire approprié.

 

Par Hannah Roux-Brion


SOURCES

DSA

DSA : l’Europe trouve un accord « historique », France Culture, Baptiste Muckensturm, 26 avril 2022
https://www.franceculture.fr/emissions/les-enjeux-des-reseaux-sociaux/dsa-l-europe-trouve-un-accord-historique

DSA : les institutions européennes ont trouvé un accord !, Siècle digital,  Grégoire Levy, 25 avril 2022
https://siecledigital.fr/2022/04/25/dsa-les-institutions-europeennes-ont-trouve-un-accord/

L’Europe valide le DSA : les 10 mesures clés pour réguler les géants de la tech, Le blog du modérateur, Appoline Reisacher, 25 avril 2022
https://www.blogdumoderateur.com/europe-valide-dsa-mesures-reguler-geants-tech/

USA

Un projet de loi vise à obliger les réseaux sociaux à modifier le fonctionnement du fil d’actualité, Siècle digital, Valentin Cimino ,14 février 2022
https://siecledigital.fr/2022/02/14/un-projet-de-loi-pourrait-obliger-les-reseaux-sociaux-a-modifier-le-fonctionnement-des-algorithmes/

Senator Klobuchar “nudges” social media companies to improve content moderation, Brookings, Mark MacCarthy Wednesday, February 23, 2022
https://www.brookings.edu/blog/techtank/2022/02/23/senator-klobuchar-nudges-social-media-companies-to-improve-content-moderation/

Tech Trojan Horse: How the Senate is poised to codify censorship of social media, The Hill, JONATHAN TURLEY, 03/05/22
https://thehill.com/opinion/technology/596913-tech-trojan-horse-how-the-senate-is-poised-to-codify-censorship-of-social/

New bill would force social media giants to embrace friction — or else. Protocol Issie Lapowsky, February 10, 2022
https://www.protocol.com/bulletins/social-media-nudge-act

U.S. Congress Introduces Kids Online Safety Act. Covington, Lindsey Tonsager & Madeline Salinas, February 23, 2022
https://www.insideprivacy.com/childrens-privacy/u-s-congress-introduces-kids-online-safety-act/

Quel est l’état des droits sur internet aux États-Unis ? Siècle digital,  Clémence Maquet, 19 avril 2021
https://siecledigital.fr/2021/04/19/quel-est-letat-des-droits-sur-internet-aux-etats-unis/

CHINE

Les autorités chinoises veulent réguler les algorithmes de recommandation, qui font le quotidien d’Internet, Le Monde, 8 février 2022
https://www.lemonde.fr/idees/article/2022/02/08/les-autorites-chinoises-veulent-reguler-les-algorithmes-de-recommandation-qui-font-le-quotidien-d-internet_6112738_3232

La Chine recadre les algorithmes des agrégateurs d’actualités, Siècle digital, Antoine Messina , 13 avril 2022
https://siecledigital.fr/2022/04/13/la-chine-recadre-les-algorithmes-des-agregateurs-dactualites/

QingLang Regulations, More of Them—and More Control on Chinese Social Media, Bitterwinter, Tan Liwei, 03/23/2022
https://bitterwinter.org/qinglang-regulations-more-control-on-social-media/

INTELLIGENCE ARTIFICIELLE

Quelles limites donner à l’IA pour protéger les droits fondamentaux ? Siècle digital, r Maxime Mohr, 25 avril 2022
https://siecledigital.fr/2022/04/25/quelles-limites-donner-a-lia-pour-proteger-les-droits-fondamentaux/

Quelle réglementation pour l’intelligence artificielle en Europe ? Siècle digital, Clémence Maquet, 23 avril 2021
https://siecledigital.fr/2021/04/23/cadre-juridique-intelligence-artificielle-europe/

Introduction d’un projet de régulation des algorithmes d’IA à l’échelle fédérale, Jean-Baptiste Bordes & Margherita Ceccagnoli, mars 3, 2022
https://france-science.com/introduction-dun-projet-de-regulation-des-algorithmes-dia-a-lechelle-federale/

Modération : à quand la fin de l’impunité sur les réseaux sociaux ?

Le phénomène d’émiettement identitaire, en corrélation avec l’utilisation grandissante des réseaux sociaux, s’aggrave ces dernières années entre l’espace physique et l’espace numérique. L’idée commune selon laquelle l’identité définie dans l’espace public disparaît au profit d’une autre identité sur Internet favorise le sentiment d’impunité et l’augmentation des contenus toxiques sur les espaces d’expression en ligne. Les tentatives de régulation ont été nombreuses, tant par les autorités publiques que par les plateformes elles-mêmes.

L’heure est au bilan sur l’état actuel de la modération des contenus en ligne.

Responsabilisation progressive des plateformes

Le 20 janvier 2022, le Parlement européen procédait à un vote sur la législation des services numériques, plus connue sous le nom de Digital Services Act (DSA). Ce texte vise notamment à obliger les géants du numérique à s’attaquer aux contenus illicites en ligne, tels que ceux favorisant l’incitation à la haine ou la désinformation. En effet, l’expression sur l’espace public numérique est structurée autour d’un marché oligopolistique (Facebook, Twitter, Google). C’est donc naturellement que l’attention politique et juridique s’est concentrée sur cette poignée d’acteurs en mettant en lumière leurs dérives et en alertant sur la présence grandissante des contenus haineux. Ces plateformes ont été contraintes d’accepter que leur rôle dépassait celui de simple hébergeur de contenus et ont pris leurs responsabilités en termes de modération et de régulation sur leurs interfaces.

Pour respecter ces nouveaux engagements, de nombreux outils ont été développés par les plateformes afin d’identifier les contenus toxiques. Une modération algorithmique automatisée et des équipes très conséquentes de modérateurs sont devenus deux piliers quasi-indispensables pour traiter une quantité aussi importante de contenus. Ces outils technologiques permettent notamment une modération ex ante, c’est-à-dire avant même que le contenu soit publié et donc visible par les utilisateurs. On parle alors d’une modération « industrielle », qui se différencie d’une modération dite « artisanale » effectuée par des équipes plus restreintes, avec une approche plus manuelle et une importance forte donnée à la contextualisation du contenu. La modération 100% automatisée n’est pas la solution parfaite puisqu’elle comprend son lot de risques, notamment en identifiant des contenus dits « faux positifs », c’est-à-dire modérés alors qu’ils n’auraient pas dû l’être, ou en incitant à une modération excessive, dite « modération préventive » des plateformes pour éviter des sanctions.

La modération ne se limite pas à l’identification des contenus problématiques, il faut ensuite savoir réagir au mieux pour limiter leur propagation ce qui ne passe pas nécessairement par la suppression. En effet, la modération par retrait du contenu peut avoir des effets néfastes comme l’augmentation des réactions toxiques en réponse à la suppression ou la légitimation du contenu supprimé aux yeux de certaines communautés. Les plateformes ont donc développé des méthodes alternatives, dites « graduelles », afin de limiter la visibilité du contenu sans avoir à le supprimer, tels que le déclassement ou le déréférencement du contenu ou sa mise en quarantaine. La propagation de ces contenus toxiques est en constante évolution, forçant les modérateurs à se renouveler et à innover régulièrement dans ce domaine.

Mythe de l’anonymat sur Internet

Malheureusement, la modération ne suffit pas toujours. Si les algorithmes des plateformes leurs permettent d’identifier la quasi-totalité des contenus à caractère illégal (Facebook déclare que « 99,5% des contenus terroristes ou pédopornographiques sont bloqués a priori, et automatiquement, avant même qu’un utilisateur ne puisse le voir. »), il leur est plus difficile de repérer d’autres comportements tels que le harcèlement en meute ou la diffusion de désinformations. 

Dans les cas où des enquêtes de police sont ouvertes, notamment lorsqu’une victime porte plainte, l’une des premières étapes consiste à identifier les responsables potentiels, généralement cachés derrière des pseudonymes qui sont à distinguer de l’anonymat. En effet, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 impose aux hébergeurs et opérateurs de conserver toutes les données de connexion (adresse postale, coordonnées bancaires, n° de téléphone, adresse IP, etc.) afin de pouvoir identifier la personne cachée derrière un pseudo. Ces données sont soumises au secret professionnel mais peuvent être communiquées à la justice en cas de demande. Ainsi, la levée d’un pseudonyme n’est jamais impossible en soi, au contraire, mais elle demande parfois énormément de temps et de moyens à la justice pour y parvenir.

Collaboration avec les services policiers et judiciaires

Lors d’une investigation sur les réseaux sociaux, les services de police tentent de corroborer les pistes en récupérant des traces numériques. Dans certains cas, les contenus en question sont partagés publiquement ce qui permet de répertorier rapidement des preuves. Cependant, lorsque les comptes sont cadenassés, cela doit passer par une réquisition invitant la plateforme à transmettre les données d’identification des comptes concernés. De nombreuses affaires de cyber-harcèlement, telles que l’affaire Mila ou la récente condamnation du Youtubeur Marvel Fitness, ont pu être portées en justice et aboutir à des condamnations grâce à cette collaboration entre les plateformes et les autorités publiques. 

Cependant, d’après Matthieu Audibert, commandement de la gendarmerie dans le cyber-espace, alors que les opérateurs français sont très réactifs et répondent en moyenne à ces demandes en 15 min, les hébergeurs américains s’avèrent généralement moins collaboratifs. Pour leurs exiger le transfert des données, il faut envoyer une réquisition directement à la société mère. Cela peut parfois nécessiter préalablement une demande d’enquête pénale internationale, suivi de l’envoi de la réquisition via le ministère de la justice français auprès d’un magistrat de liaison à Washington, qui transmettra ensuite au procureur de l’État américain de domiciliation de la plateforme. Cela va sans dire, ces cas de figure correspondent à des délais d’action de plusieurs mois, voir n’aboutissent parfois à aucun retour de la part de la plateforme concernée.

Le réseau Twitter est connu pour être le mauvais élève des réseaux sociaux en matière de collaboration avec la justice. L’avocat Éric Morain rappelle : « c’est une obligation dans le code de procédure pénale de déférer à ces réquisitions, et il ne viendrait pas à l’idée de la BNP, Orange ou Free de ne pas le faire. Les autorités adressent de la même façon régulièrement des réquisitions à Facebook ou à Twitter. […] Sauf que, si Facebook collabore depuis deux ou trois ans, en ce qui concerne Twitter, on reçoit des classements sans suite du parquet faute de collaboration. ». En janvier 2022, Twitter France et son DG Damien Viel ont été jugés pour « refus de répondre à une réquisition » et la Cour d’appel de Paris a confirmé une décision de juillet ordonnant à Twitter de détailler ses moyens de lutte contre la haine en ligne, jugés insuffisants.

Moins de lois, plus de moyens !

Une impunité importante persiste sur les réseaux sociaux et l’une des causes principales réside dans le manque de moyens accordés aux services de police et aux régulateurs. Avec plus de moyens, la justice pourrait réagir et condamner rapidement, ce qui refroidirait progressivement l’essor des contenus toxiques et ferait office de modération par incitation. La lenteur actuelle des décisions de condamnations est responsable du sentiment d’impunité récurrent sur Internet. Le mal français voudrait créer de nouvelles lois, épuiser les plateformes sous de nouvelles obligations, alors que la vraie solution serait de donner à la justice (l’un des ministères les moins bien financé) les moyens humains et financiers d’agir efficacement.

Actuellement, la plateforme Pharos en charge de la surveillance des contenus illicites sur Internet est sous-financée et sous-équipée, avec une vingtaine de cyber-gendarmes quand Facebook a plus de 15 000 personnes en charge de sa modération. Les missions sont éparpillées, les cyber-gendarmes n’ont accès qu’à ce qui est visible au public sur les plateformes et c’est les commissariats qui ont la charge d’examiner les conversations et groupes privés.

Par ailleurs, pour forcer ces super plateformes à respecter leurs obligations, l’échelle nationale ne semble pas la plus efficace puisque nos régulateurs semblent aujourd’hui incapables de faire respecter leurs propres mesures. Il est nécessaire d’engager les régulateurs à échelle européenne et de simplifier la définition des infractions en ligne afin de condamner régulièrement et jusqu’à l’épuisement les plateformes, plutôt que de sanctionner une fois par an ces géants du numérique, impassibles face aux montants de leurs condamnations précédentes.

Par Estelle Berdah


Sources

Lois et approches de la régulation

Modération des contenus : renouveler l’approche de la régulation, Renaissance numérique, Juin 2020

La haine en ligne, de nouvelles lois, pour quoi faire ?, Jean-Marie Portal, Mars 2021

Règlement européen : les plateformes en ligne ont désormais une heure pour retirer le contenu terroriste, Mathieu Pollet, Avril 2021

Haine en ligne : le Conseil constitutionnel censure le dispositif-clé de la loi Avia, Raphaël Balenieri, Juin 2020

Anonymat en ligne

« Renforcement de l’anonymat sur Internet », Arnaud Dimeglio, Août 2021

Il est temps d’arrêter de nous bassiner avec l’anonymat en ligne, Julien Lausson, Juillet 2020

Tout comprendre au débat sur l’anonymat sur Internet, Cécile Bertrand, Juillet 2020

Collaboration des plateformes

Twitter France et son directeur jugés pour ne pas avoir aidé la justice, Le Figaro, Janvier 2022

Twitter loses appeal in French case over online hate speech, Business Standard, Janvier 2022

Haine en ligne : Twitter, mauvais élève des réseaux sociaux, Raphaël Balenieri, Juillet 2020

VIDÉO – PODCAST

Tremblez les trolls : la fin de l’impunité sur les réseaux sociaux ?, Médias en Seine 2021

Le numérique, une zone de non-droit ? avec Simon Puech & Alexandre Archambault, Juin 2021

Quitter la version mobile