Depuis l’arrivée de la série Formula 1 : Drive To Survive sur Netflix, le sport automobile a profondément changé. Le géant des plateformes de streaming a aidé au renouvellement du sport automobile grâce à une recette maison et a créé des envieux chez ses concurrents.
Tous les fans de Football Manager ont connu ça : ces nuits blanches passées à faire monter le club de Vannes en Ligue des Champions, à dénicher la perle rare péruvienne de 17 ans pour une bouchée de pain ou à hurler sur un écran parce que son attaquant vedette a raté l’immanquable à la 93ème minute. Mais ce qui n’était qu’une addiction vidéoludique pour des millions de passionnés est devenu, en deux décennies, l’outil le plus sous-estimé des directions sportives européennes. Enquête sur le moment de bascule où le jeu a cessé de simuler le football pour commencer à le diriger.
Il y a encore dix ans, dire à un recruteur professionnel que vous aviez repéré un joueur sur Football Manager (FM) vous valait, au mieux, un sourire poli, au pire, une porte claquée au nez. Le football, le « vrai », se jouait sur le terrain, pas sur des tableurs Excel déguisés.
Aujourd’hui, la donne a changé. L’avènement médiatique de Will Still, l’entraîneur belgo-britannique de Ligue 1 (Reims, puis Lens), a fini de briser le plafond de verre. Lorsqu’il déclare ouvertement avoir affiné sa vision tactique et sa connaissance des joueurs grâce au jeu, il ne fait que dire tout haut ce que beaucoup pensent tout bas. FM n’est plus un simple jeu vidéo, c’est une base de données mondiale d’une granularité effrayante.
Dans les entrailles de la matrice du « English Dream » :
Pour comprendre l’hégémonie de Football Manager, il faut remonter à sa genèse. Né en 1992 sous le nom de Championship Manager, le jeu est le fruit de l’obsession statistique de deux frères anglais, Paul et Oliver Collyer. Contrairement à son rival FIFA qui mise tout sur le graphisme et le spectacle, leur création mise sur l’austérité et la précision mathématique.
Sous la houlette du studio Sports Interactive, le jeu a bâti une armée de l’ombre sans équivalent dans le sport professionnel : un réseau de 1 300 scouts (observateurs) répartis dans 51 pays. Ces observateurs ne sont pas des algorithmes, mais des passionnés locaux, des entraîneurs de jeunes ou des journalistes qui notent chaque joueur sur plus de 250 attributs. Le niveau de détail est maladif : on ne note pas seulement la vitesse ou la finition, mais aussi la « détermination », « l’influence », ou encore la « propension aux blessures ». C’est cette densité de données qui a transformé le jeu en un oracle.
Le 31 décembre dernier, alors que le monde se préparait au réveillon, ils étaient nombreux connectés sur Spotify pour écouter le « Quiz de l’année » spécial FM plutôt que de lancer les confettis
L’annuaire universel ou « Le LinkedIn du crampon »
C’est ici que la comparaison avec LinkedIn prend tout son sens. De la même manière qu’un DRH utilise le réseau social professionnel pour « screener » le CV d’un candidat avant un entretien, les directeurs sportifs utilisent FM pour dégrossir le travail. Comme le soulignait une enquête de référence du Guardian, cette base de données est devenue une ressource que le football réel ne peut plus ignorer.
L’histoire fondatrice de cette méthode reste celle de Roberto Firmino. En 2010, Lutz Pfannenstiel, recruteur pour le club allemand d’Hoffenheim, repère le profil du Brésilien dans le jeu alors qu’il évolue en deuxième division brésilienne (Figueirense). Intrigué par les statistiques virtuelles exceptionnelles du joueur, il décide d’investir du temps et de l’argent pour aller le voir en vrai. Le pari est gagnant : Hoffenheim l’achète pour 4 millions d’euros. Quelques années plus tard, il sera revendu à Liverpool pour plus de 40 millions. L’anecdote a été confirmée par le recruteur lui-même, admettant que le jeu avait été le déclencheur initial de l’intérêt du club.
Si ce cas était isolé à l’époque, il est aujourd’hui devenu un standard silencieux. L’exemple récent de Ben Brereton Díaz, convoqué par l’équipe nationale du Chili après qu’un chercheur de la communauté FM a repéré sa double nationalité, prouve que le jeu a souvent un temps d’avance sur les fédérations.
Quand le virtuel prédit le réel : L’anticipation du « Swiss Model »
La puissance de simulation de Football Manager dépasse désormais le simple recrutement de joueurs. Le jeu possède une capacité prédictive sur les structures mêmes du football. L’exemple le plus frappant est l’actualité brûlante de cette saison 2024/2025 : la réforme de la Ligue des Champions.
Ce nouveau format, dit « système suisse » (une poule unique de 36 équipes remplaçant les groupes traditionnels), a semé la confusion chez les supporters et les commentateurs lors de son annonce par l’UEFA. Pourtant, une communauté n’était pas surprise : les joueurs de FM. Le studio Sports Interactive avait intégré cette réforme complexe dans le code du jeu plusieurs années avant son application réelle. En simulant des parties dans le futur, les joueurs avaient déjà expérimenté les avantages et les inconvénients de ce format. Le jeu sert désormais de « bac à sable » géant où l’on teste le futur du sport avant qu’il n’arrive.
La Révolution B2B d’Everton et Toulouse
Si les joueurs l’utilisent pour le plaisir, l’industrie l’utilise pour le business. La bascule « officielle » vers le monde professionnel s’est faite par étapes, transformant un jouet en outil B2B (Business to Business).
Historiquement, le club anglais d’Everton fut le pionnier en 2008 en signant un accord pour utiliser la base de données du jeu via Prozone afin de filtrer ses cibles de mercato.
Mais en France, c’est bien le Toulouse FC qui a poussé la logique le plus loin. Peu après le rachat du club par le fonds d’investissement RedBird Capital, le président Damien Comolli — figure de proue de l’utilisation de la Data — a acté un rapprochement stratégique. Dès 2020, le club occitan a confirmé se servir officiellement de la technologie de Sports Interactive pour épauler sa cellule de recrutement. L’objectif ? Utiliser la puissance de calcul du jeu pour repérer des talents sous-cotés et valider statistiquement les intuitions des scouts terrain.
Toulouse va bientôt se servir du jeu « Football Manager » pour son recrutement
Enfin, en 2024, la boucle a été bouclée au niveau mondial avec la connexion du jeu à TransferRoom. Cette plateforme est l’outil de travail quotidien de plus de 800 directeurs sportifs pour acheter et vendre des joueurs en direct. En intégrant les données de Football Manager à cet écosystème, la note virtuelle d’un joueur influence désormais sa visibilité réelle sur le marché des transferts.
De YouTube au banc de touche : L’expertise du streamer Arthur Ray
Si Will Still est l’exemple de la réussite institutionnelle, le phénomène s’étend désormais aux créateurs de contenu qui utilisent le jeu comme un véritable CV tactique. L’exemple le plus fascinant est celui d’Arthur Ray. Ce Youtuber français, suivi pour ses tutoriels pointus et ses analyses tactiques, a franchi la barrière de l’écran pour intégrer le monde professionnel.
Sa crédibilité a d’abord été validée par le monde pro traditionnel. Récemment, le Pau FC (Ligue 2) lui a ouvert ses portes pour une immersion de 48 heures au cœur du staff technique. Loin d’être une simple opération de communication, cette expérience a prouvé que la gymnastique intellectuelle exigée par FM : analyse vidéo, gestion des séances, causeries…est une compétence transférable au quotidien d’un club professionnel.
Mais c’est dans le « Nouveau Football » que son profil hybride explose. Repéré pour sa maîtrise analytique, Arthur Ray a rejoint le projet du streamer Domingo et de son équipe, le FC Silmi, en vue de la future Kings League France. Dans cette compétition où les règles du jeu vidéo et du football se mélangent, son expertise de la « Data FM » devient une arme stratégique pour construire l’équipe et déjouer les plans adverses.
📺 À voir : Pour comprendre la complexité tactique que demande le jeu aujourd’hui, la vidéo « COMMENT BIEN DÉBUTER SUR FM26 ET PRENDRE EN MAIN L’INTERFACE ! Guide Football Manager 26 » d’Arthur Ray est un modèle de pédagogie. Elle démontre que pour gagner sur FM, il faut penser comme un coach réel.
Football Manager a gagné sa guerre culturelle. Il est passé du statut de « passe-temps de geek » à celui d’outil stratégique incontournable, capable de prédire les réformes de l’UEFA, de servir de filtre pour le recrutement du Toulouse FC ou de propulser un Youtuber dans le staff d’un club de Ligue 2. Pour les étudiants et futurs professionnels du Sport Business, la leçon est majeure : la prochaine révolution du sport ne viendra peut-être pas d’un laboratoire de performance high-tech, mais d’une simple chambre d’étudiant équipée d’un ordinateur portable.
Les récents accords entre plateformes d’IA générative musicale et majors (Warner – Suno et Universal-Udio) marquent un changement de paradigme dans l’industrie musicale. En effet, cette dernière passe d’un système basé sur le contentieux (contrefaçon, débats sur l’exception ou le « fair use) » à la contractualisation de l’accès au catalogue pour l’entrainement de modèles d’IA. En plus de fixer le cadre transactionnel, ces accords posent une question de politique publique : la musique générée par IA se fera-t-elle dans un marché dominé par quelques ayants droit ou par des extensions légales et des standards ouverts ?
Le “stack” de droits : masters, publishing, et droits de la personnalité
Pour comprendre ce que ce changement implique il nous faut repartir de l’architecture juridique de la musique. Une œuvre musicale mobilise, au minimum deux types de droits :
Le master (enregistrement) généralement contrôlé par un label
La composition gérée via des éditeurs et des sociétés de gestion
A ces droits s’en ajoute un troisième propre aux IA : les attributs identitaires (nom, image, ressemblance, voix) et parfois la « persona » artistique.
L’accord entre Universal et Udio permet d’articuler les licences de publishing et de musique enregistrée et de les relier au développement de la plateforme qu’ils souhaitent mettre en place.
De l’autre côté Warner et Suno insistent sur la possibilité pour les artistes et les auteurs de contrôler l’usage de leur nom, image, ressemblance et voix.
Le « licensing model » se pose donc comme un assemblage de licences et d’autorisations couvrant l’entrainement, la monétisation des sorties et l’exploitation de ressemblance/voix.
De la fouille à la licence : le droit comme variable stratégique
En Europe, la directive 2019/790 (DSM) prévoit des exceptions de fouille de textes et de données (TDM) : l’article 3 (recherche) et l’article 4 (TDM général) avec possibilité pour les titulaires de droits de réserver leurs droits (opt-out) sous certaines formes.
Cependant, l’existence de ces exceptions ne suffit pas à créer un cadre stable. L’IA musicale pour se développer nécessite des certitudes juridiques, un accès à des catalogues de qualités et l’acceptabilité des artistes. Le contrat apparait alors comme le moyen le plus efficace pour remplace l’incertitude existante jusqu’alors en encadrant la licence, la conformité et la monétisation.
C’est en ce sens que vont les accords en permettant aux modèles de s’entrainer sur de la musique autorisée et licenciée et en créant des plateformes plus contrôlées.
Qu’est-ce que ça change concrètement ?
Premièrement donc, ces accords créent un marché du catalogue licencié. Alors qu’avant les catalogues étaient monétisés via l’écoute, la synchro ou la radio ce modèle permet aux catalogues de devenir un actif de formation des modèles. Warner qualifie l’approche de “blueprint” d’une plateforme IA licenciée ; Universal présente l’accord Udio comme le lancement d’une plateforme “new licensed AI music creation”. Par cela les majors organisent une tarification de l’accès et des usages.
Il y a également un déplacement de la régulation vers la conformité produit. En effet, les accords s’accompagnent de garde-fous que sont, par exemple, la limitation des téléchargements, le passage au payant etc. La question n’est plus seulement « a-t-on le droit d’entrainer ? » mais « comment empêcher la substitution, l’usurpation vocale et les sorties trop proches ? ».
Enfin, Warner et Suno insistent sur le contrôle lié aux attributs identitaires et sur une logique opt-in qui se place en réponse au risque qui entoure cet accord. L’IA est perçue comme substitutive si elle permet de générer « du X » sans X, en particulier via la voix.
Opportunités et risques
Du point de vue des opportunités nous pouvons citer la standardisation d’un licensed model qui permet aux IA l’accès à de meilleurs données pour entrainer leur modèle et offre aux plateformes une nouvelle source de revenus et leur permet de contrôler les usages.
Les acteurs invoquent également la co-création plutôt que la substitution en indiquant que les remix, mash-up permis grâces aux IA permettront de mettre en valeur les catalogues plutôt que de les cannibaliser.
De l’autre côté de réels risques existent pour l’industrie. L’un de ceux-ci est la concentration car si seulement les catalogues majeurs alimentent les modèles on crée par la même occasion une barrière à l’entrée car l’innovation IA devient dépendante de deals privés. Une deuxième interrogation concerne la rémunération des créateurs d’une partie des créateurs de musique et plutôt les indépendants. Comment un créateur sait-il que son œuvre a servi, et comment est-il rémunéré ? Enfin, même avec un catalogue licencié, la capacité d’imiter une voix ou une persona soulève des risques de tromperie du public.
En résumé, la question qui ressort de tout cela n’est pas de savoir si l’IA peut apprendre mais plutôt “qui pourra apprendre, à quelles conditions, et avec quelles garanties de traçabilité et de partage de valeur ?”.
L’annonce récente de l’intégration des contenus de TF1 sur Netflix ou les partenariats similaires qui se multiplient en Europe marquent un tournant décisif dans l’industrie audiovisuelle. Si la « guerre du streaming » a longtemps laissé penser que les plateformes globales (Netflix, Disney+, Amazon Prime) allaient tuer la télévision linéaire, nous assistons aujourd’hui à une phase de convergence inattendue. Les anciens rivaux deviennent partenaires.
A priori, cette alliance semble, de prime abord, relever du pragmatisme économique le plus sensé. Pourtant, derrière les communiqués de presse triomphants célébrant des stratégies « gagnant-gagnant », une crise structurelle se dessine pour un maillon essentiel de la chaîne de valeur : les producteurs indépendants.
Cette note analyse pourquoi cette convergence, si profitable aux diffuseurs et aux géants de la Tech, risque de paupériser le tissu de production cinématographique et audiovisuel en asséchant ses sources de revenus historiques, et quelles solutions peuvent être envisagées pour éviter une crise majeure de la création.
La convergence TV-Plateformes : Un mariage de raison économique
Pour comprendre le danger qui pèse sur les producteurs, il faut d’abord saisir la logique implacable qui pousse les chaînes de télévision et les plateformes de streaming à collaborer. Ce rapprochement n’est pas une simple tendance, c’est une réponse structurelle aux mutations de la consommation.
Pour les chaînes TV : Valoriser l’actif dormant
Les diffuseurs historiques (TF1, M6, ITV, ZDF) font face à une érosion lente mais constante de leur audience linéaire, notamment chez les moins de 50 ans. Lancer une plateforme de streaming nationale capable de rivaliser technologiquement et éditorialement avec Netflix s’est avéré périlleux, comme l’a démontré l’échec de Salto en France. Dès lors, la stratégie change : si on ne peut pas les battre, autant les utiliser. En revendant des droits de diffusion à Netflix ou en intégrant leurs chaînes linéaires dans les offres des streamers, les diffuseurs opèrent une double rationalisation :
Monétisation secondaire : Ils génèrent du cash-flow immédiat sur des catalogues existants sans coûts de production supplémentaires.
Exposition élargie : Ils touchent des audiences « cord-cutters » qui ne consomment plus la télévision traditionnelle, espérant ainsi redonner de la valeur publicitaire à leurs marques programmes. Comme le soulignait Rodolphe Belmer, PDG de TF1, ces accords permettent d’atteindre des « audiences inégalées » et d’ouvrir de nouveaux horizons publicitaires, transformant une menace existentielle en opportunité de revenus.
Rodolphe Belmer, CEO de TF1
Pour les plateformes : L’ancrage local à moindre coût
Du côté de Netflix ou Amazon, la logique est celle de la consolidation. La croissance des abonnés plafonne sur les marchés matures. Pour fidéliser, il ne suffit plus d’avoir des blockbusters américains ; il faut de l’ancrage local et du volume. Acquérir des droits auprès d’une chaîne comme TF1 ou ITV permet à une plateforme :
D’enrichir son catalogue local instantanément avec des marques fortes (Koh-Lanta, feuilletons quotidiens) qui ont déjà fait leurs preuves.
De devenir une « Global Box » : En intégrant du flux et du direct, Netflix se positionne comme le remplaçant unique de la box TV traditionnelle.
D’optimiser les coûts : Il est infiniment moins cher (et moins risqué à certains égards) d’acheter un catalogue existant qui a fait ses preuves à une chaîne (en « seconde fenêtre ») que de financer la production de nouvelles séries originales.
Ce système crée un oligopole de diffusion puissant où quelques chaînes nationales et quelques plateformes globales verrouillent l’accès au public. Si l’opération est rentable pour ces deux acteurs, elle crée un effet d’éviction redoutable pour ceux qui fabriquent les contenus.
L’angle mort : La captation de la valeur au détriment des producteurs
C’est ici que le modèle se grippe. La manne financière générée par ces accords de distribution reste, pour l’essentiel, cantonnée à la relation Diffuseur-Plateforme. Le producteur, artisan initial de l’œuvre, se retrouve exclu du partage de la valeur, victime d’une triple peine : financière, commerciale et stratégique.
Le manque à gagner financier : La fin des « droits résiduels »
Historiquement, le modèle économique d’un producteur indépendant reposait sur la séquentialité des revenus. Une chaîne finançait une partie de la production (60-70%) pour une première diffusion. Le producteur conservait la propriété de ses droits (IP) pour les revendre ensuite (seconde fenêtre TV, DVD, international, et plus récemment SVOD). C’est cette « queue de comète » qui constituait souvent une part essentielle des revenus du producteur.
Aujourd’hui, les chaînes de télévision exigent de plus en plus souvent d’inclure les droits de diffusion non-linéaire (SVOD/AVOD) dans le contrat initial, pour des durées étendues (jusqu’à 36 ou 48 mois selon les récents accords interprofessionnels). Lorsqu’une chaîne revend ensuite ces droits à Netflix dans un « package » global, elle encaisse le chèque. Le producteur, lui, ne perçoit rien de plus, car ces exploitations sont considérées comme couvertes par le financement initial. Des estimations de 2019 évaluaient déjà à 150 millions d’euros la perte potentielle pour les producteurs français si les diffuseurs accaparaient ces droits. Contrairement à la revente classique où le producteur négociait directement, ici, la valeur est capturée par le diffuseur qui agit comme un grossiste, sans mécanisme de redistribution automatique vers le producteur.
La désintermédiation et la perte d’autonomie commerciale
Le second impact est la perte de contrôle sur la vie de l’œuvre. Dans le schéma traditionnel, le producteur était le pivot commercial : une fois la diffusion TV terminée, il reprenait sa liberté pour aller vendre son programme au plus offrant (une autre chaîne, une plateforme, un distributeur étranger). Avec les nouveaux accords globaux, le producteur est désintermédié. C’est la chaîne qui approvisionne la plateforme.
À titre d’exemple, si TF1 a l’exclusivité des droits SVOD pendant 4 ans sur une série qu’elle a co-financée, le producteur ne peut pas aller voir Netflix ou Amazon pour leur vendre la série, même si ces derniers sont intéressés. Il est bloqué. Et si TF1 décide d’inclure cette série dans son deal avec Netflix, c’est TF1 qui en tire le bénéfice relationnel et financier. Le producteur se retrouve réduit au rang de sous-traitant (modèle work-for-hire), dépossédé de la capacité à valoriser son actif sur le long terme. Il perd son pouvoir de négociation puisque l’accès au marché du streaming est désormais verrouillé en amont par le diffuseur principal.
La double concurrence : L’approvisionnement sur catalogue vs la création originale
L’impact le plus pernicieux est peut-être la contraction du marché de la commande. En ouvrant leurs catalogues aux plateformes, les chaînes de TV fournissent à ces dernières une alternative bon marché à la production de contenus frais. Pourquoi Netflix commanderait-elle une nouvelle série policière française à 1 million d’euros l’épisode à un producteur, si elle peut récupérer l’intégralité des saisons d’une série policière culte de TF1 pour une fraction de ce prix ? Les producteurs se retrouvent donc en concurrence non seulement entre eux, mais aussi avec le « back-catalogue » des chaînes qui les financent. Cette saturation de l’offre par des contenus de catalogue risque de réduire mécaniquement les investissements dans la création originale, fragilisant encore davantage les sociétés de production qui ont besoin de volume pour faire tourner leurs structures.
L’inflation des budgets sans inflation des revenus
Paradoxalement, alors que les revenus secondaires (les back-end revenues) s’effondrent pour les raisons évoquées ci-dessus, les coûts de production augmentent (inflation technique, exigence de qualité « cinéma » pour les séries). Dans le modèle anglo-saxon ou celui de Netflix en direct, le producteur cède tous ses droits (modèle Buy-out) contre une marge garantie immédiate (souvent +10 à +20% sur le budget). Mais dans le modèle hybride actuel avec les chaînes TV, les producteurs subissent le pire des deux mondes :
Ils ne bénéficient pas des marges confortables du Buy-out américain (les chaînes TV n’ayant pas les budgets de Netflix).
Ils perdent les recettes futures (les chaînes captant les droits d’exploitation secondaire). L’équation économique devient intenable pour beaucoup de producteurs indépendants, qui voient leurs marges nettes se réduire, menaçant la diversité de la création.
Les plateformes de streaming pourraient investir dans des catalogues de Groupe TV plutôt que dans la production de programmes frais.
Quelles solutions pour rééquilibrer la chaîne de valeur ?
Face à ce risque de paupérisation, le statu quo n’est pas une option. Si la convergence est inéluctable, les modalités de partage de la valeur doivent être renégociées d’urgence pour éviter une crise de l’offre. Plusieurs pistes, inspirées de modèles étrangers ou de la théorie économique, émergent.
Instaurer un partage systématique des revenus (« Revenue Sharing »)
C’est la solution la plus directe : rompre avec la logique forfaitaire. Il est impératif d’introduire dans les contrats de production des clauses de « recettes sur revente ». Si un diffuseur tire profit de la mise à disposition d’un programme sur une plateforme tierce (que ce soit via un minimum garanti ou un partage de revenus publicitaires), une quote-part de ce gain (par exemple 20 à 30%) doit être automatiquement reversée au producteur et aux auteurs. La technologie permet aujourd’hui une traçabilité précise des audiences. Le rapport du Conseil d’État (2024) suggère d’ailleurs d’obliger les plateformes à partager les données de consommation par œuvre. Cette transparence est la condition sine qua non pour indexer la rémunération des producteurs sur le succès réel de leurs œuvres en streaming, réintroduisant ainsi une logique de royalties vertueuse.
Les producteurs doivent renégocier les conditions de vente de leurs contenus et se fédérer pour peser à la table des négociations.
Réformer la chronologie et la durée des droits
La durée de détention des droits par les chaînes doit être revue à la baisse. Bloquer des droits SVOD pendant 36 ou 48 mois est anachronique à l’ère du numérique où la durée de vie d’un contenu est courte. Il faut s’inspirer du modèle des Terms of Trade britanniques mis en place dès 2003. Au Royaume-Uni, les producteurs indépendants conservent la main sur leurs droits internationaux et secondaires, ne cédant à la chaîne qu’une fenêtre de diffusion limitée. En France, on pourrait imaginer un mécanisme de « Use it or Lose it » (clause de retour de droits) : si le diffuseur n’a pas exploité ou revendu le programme sur une plateforme dans un délai de 12 ou 18 mois, les droits reviennent automatiquement au producteur, qui retrouve sa liberté commerciale pour le valoriser lui-même.
La réponse industrielle : L’union des producteurs
Enfin, il est nécessaire pour les producteurs de se consolider en tant que profession. Face à des interlocuteurs mondiaux, les sociétés de production trop atomisées n’ont aucun poids. On voit émerger des stratégies de regroupement (comme Mediawan ou Banijay) qui permettent de constituer des catalogues suffisamment profonds pour peser dans les négociations. Par ailleurs, les producteurs doivent chercher à diversifier leurs sources de financement en amont (coproductions internationales directes) pour être moins dépendants du guichet unique de la chaîne TV nationale, et ainsi conserver une part de leur propriété intellectuelle.
Conclusion
La distribution des chaînes TV par les plateformes de streaming n’est pas une simple évolution technique, c’est une recomposition tectonique du paysage médiatique. Si elle permet aux diffuseurs de survivre et aux plateformes de se renforcer, elle porte en elle le germe d’une fragilisation dangereuse de la production indépendante. En captant la valeur de la « seconde vie » des œuvres sans la redistribuer, le modèle actuel assèche l’investissement dans la création future. Il est urgent de passer d’une logique de prédation à une logique d’écosystème. Sans producteurs solides et rémunérés à leur juste valeur, les « tuyaux » des plateformes et des chaînes, aussi convergents soient-ils, finiront par n’avoir plus rien d’inédit à diffuser.
Depuis l’annonce du rachat de Warner Bros. par Netflix, l’inquiétude augmente pour les cinéphiles : les salles de cinéma disparaitront elles peu à peu au profit des plateformes de streaming toutes puissantes ? Frankenstein, Wake Up Dead Man, K-pop Demon Hunters… En 2025, les films ayant sauté la case exploitation en salles se sont multipliés, et les résultats sont au rendez-vous : ce dernier devient le film le plus vu de l’histoire de Netflix, avec 236 millions d’heures de visionnages.
Ce phénomène n’est pas apparu soudainement en 2025, mais s’est construit progressivement. Le premier film à être sorti directement et uniquement sur plateforme remonte à 2015 avec Beasts of No Nation de Cary Joji Fukunaga, produit par Netflix. Le film sort simultanément dans un nombre très limité de salles et sur la plateforme, provoquant un boycott massif de la part des exploitants américains. Deux ans plus tard, Netflix récidive avec Okja de Bong Joon-ho. Présenté en compétition officielle au Festival de Cannes en 2017, le film obtient une forte visibilité critique, mais son modèle de diffusion reste marginal et controversé. À ce stade, cette stratégie demeure l’exception plutôt qu’une norme.
Comme pour beaucoup d’autres phénomènes, le véritable tournant s’opère suite à la pandémie de Covid-19. La fermeture prolongée des salles pousse les studios à revoir leurs stratégies de sortie, notamment Warner Bros. qui annonce en 2021 que l’ensemble de ses films sortiront simultanément en salles et sur sa plateforme HBO Max.
Depuis, cette pratique est devenue de plus en plus courante, et permet à certains films, comme le récent Frankenstein de Guillermo del Toro, de toucher et plaire à la fois au grand public et aux plus cinéphiles, pourtant plus attachés à l’expérience en salle.
Un tel changement remodèle les manières de mesurer le succès. Le box-office n’est plus l’unique indicateur central : Il est progressivement remplacé par le nombre de visionnages, les heures vues et la présence dans les Top 10. Ces mesures deviendront-elles la nouvelle norme ? Fini les millions d’entrées ou les centaines de millions de dollars au box-office, au profit des millions d’heures de visionnages, ou de top 1 mondial pendant x jours consécutifs ?
Et la chronologie des médias ?
Minute ! Qu’en est-il de la sainte chronologie des médias ? Ces films bénéficiant tout de même parfois d’une petite sortie salle ne devraient-ils pas patienter entre 6 et 17 mois avant de débuter leur carrière sur plateforme ?
Et bien non, pas forcément. Cette règle qui a été pensée pour protéger l’exploitation en salles et soutenir le modèle de financement du cinéma français ne s’applique pas à toutes les productions.
Les films produits par Netflix, comme K-Pop Demon Hunters ou Frankenstein, échappent à cette réglementation car ils sont entièrement financés par la plateforme et demeurent sa propriété exclusive. Ils ne dépendent pas des aides du CNC et n’entrent pas dans le circuit classique du cinéma français. Dans le cas de Frankenstein, la sortie en salles a bien existé, mais elle était limitée et stratégique, visant surtout la visibilité médiatique, la reconnaissance critique et l’éligibilité aux prix, et n’a donc pas déclenché la chronologie des médias. C’est ainsi que Netflix peut mettre ses films en ligne quelques semaines seulement après leur projection.
Une sortie en salles aurait pu générer un fort revenu via le nombre d’entrées, surtout pour des gros films américains qui séduisent souvent le public français. Alors pourquoi ce choix de s’en passer ? Car cette stratégie a bien sûr plusieurs avantages.
La première est évidemment une réduction de coûts : plus besoin de campagnes publicitaires massives dans les cinémas, fini les divers frais de distribution. Mais les avantages ne s’arrête pas là : une sortie mondiale simultanée devient plus facile à opérer, ce qui maximise l’impact médiatique et limite le piratage. Elle offre également une maîtrise totale du calendrier, sans contrainte des périodes de forte affluence ou des semaines creuses au box-office. Enfin, une telle stratégie permet de toucher une cible difficilement atteignable au cinéma : le public qui se déplace peu. Pourquoi se rendre en salles quand la dernière nouveauté est disponible en un clic chez soi ? Résultat : des nombre de visionnages qui auraient eu du mal à égaler le nombre d’entrées, une stratégie qui répond ainsi à l’évolution des habitudes de consommation.
Quels risques pour l’exploitation française ?
Bien sûr, cette stratégie est plus agréable du côté du producteur et de la plateforme que de celui de l’exploitant, qui perd la possibilité d’enregistrer des entrées sur des films qui auraient pu rassembler un large public.
À plus long terme, le vrai risque réside dans le changement des habitudes de consommation du public. Si les spectateurs s’habituent à regarder les films depuis chez eux, l’incitation à se déplacer en salles diminue, surtout si l’exclusivité en salle n’est plus un argument. Cependant, ce phénomène reste pour l’instant limité. Comme nous l’avons vu avec la chronologie des médias, seuls certains films respectant des conditions précises échappent à la réglementation, ce qui tempère les effets sur l’ensemble de l’exploitation française.
Alors… le rachat de Warner par Netflix : un risque ?
Depuis l’annonce du rachat de Warner Bros. par Netflix, beaucoup de fans et de professionnels s’inquiètent d’une concentration accrue du pouvoir dans l’industrie, craignant que Netflix privilégie désormais les sorties plateformes pour tous les films Warner. Alors, fini les grandes sorties salles ?Il est encore trop tôt pour pouvoir répondre avec certitude, mais, rassurons-nous pour le moment, Ted Sarandos, le patron de Netflix, a affirmé « ne pas vouloir renoncer aux sorties en salles pour les films Warner Bros ». Pour le moment, le modèle hybride semble privilégié et pourrait permettre de concilier salles et streaming.
Oui, vous devriez pouvoir voir le dernier volet de Dune sur grand écran. Pas de panique.
Tout commence en Pologne à Varsovie. En 1994 deux passionnés de jeux (vidéos et de rôles) décident de faire pénétrer en Pologne le marché du jeu vidéo international via une stratégie simple : la traduction. En effet, à cette époque le pays sort tout juste du régime communiste et ne bénéficie pas encore de la mondialisation, l’accès aux jeux-vidéos se fait donc par piratage et n’est accessible qu’en anglais.
C’est alors que Marcin Iwiński et Michał Kiciński ont la brillante idée d’importer des jeux anglophones en Pologne dans la langue nationale. De fil en aiguille l’expertise en traduction se transforme en capacité à adapter des licences littéraires et de jeux de rôles, ainsi verra le jour “The Witcher” par exemple, qui fut une réussite tant par la qualité graphique (notamment le troisième volet) que par la narration. Bénéficiant de succès d’estime, de critiques positives et de retours sur investissements CD PROJEKT RED, l’entreprise éditrice de jeux-vidéos aux centaines d’employés autrefois composée uniquement de nos deux passionnés, décide d’annoncer en 2012 l’adaptation du jeu de rôle “Cyberpunk 2013” créé par Mike Pondsmith en 1988.
C’est lors des Spike Video Games que le studio annonce ce projet accompagné d’un court teaser déjà très beau visuellement, plus ambitieux que tous leurs précédents, un RPG riche en informations, futuriste, avec des choix impactants sur la narration et destiné à un public adulte avec une phrase en fin de vidéo “Coming : when it’s ready”, presque prophétique. Le futur triple A de CD PROJEKT RED est annoncé et il a l’ambition d’être sans équivoque.
Un projet surdimensionné.
Sans équivoque oui mais pas pour les bonnes raisons…Cyberpunk 2077 a probablement vendu la peau de l’ours avant de l’avoir tué, les représentants et les prises de paroles annonçaient un jeu beaucoup trop spectaculaire, laissant des attentes très élevées pour les joueurs : promesses d’un jeu en monde ouvert, plus de 100 heures de quêtes non linéaires, des graphismes poussés.
Comme si ce n’était pas suffisant, en 2019 lors de la fameuse conférence E3, un guest fit son apparition pour annoncer son rôle majeur dans le jeu vidéo : Keanu Reeves, ou Neo dans Matrix pour les autres. Entre annonces visuelles, apparitions de guests, prises de paroles des représentants, il fallait que ce jeu marche, il fallait que les équipes soient concentrées sur le jeu.
Malgré des équipes de plus de 500 personnes, travaillant sur The Witcher 3 prévu pour début 2015 et Cyberpunk sans date annoncée, le crunch fut inévitable. Le crunch c’est la période toxique que l’on nomme comme telle dans l’industrie du jeu vidéo lorsque les employés sont sous pression, ensevelis par la charge de travail et effectuent des journées de 12 à 14 heures. Une période qui a, sans doute, mené aux erreurs que nous verrons après. Car si ces crunchs existent c’est souvent pour répondre à des pressions financières et un public qui perd de l’attention, il est très rare (voire inexistant) que ce soient les équipes qui le demandent car cela rime avec marge d’erreur accentuée, des finitions grotesques et un devoir de patch par la suite.
Un lancement désastreux.
10 décembre 2020, après plusieurs reports le jeu sort enfin sur PC, Xbox One et PS4 et c’est un fiasco. Bugs, moqueries, désintérêt, perte de crédibilité, tout ce qui peut arriver de pire à un jeu lors de sa sortie est arrivé à Cyberpunk 2077. Le jeu est beau certes mais il comporte des erreurs allant même jusqu’aux problèmes de compatibilités avec les consoles, il est impossible de jouer sans que la console ne crashe. Les réseaux sociaux s’emparent de ces problèmes et Cyberpunk fait parler de lui mais en mal, à tel point que le studio en est venu à rembourser des joueurs. Une situation presque inédite, Sony retire le jeu de son store car il est pratiquement injouable sur Playstation, la valeur boursière de CD Projekt chute et le studio fait face au mécontentement des investisseurs.
Après tous ces déboires CD Projekt prend une décision : assumer et s’excuser. Dans le secteur il n’est pas rare de ne pas voir de prise de parole officielle après de tels bides et des dirigeants qui restent fermes sur leurs positions. Et c’est peut-être le mea culpa assumé qui a redonné un affect des joueurs envers le studio. Mais ce n’est pas tout, si le jeu a subi un flop cela ne veut pas dire qu’il ne peut pas être corrigé, et ça les éditeurs l’ont bien en tête : mises à jour, patchs, correctifs, chaque jour le jeu est revu et corrigé. Près de 25 corrections ont été apportées en un peu plus de 2 ans d’exploitations, du jamais vu. Les textures du jeu sont remaniées, les personnages non jouables rééquilibrés, du contenu est ajouté, le jeu devient enfin jouable et appréciable. La confiance des joueurs se regagne.
Sauf que…ce n’est pas tout, encore une fois. CD PROJEKT n’a vraiment pas dit son dernier mot. Septembre 2023 encore un nouveau patch ainsi qu’un DLC ! Une nouvelle expérience de jeu d’une dizaine d’heures, une nouvelle map et le tout uniquement sur consoles next-gen pour ne pas réitérer les mêmes erreurs précédentes. Cette expérience narrative ajoutée permet de montrer ce dont est vraiment capable le jeu une fois abouti complètement mais aussi de gagner des récompenses, comme pour enfoncer le clou : CYBERPUNK 2077 est réussi et corrigé, voici la véritable expérience, pour preuve le jeu a été récompensé aux Game Awards 2023 “Meilleur jeu en évolution”; “Meilleur DLC”; “Meilleure Narration”; “Meilleure composition musicale”; aux Golden Joystick Awards 2023 “Meilleur DLC” et “Meilleure bande-annonce”
Une réussite ?
Parmi les joueurs le jeu fut réévalué, il est de norme désormais d’accorder au jeu qu’il a atteint son plein potentiel désormais après un démarrage catastrophique, ce qui est une performance extrêmement difficile à réaliser avec ces communautés qui n’oublient rien et restent souvent sur leurs premières impressions.
Le jeu devient rentable à terme, plus que le très réussi The Witcher 3, et consolide sa position de AAA malgré l’échec cuisant du démarrage, toutefois la méfiance est de mise désormais pour CD PROJEKT, l’éditeur a entaché sa réputation et il est possible que chacune des sorties soient défavorablement attendues, les memes et trolls prêts à être étalés sur les réseaux sociaux, qu’importe la qualité du jeu.
Keriane GUERMOUCHE.
Sources :
Sous les néons. Cyberpunk, décrypter night city – Matthieu Boutillier
Crédit image : Les Oscars diffusés sur YouTube en exclusivité à partir de 2029 pour atteindre « la plus grande audience possible » La Provence (avec AFP)
Le basculement est historique. En annonçant que la 101e cérémonie des Oscars, prévue pour mars 2029, ne sera plus diffusée sur le réseau ABC mais en exclusivité mondiale sur YouTube, l’Academy of Motion Picture Arts and Sciences (AMPAS) acte la fin de l’ère de la télévision linéaire événementielle. Cette nouvelle marque une rupture structurelle dans l’économie des médias : le passage d’un modèle de rareté hertzienne (audience de masse indifférenciée) à un modèle de convergence numérique (audience fragmentée, ciblée et globalisée).
Pour Disney (maison mère d’ABC) comme pour Google (YouTube), cette transition n’est pas un simple changement de canal, mais une réponse urgente à une crise de valeur. L’ancien modèle de la « grand-messe » télévisuelle, financé par des spots publicitaires généralistes, s’est effondré sous le poids de la délinéarisation.
L’érosion de la TV linéaire : les difficultés d’audiences
La décision de l’Académie s’inscrit dans un contexte de chute vertigineuse des audiences traditionnelles. Si dans les années 2010 les Oscars attiraient plus de 40 millions d’états-uniens, les prime du milieu des années 2020 ont peiné à franchir la barre des 15 millions de téléspectateurs en direct. Cette désaffection n’est pas conjoncturelle, mais générationnelle. La cible commerciale clé (18-49 ans) a déserté le poste de télévision pour une consommation sur plateformes. Le maintien de la diffusion sur ABC était devenu un paradoxe économique : les coûts de production de la cérémonie étaient toujours plus élevés (inflation des talents, sécurité, technologie) alors que la valeur du point d’audience (GRP) s’effondrait, faute de spectateurs.
Pour ABC, la rentabilité de l’événement était devenue critique. La chaîne, contrainte de baisser ses tarifs publicitaires face à la fuite des annonceurs vers le programmatique digital, ne pouvait plus justifier les droits de diffusion exorbitants versés à l’Académie. La fracture est réelle : la télévision linéaire ne permet plus de monétiser efficacement un événement mondial.
YouTube : la conquête de la CTV et du salon
Pourquoi YouTube et non Netflix ou Amazon Prime ? La réponse réside dans la nature même de la convergence des supports. YouTube n’est plus une plateforme de User Generated Content confinée aux smartphones. En 2029, YouTube est devenu le premier acteur de la CTV. Selon les données de Nielsen, le temps de visionnage de YouTube sur les écrans de télévision a dépassé celui de la télévision traditionnelle et du câble américains en mai 2025. En acquérant les Oscars, YouTube ne cherche pas à imiter la télévision, mais à la remplacer sur son propre terrain : le salon.
La stratégie de Google repose sur l’hybridité. La plateforme offre la seule infrastructure capable de gérer la double temporalité de l’événement :
Le flux direct live, qui sera diffusé en 4K sur les téléviseurs connectés, pour l’expérience premium du direct, mais avec de l’interactivité : commentaires en direct, sondages, achats intégrés…
La fragmentation virale car simultanément au direct, des milliers de clips (shorts) sont générés et poussés par l’algorithme vers des audiences qui ne regardent pas la cérémonie entière.
C’est ici que la notion de convergence prend tout son sens. Là où ABC vendait 3 heures de temps de cerveau disponible, YouTube vend des millions de micro-moments contextualisés avant, pendant et après la cérémonie.
La révolution du modèle économique : de l’exposition à la conversion
Le véritable moteur de ce transfert est la mutation de la chaîne de valeur publicitaire. Le modèle historique des Oscars reposait sur la rareté : quelques créneaux de 30 secondes vendus à prix fort à des marques institutionnelles. Avec YouTube, la logique s’inverse : l’inventaire publicitaire devient infini et programmatique.
L’annonceur ne paye plus pour une audience globale dont une grande partie n’est pas sa cible. Grâce à la data de Google, une publicité pour un produit cosmétique ne sera montrée qu’aux spectateurs ayant une affinité démontrée pour la beauté, tandis qu’un autre foyer verra une publicité pour de la tech.
Également, la convergence permet de transformer le spectateur en consommateur immédiat. Les tenues des stars sur le tapis rouge, les accessoires, ou les films primés seront cliquables et achetables en temps réel via Google Shopping intégré au flux vidéo.
La valeur de l’événement ne réside plus dans l’audience brute (le nombre de personnes devant l’écran) mais dans l’audience qualifiée et activable. YouTube promet à l’Académie non seulement une diffusion, mais une conversion.
Le défi de la fragmentation : risque de dilution de la marque ?
La logique économique est rodée, mais ce basculement comporte un risque majeur pour l’institution des Oscars : la désacralisation. La télévision linéaire, par ses contraintes horaires et son unicité donnait une solennité à l’événement. En basculant sur YouTube, les Oscars entrent dans la guerre de l’économie de l’attention, en concurrence directe avec les créateurs de contenu et les influenceurs.
Le risque est donc que la majorité des spectateurs de 2029 ne regarderont pas la cérémonie en entier, mais consommeront uniquement les discours les plus polémiques ou les moments forts via des YouTube Shorts. L’unité de lieu et de temps, qui faisait la force du direct télévisé, vole en éclats.
L’Académie fait le pari que cette fragmentation est le prix à payer pour la survie. En touchant une audience mondiale (l’accès n’est plus géobloqué par des diffuseurs nationaux comme Canal+ en France ou ProSieben en Allemagne), les Oscars espèrent rajeunir une marque vieillissante. C’est une stratégie de volume global contre une stratégie de prestige local.
Une géopolitique des médias redéfinie
Enfin, cet accord illustre la victoire finale des géants de la tech sur les conglomérats médiatiques historiques. En perdant les Oscars, Disney/ABC perd l’un de ses derniers attouts qui faisait résistance face au cord-cutting. Ce mouvement anticipe une reconfiguration totale des droits sportifs et événementiels. Si YouTube est capable de gérer une audience mondiale pour les Oscars sans problème technique et avec une rentabilité publicitaire supérieure, la voie est ouverte pour que le Super Bowl ou la Coupe du Monde de la FIFA suivent le même chemin dans la décennie 2030. Ainsi, pour survivre, les grands événements culturels doivent accepter de sacrifier leur exclusivité hertzienne pour espérer capter l’attention volatile d’une audience mondialisée.
Chaque soir, plusieurs millions de Français allument leur télévision pour regarder le JT de 20 heures. Mais ces derniers temps, du côté de France 2, le 20h vacille. Gaffes, erreurs factuelles, séquences gênantes… Le journal s’invite malgré lui dans le best of des ratés médiatiques. Derrière ces loupés et les tensions informationnelles, le problème est-il seulement éditorial ? Trouve-t-il sa source dans la gouvernance de l’information ?
Source : commonswikimedia.org
La saga Salamé : quand le JT fait flop
Depuis 2017, le JT du 20H de France 2 est présenté par Anne-Sophie Lapix. Mais en août 2025, Delphine Ernotte, la présidente de France Télévisions, choisit l’ex-présentatrice de la matinale de France Inter, Léa Salamé, pour reprendre le flambeau du JT de 20H. Considérant la journaliste comme « une figure du service public, Léa a porté de grands rendez-vous démocratiques et a incarné avec talent la couverture des Jeux de Paris 2024 », a-t-elle confié au journal Le Figaro. Sans plus de détails apportés au regard de ce choix, hormis une volonté de changements concernant la chaîne.
Et des changements, il y en a eu ! Pas forcément pour le bonheur de France 2 d’ailleurs… Avant même sa première apparition à l’antenne, Léa Salamé est la cible de moqueries sur les réseaux sociaux. France 2 orchestre pourtant sa montée en puissance : la chaîne diffuse une vidéo de promotion. La future présentatrice y répète le célèbre « Madame, Monsieur, bonsoir ». Dans sa voiture, dans les couloirs de France Télévisions, à la cantine. À chaque fois, la même recherche de ton, la bonne intonation, le bon rythme. Sur les réseaux sociaux, on reproche à la chaîne de faire un peu du star-système, en mettant en avant une personnalité et non pas l’information en elle-même.
À l’antenne, les débuts de la nouvelle présentatrice virent à la saga médiatique. Les audiences repartent à la hausse, certes, avec 4,02 millions de téléspectateurs au lieu des 2,5 millions moyens habituellement (source : Médiamétrie). Un rebond net, porté par un effet de curiosité évident. Mais l’élan est de courte durée. Les prises d’antenne fourmillent de couacs. On s’interroge sur les premières images de Léa Salamé qui ajuste son haut sur le plateau en se regardant dans le retour caméra. Tout ça en plein direct. Une séquence anodine, peut-être, mais commentée.
Puis l’affaire devient moins anecdotique… Souvenez-vous : l’épisode du « Roi des bons plans ». Un sujet diffusé dans la rubrique « Grand Format » du 20h. Ce jour-là, il est consacré à « Arnaud, le roi des bons plans », interviewé pour ses techniques d’économies dans les supermarchés. Problème : l’homme filmé est en fait l’humoriste « Mehdi tu connais », expert des canulars sur les réseaux sociaux. Le JT de la Deux s’est fait piéger par un influenceur du net. Difficile de faire plus décevant pour l’exigence de vérification de l’information que l’on attend d’un média public.
Et pourtant… Cette confusion : en octobre, le présentateur du JT de 13H affirme à tort que le professeur Dominique Bernard, assassiné à Arras en 2023, a été tué après avoir « montré des caricatures de Charlie Hebdo », est-il précisé lorsque son nom est évoqué. Quelques heures plus tard, la même fausse information est reprise au 20 heures par Léa Salamé. En réalité, les faits concernent Samuel Paty, assassiné en 2020. L’erreur aurait pu être corrigée entre les deux éditions puisqu’elle a été identifiée après le JT de 13 heures. Sauf qu’aucune correction n’a été apportée avant 20 heures, faute d’un manque de communication entre les deux éditions.
Alors, dans ce contexte informationnel assombri par la crainte de la fake news, ces bourdes en cascade sapent la crédibilité du journal télévisé que la Deux s’attache à reconstruire.
À la 2 c’est un peu la mode du dégagisme
Delphine Ernotte Cunci, la présidente de France Télévisions, impose sa vision. Sa politique de coupes budgétaires, son « mépris certain pour ses salariés », comme mentionné dans le journal l’Humanité… Dans son dossier de candidature, elle prévoyait le « non-remplacement des départs » et une « modération salariale », qu’elle disait s’appliquer à elle-même (sa rémunération s’élève à 400 000 euros par an, primes comprises durant son premier mandat). Lorsqu’elle était chez Orange, Delphine Ernotte avait la réputation d’être « omniprésente », de « se mêler de tout ». Et cela semble être le même tarif à France Télévisions. En 2017, David Pujadas est éjecté du 20 heures de France 2 alors qu’il le présentait depuis 16 ans. La nouvelle est tombée le matin même comme une bombe au sein de la rédaction de la chaîne. La direction de France Télévisions ne cachait plus son intention de s’attaquer au problème. L’année précédente, elle avait déjà envoyé un signal à David Pujadas en supprimant soudainement son émission politique Des paroles et des actes, pour la remplacer par l’Émission politique, dont il a été contraint de partager la présentation avec une certaine… Léa Salamé !
Une mainmise du PDG sur la chaîne publique ?
La présidente de France Télévisions est nommée par l’ARCOM, dont le président est lui-même désigné par le président de la République. Ce mode de nomination confère, de fait, une dimension politique à la fonction. Officiellement indépendante, la présidence de France Télévisions est néanmoins souvent perçue comme devant s’inscrire dans un équilibre compatible avec les orientations du pouvoir exécutif.
En tant que responsable légale et éditoriale du groupe, elle est garante du cahier des charges du service public : information pluraliste, diversité, soutien à la création, etc. Le JT de 20 heures est le symbole le plus visible de cette mission. Il incarne la crédibilité et la neutralité de la marque France Télévisions.
Mais Delphine Ernotte ne doit pas répondre qu’à des principes. Elle doit aussi réussir la course aux chiffres. Le 20h de France 2 est durablement distancé par celui de TF1. 2,7 millions de téléspectateurs en moyenne, contre 5,5 millions pour son concurrent (source : Médiamétrie). Conséquence : face à cette pression, la présidente prend des décisions stratégiques (ou de casting) pour tenter de rattraper le retard.
En nommant ou en destituant un présentateur, elle agit de fait sur la ligne globale du groupe dont elle est responsable devant l’État, le Parlement et les citoyens. Le départ d’Anne-Sophie Lapix semble s’inscrire dans cette logique. La chaîne ne l’a jamais officiellement reliée à des considérations politiques, même si la journaliste était réputée pour la fermeté de ses interviews au point qu’Emmanuel Macron avait refusé de lui accorder un entretien en 2022. S’agit-il d’un simple choix d’audience ou d’un arbitrage plus large ? Delphine Ernotte, elle, s’est contentée d’évoquer un besoin de « changement » sans jamais expliquer son choix.
Le contre-exemple du privé : une indépendance par délégation ?
Du côté des chaînes privées, la gouvernance de l’information repose sur un schéma différent. Pas nécessairement plus vertueux mais autrement structuré.
Prenons l’exemple TF1. Leur modèle repose sur la logique commerciale. Le JT est un produit stratégique : il doit fédérer une large audience, garantir des écrans publicitaires attractifs et in fine, soutenir les revenus du groupe. Le PDG, Rodolphe Belmer n’a, a priori pas la mainmise sur ces décisions. Les choix de la rédaction : nomination du présentateur, des chefs de service, recrutement des journalistes, sont délégués au directeur de l’information, Thierry Thuillier (ex-journaliste) et au directeur de la rédaction, Éric Monier (ex-journaliste).
La chaîne TF1 peut avoir des affinités politiques ou économiques, certes, mais la nomination du présentateur est vue comme une décision de management interne orientée vers la performance plutôt que soumise à une surveillance politique. Résultat : l’information est structurellement indépendante de la direction générale.
Toutefois la mainmise de la direction sur l’information ne semble pas inenvisageable. Un journaliste de LCI/TF1, contacté pour la réalisation de cet article, nous confie que les très rares occasions où la direction de l’information intervient directement dans la fabrication des sujets concernent des moments politiques assez sensibles. Un exemple récent : l’affaire judiciaire concernant l’ancien Président de la République, Nicolas Sarkozy. Pourtant, cet épisode rarissime et isolé ne permet pas, à lui seul, d’établir la nature ou l’intensité des liens entre TF1 et le pouvoir politique.
Preuve que, là aussi, le 20 heures reste un espace hautement stratégique, voire même d’expression majeur pour le monde politique où se succèdent Premiers ministres, ministres et responsables de premier plan.
Le scrapbooking est à l’origine une forme de loisir créatif qui consiste à réaliser une ou plusieurs pages de journal en y incorporant des photos, du texte, des images, des stickers ou encore des dessins en lien avec le thème abordé. Le digital scrapbooking n’en est que sa version numérique. Il peut être tentant d’y voir une simple déclinaison numérique d’un loisir créatif. En réalité son apparition et son évolution correspond à une rupture technologique culturelle et économique bien plus profonde, liée à l’émergence des logiciels de création graphique à destination du grand public, l’essor d’internet comme espace de partage communautaire et à sa capacité de monétisation.
L’émergence du scrapbooking
A partir de la fin des années 1990, les appareils photo numériques deviennent de plus en plus accessibles au grand public. Les photos ne sont plus rares, coûteuses ou limitées par la pellicule.Ces photos se multiplient s’archivent sur ordinateurs, elles ne sont plus imprimées. Se pose alors une nouvelle question : comment organiser et raconter ces souvenirs numériques.
En parallèle, la démocratisation du web permet l’accès à des outils autrefois réservés aux professionnels tant sur le plan technique que financier d’être accessible par un public non spécialisé. On pense notamment au développement d’Illustrator et de Photoshop. Ces derniers permettent les débuts du digital scrapbooking. Des conseils et exemples se partagent sur des blogs.
Ces pratiques s’accélèrent dans les années 2000, un moment charnière où les médias sociaux rentrent dans nos mœurs. Ces derniers bouleversent nos rapports à la photographie et aux souvenirs et surtout permettent de structurer des communautés autour de différents points de contact, notamment des passions communes. Les pratiques alors marginales et personnelles du digital scrapbooking s’organisent. Les communautés s’entraident, les aficionados du scrapbooking y apprennent à digitaliser leurs pages. Les membres s’échangent des conseils et des fichiers numériques : papiers scannés, alphabets digitaux, etc. Le principe est largement fondé sur l’échange gratuit, dans un esprit qu’on pourrait qualifier d’open source créatif.
S’il existe peu de sources claires quant à l’origine du digital scrapbooking, le point de départ de sa démocratisation se trouve ici. On assiste à l’émergence de cette communauté en ligne qui se structure, qui s’organise.
L’émergence des plateformes de ventes digitales
Rapidement, internet permet de monétiser et de vendre ses produits. Le digital scrapbooking n’y échappe pas. Certaines créatrices commencent à produire des ensembles cohérents d’éléments graphiques : papiers numériques, alphabets, stickers. Ces ensembles, appelés kits ou templates, peuvent être réutilisés par d’autres pour composer leurs propres digital scrapbooking. La vente se fait d’abord de manière très artisanale, via eBay et Paypal, utilisé comme solution de paiement informel. Dans la seconde partie des années 2000, des plateformes dédiées au digital scrapbooking apparaissent. Parmi les plateformes on retrouve notamment The LilyPad, Sweet Shoppe Designs et Oscraps. Crée en 2007, Oscraps introduit à la fois la vente de templates digitaux ainsi qu’un forum d’échange et de conseils sur le scrapbooking.
Ces plateformes jouent un rôle fondamental, elles inventent le modèle économique de la niche digital scrapbooking et permettent au marché de commencer à se structurer.
Avec la montée en puissance des plateformes Etsy et Shopify, le digital scrapbooking entre dans une phase plus visible. Etsy permet la vente de produits numériques sans infrastructure technique complexe, à destination d’un public plus large. Les produits peuvent être mis en vente sans validation préalable, il est possible pour de nouvelles créatrices d’émerger et de faire connaître leur travail. Les créatrices les plus connues peuvent elles créer leurs propres sites à moindre coûts grâce à Shopify.
Le cas Canva
Créé en 2012, Canva est un logiciel de conception graphique en ligne. Il permet de créer toutes sortes d’illustrations et permet également les retouches vidéos et photos. Son mode d’utilisation est simple : une interface glisser-déposer. Basé sur un modèle freemium, il permet l’utilisation de templates de powerpoint, affiche, cartes créés par d’autres utilisateurs. Ces templates peuvent être totalement gratuits, totalement payants ou bien intégrant seulement quelques éléments payants. Il est également possible dans la barre de recherche d’ajouter des éléments, gratuits ou payants. Les templates ou éléments peuvent être achetés un par un occasionnellement ou bien disponibles avec un abonnement mensuel Pro.
La démocratisation de Canva marque un tournant majeur et intéressant pour le digital scrapbooking. Le logiciel, très simple d’utilisation, disponible en application ainsi qu’en ligne et accessible depuis n’importe quel terminal doté d’internet permet à un large nombre son utilisation. Ainsi quelques euros suffisent pour acquérir un kit complet, téléchargeable instantanément. Les prix sont faibles, la production est régulière et cette pratique devient accessible aux non passionnés qui peuvent réaliser des pages de digital scrapbooking sans y consacrer (trop) de temps.
Il existe également d’autres logiciels et applications populaires, notamment Procreate, 17V28 ou encore Paper.
Les réseaux sociaux, accélérateurs de visibilité
L’économie de l’influence peut être définie comme un système dans lequel des individus transforment la visibilité acquise au sein de communautés spécifiques en valeur économique. Cette transformation repose sur plusieurs leviers : une crédibilité construite dans la durée, la relation parasociale nouée avec l’audience, et des mécanismes de recommandation souvent implicites, intégrés aux pratiques ordinaires de publication.
Dans le cas du digital scrapbooking, ces mécanismes prennent des formes visuelles spécifiques. Les photo dumps ou les vidéos montrant le processus créatif, diffuser sur TikTok ou Instagram ne se contentent pas de documenter une pratique personnelle. Elles fonctionnent également comme des outils d’auto-promotion, en montrant les templates, les mises en page ou les éléments graphiques directement en situation d’usage. La démonstration du geste créatif devient alors un support de prescription, sans recourir à un discours publicitaire explicite.
Un exemple intéressant de cela est le compte TikTok de @tohkyopress. Avec une communauté relativement réduite, 6902 abonnés à la date du 30 décembre 2025, c’est une nano-influenceuse. Pourtant son compte cumule plus d’1,2 millions de likes. Sur ses publications, notamment les plus virales, les commentaires la sollicitent pour avoir accès aux templates qu’elle utilise.
Ces templates, utilisables sur Canva, sont ensuite commercialisés sur sa boutique Shopify ainsi que sur Etsy, pour un prix inférieur à 10 euros. La visibilité générée par les réseaux sociaux se convertit ainsi directement en transactions.
Cet exemple illustre plus largement la manière dont l’économie de l’influence du scrapbooking se structure autour de niches. Dans ces espaces, la performance économique repose moins sur la taille de l’audience que sur la qualité du lien, la confiance accordée à l’expertise du créateur et la capacité à intégrer la recommandation au cœur même de la pratique créative.
Lesnouvelles formes de monétisation : le cas de Natasha Ahmed
Les micro paiements issus des achats de template Canva ou autre doivent être massifs pour être conséquents et permettre de ne vivre que de cela. Les créateurs de contenus ont donc intérêt à diversifier leurs portefeuilles avec l’une des composantes principales de l’économie de l’influence : la collaboration commerciale.
Chez les créatrices de contenus spécialisées dans le scrapbooking on retrouve des publicités plutôt classiques. De promotion d’outils et matériaux à destination du digital scrapbooking : partenariats avec Adobe ou Canva. On y retrouve aussi des partenariats avec des sociétés d’impression pour l’impression d’album physique réalisé grâce au digital scrapbooking.
La pratique du digital scrapbooking permet également l’essor de nouvelles manières de présenter un produit. En voici deux exemples tirés de l’influenceuse britannique aux 200 000 abonnés Natasha Ahmed.
Tout d’abord on retrouve des « spread » des pages de digital scrapbook ou encore de junk journal avec des objets aimés récemment (à droite ci dessous), ou bien qui intègre tous les éléments d’une page de digital scrapbook accompagné d’un ou plusieurs produits (à gauche ci-dessous). On est ici sur une forme de recommandation par la démonstration. Comme on peut le voir sur les exemples ci-dessous, on retrouve alors une publicité plus subtile, plus dissimulée.
Cette pratique est très efficace avec des taux de conversion proportionnellement plus importants. En effet, Dina Younis démontre que l’exposition à des contenus générés par les utilisateurs des réseaux sociaux, que l’on nomme User Generated Content, ou plus rapidement UGC, augmente significativement la perception à la fois d’authenticité et de confiance envers une marque. Cela entraîne une intention plus élevée d’achats comparée aux formats publicitaires plus traditionnels.
Un autre exemple est celui du partenariat. On peut observer ci-dessous un exemple vidéo de partenariats publicitaires entre Natasha Ahmed et Netflix House Dallas. La page de du digital scrapbook est centrée autour du produit et en fait sa promotion.
Ces publicités sont particulièrement redoutables car elles forment un tout, on est sur un contenu natif ou de marketing intégré, il y a une recommandation implicite basée sur l’usage. Ce type de contenu est plus authentique et proche de l’expérience personnelle, tout le point fort des contenus UGC.
Structuration d’une véritable micro-industrie
Le digital scrapbooking illustre finalement une réalité souvent sous-estimée de l’économie de l’influence: les niches, lorsqu’elles sont bien comprises et bien investies, peuvent être (extrêmement) rentables.
Cette observation rejoint l’analyse de Catherene J. and Kalaivani B. sur l’évolution du marketing d’influence. Les marques tendent à privilégier des créateurs positionnés sur des niches clairement identifiées, disposant d’audiences plus restreintes mais fortement engagées, plutôt que des profils à forte audience mais faiblement spécialisés. Le succès d’une campagne repose alors moins sur le volume de followers que sur le lien entre l’univers du créateur et celui de la marque, ainsi que sur la confiance et l’engagement générés auprès de la communauté. Dans cette logique de spécialisation, la crédibilité et la reconnaissance communautaire priment largement sur le nombre d’abonnés.
Toutefois, ce modèle ne se limite plus aujourd’hui aux seuls cercles d’initiés. En effet, de nombreuses personnes qui ne sont pas familières avec la pratique physique ou digitale du scrapbooking adoptent de manière occasionnelle ces codes pour des posts sur les réseaux sociaux. Cette diffusion est facilitée par des outils de création accessibles et simples de prise en main et par la visibilité accrue de ces contenus permises par les réseaux sociaux (notamment Instagram, Tiktok et Pinterest). De plus, ces utilisateurs occasionnels sont une source de revenus. Le scrapbooking devient alors, pour certains, moins un loisir hérité qu’un terrain d’expérimentation créatif et économique.
Le digital scrapbooking montre ainsi qu’il est possible de monétiser durablement une pratique créative, notamment grâce aux plateformes à la fois de création, de partage et de vente. Nous sommes ici face à un cas d’école de l’économie de l’influence qui nous prouve que la niche n’est pas une limite mais un avantage.
Depuis le lancement de la plateforme Spotify en 2008, le streaming s’est progressivement imposé en l’espace de deux décennies comme le mode d’accès dominant à la musique enregistrée. Cette mutation a profondément transformé les pratiques d’écoute ainsi que les modèles économiques de l’industrie musicale.
Selon le Global Music Report 20251, publié par la Fédération internationale de l’industrie phonographique (IFPI), les revenus mondiaux de la musique enregistrée ont atteint 29,6 milliards de dollars en 2024, soit une croissance annuelle de 4,8 % par rapport à 2023. Cette dynamique est largement portée par le streaming par abonnement, dont les revenus ont progressé de 9,5 % sur un an. Dans le même temps, le nombre d’abonnés payants a enregistré une hausse significative de 10,6 %, pour atteindre 752 millions d’utilisateurs à l’échelle mondiale. Dans certaines régions, le streaming représente désormais près de 87,8 % des recettes de la musique enregistrée, confirmant son rôle central dans l’économie musicale contemporaine.
Au sein de cet écosystème, déjà largement dominé par les plateformes numériques, l’intelligence artificielle émerge comme un nouveau facteur structurel de transformation. Elle redéfinie les modalités de découverte musicale, de rémunération des artistes et les dynamiques concurrentielles des acteurs. L’IA influence non seulement les modèles de recommandation et d’engagement des utilisateurs, mais aussi la création même des contenus, notamment à travers la production de musique générée automatiquement ou assistée par IA.
Dans ce contexte, se pose la question de savoir si ces évolutions conduisent à une reconfiguration durable du marché au bénéfice des plateformes et des artistes, ou si elles participent, au contraire, à l’émergence de nouveaux déséquilibres au sein de l’industrie musicale.
L’IA et la reconfiguration de l’expérience utilisateur
L’IA occupe aujourd’hui une place centrale dans les systèmes de recommandation des plateformes de streaming musical. Des modèles algorithmiques sophistiqués analysent non seulement les habitudes d’écoute des utilisateurs, mais aussi des informations contextuelles afin de proposer des playlists personnalisées. Cette personnalisation, longtemps perçue comme un simple enrichissement de l’expérience, est devenue un outil de fidélisation et de croissance des abonnés.
À titre d’exemple, la plateforme Deezer a développé la fonctionnalité Flow2, qui repose sur des recommandations pilotées par l’IA pour ajuster les flux d’écoute en temps réel. Ce dispositif propose à chaque utilisateur un « mix » individualisé, combinant des titres familiers et des œuvres inédites, dans une logique d’accompagnement continu de l’écoute. Si de tels mécanismes peuvent favoriser la découverte de nouveaux artistes et de nouveaux genres musicaux, ils soulèvent néanmoins plusieurs enjeux critiques. Leur efficacité repose en effet sur un équilibre délicat entre personnalisation algorithmique et diversité culturelle, mais également sur la transparence des systèmes de recommandation, notamment en ce qui concerne l’origine, la visibilité et la nature des contenus mis en avant.
L’IA et production musicale
Au-delà des systèmes de recommandation, l’intelligence artificielle s’impose désormais comme un véritable outil de création musicale. Comme le souligne une étude consacrée à l’IA dans la filière musicale, publiée par le Centre national de la musique3, ces technologies offrent aux créateurs de nouveaux instruments pour innover, collaborer différemment et renouveler les formes d’expression artistique. Des systèmes tels que Suno, Udio ou d’autres générateurs dits text-to-audio permettent ainsi à tout utilisateur, professionnel ou amateur, de produire des morceaux complets à partir de simples instructions textuelles. Ce phénomène, longtemps marginal, connaît aujourd’hui une phase d’industrialisation à une échelle inédite.
Selon certaines plateformes et études récentes, jusqu’à 28 % des titres déposés quotidiennement sur les plateformes pourraient désormais être entièrement générés par IA4. A titre d’exemple, Deezer indiquait dans un communiqué en 2024, qu’environ1 titre sur 10 soumis à la plateforme avait été créé à l’aide d’outils IA. De son côté, Spotify a annoncé avoir supprimé entre 2024 et 2025 près de 75 millions de morceaux jugés frauduleux5, une opération sans précédent qui illustre l’ampleur du phénomène.
L’impact de l’IA sur les modèles de rémunération des artistes
L’intégration massive de l’IA dans le jeu des plateformes remet en question les modèles traditionnels de rémunération. Les systèmes classiques, fondés sur le nombre de streams payants ou publicitaires, peinent à prendre en compte l’authenticité ou la provenance des contenus.
L’intégration massive de l’intelligence artificielle au sein des plateformes de streaming a aussi remis en question les modèles traditionnels de rémunération des artistes. Les dispositifs actuels, principalement fondés sur le volume de streams, qu’ils soient issus d’abonnements payants ou de l’écoute financée par la publicité, peinent à intégrer des critères tels que l’authenticité des œuvres, l’identité des créateurs ou la provenance des contenus diffusés.
La multiplication des titres générés par l’IA complexifie ainsi la répartition équitable des revenus entre les artistes humains ou les utilisateurs à l’origine des prompts. Par ailleurs, la présence de contenus « spam » ou frauduleux générés automatiquement, souvent conçus pour récolter artificiellement des micro-royalties, complique encore la distribution équitable des revenus. Selon une étude de la Confédération internationale des sociétés d’auteurs et compositeurs (CISAC), l’IFPI, l’IA pourrait capter jusqu’à 24 % des revenus des créateurs traditionnels d’ici 20286, entraînant une perte potentielle de plusieurs milliards d’euros pour les artistes.
Transparence et information des utilisateurs
Enfin, l’un des principaux défis de l’IA dans le streaming est la transparence. Les utilisateurs tendent à ignorer si un morceau est humainement créé ou généré par une IA, tel qu’indiqué par une étude Ipsos, montrant que jusqu’à 97 % des auditeurs ne peuvent pas faire cette distinction à l’écoute seule7.
Cette indistinction soulève des enjeux majeurs en matière de confiance et d’expérience utilisateur. C’est dans cette perspective que certaines plateformes, à l’instar de Deezer, ont développé des outils spécifiques de détection et de signalement des titres générés par l’IA. Ces dispositifs visent à mieux informer les utilisateurs, tout en limitant l’influence des contenus automatisés et potentiellement frauduleux sur les systèmes de recommandation.
Il est 14h12 un mardi, et ton téléphone vient de vibrer. Ce n’est pas un message de ta meilleure amie, mais un extrait vidéo de Lucas, ton personnage préféré, en pleine discussion dans la cour du lycée. Bienvenue dans l’univers de SKAM, la série qui a jeté le poste de télévision par la fenêtre pour s’installer directement dans ta poche ! 🤳
Née en Norvège en 2015, la web-série SKAM suit jour après jour la vie d’une bande de lycéens faisant face à leurs complexes, leurs anxiétés, et leurs problématiques sociales. Adaptée dans six pays du monde, France.tv Slash lance la version française en 2018. Si les premiers épisodes de SKAM France copient au plan près la version Norvégienne, elle s’en détache peu à peu, en mettant en scène de nouveaux personnages et de nouveaux arcs narratifs. Chaque saison se focalise sur un personnage et sa propre thématique, autour de laquelle gravite l’intrigue.
Chaque saison prend le point de vue d’un personnage et aborde sa thématique propre
Contrairement aux séries classiques, SKAMse vit au rythme de la vie réelle : tout au long de la semaine, des extraits sont diffusés sur YouTube, et les personnages disposent tous d’un compte Instagram, sur lequel il est possible de suivre l’histoire en immersion grâce à des storys et des publications.
Véritable expérience transmédia, comment SKAMFrance brouille-t-elle les frontières entre fiction et réalité, pour placer le spectateur au cœur de la narration ? 🧐
Vivre l’instant avec les personnages
SKAM a cassé les codes de la diffusion linéaire traditionnelle pour adopter une temporalité imprévisible. En effet, des extraits (« clips ») des épisodes intégraux sont publiés sur YouTube au moment exact où la scène est censée se dérouler dans la fiction.
Exemple : Emma et Lucas discutent dans la cour du lycée le lundi à 12H42 ⏰ Au même moment, le clip vidéo de cette discussion est publié sur YouTube.
Clips publiés sur YouTube
Ce choix de diffusion en temps réel crée une synchronisation entre la vie du spectateur et celle des personnages : l’histoire ne se déroule plus devant lui, mais en même temps que lui. Le spectateur n’a aucun contrôle sur le rythme de diffusion et doit s’adapter à celui de la fiction, comme il le ferait pour suivre des événements de la vie réelle. Une contrainte temporelle qui renforce l’illusion de réalité, et transforme chaque extrait en un instant vécu, plutôt qu’en une simple scène regardée.
En plus de favoriser l’immersion dans la fiction, cette diffusion au compte-gouttes crée une tension narrative. Les fans vivent dans l’attente d’une notification, chaque vibration du téléphone devient potentiellement un moment clé de l’intrigue. Contrairement au binge-watching, SKAM impose un rythme lent, proche de celui de la vie réelle, où l’ennui, l’attente et l’incertitude font pleinement partie de l’expérience. Les réseaux sociaux deviennent alors des espaces de réactions collectives : on analyse une réplique, on anticipe la suite, on partage ses émotions à chaud. Cette temporalité fragmentée entretient un suspense constant et crée un rendez-vous émotionnel partagé par toute une communauté.
Le vendredi, l’ensemble de ces clips est réuni pour former un épisode complet de 25 minutes, permettant une séance de rattrapage pour ceux qui n’ont pas suivi le direct.
Le transmédia comme moteur de réalisme : la vie hors écran
Ce mode de diffusion imprévisible n’est pas le seul élément favorisant l’immersion dans la fiction.
Chaque personnage possède aussi un compte Instagram actif, où il publie des photos de soirée avec ses potes, son brunch du dimanche matin, ou encore son score au laser game de samedi 🔫 Ces contenus, en apparence anodins, reprennent les codes esthétiques et narratifs des réseaux sociaux adolescents : selfies imparfaits, légendes spontanées, stories éphémères… Lorsque le spectateur consulte son propre fil Instagram, il peut ainsi tomber sur une publication de Lucas ou d’Emma entre deux photos de ses amis, ancrant la fiction directement dans son quotidien. Cette intrusion discrète de la série dans les usages personnels du public efface la frontière entre personnages fictifs et personnes réelles, donnant l’illusion que ces adolescents existent réellement.
Publication sur le compte Instagram du personnage de Lucas
Des captures d’écran de conversations privées sont également publiées sur la page officielle SKAM France, et révèlent ainsi des pans de l’intrigue non diffusés en vidéo. On donne au spectateur accès à l’intimité des personnages, comme s’il était admis dans leur sphère privée.
Ces comptes ne servent pas uniquement à illustrer la vie des personnages, mais participent pleinement à la narration. Certaines publications viennent prolonger ou commenter des événements déjà vus à l’écran, tandis que d’autres annoncent subtilement des tensions à venir. Le spectateur attentif peut ainsi essayer de déceler des indices narratifs dans une story ou un post, renforçant son engagement et son sentiment de proximité avec les personnages.
Le succès de SKAM repose sur une communauté qui ne se contente pas de regarder, mais qui participe activement à la vie de la série.
Les fans sont les premiers ambassadeurs de la série : ils créent des fandoms puissants qui font rayonner l’œuvre mondialement. La série d’origine étant uniquement diffusée en Norvège, en langue Norvégienne, les fans ont pris le relais. Certains d’entre eux se sont chargés bénévolement de traduire les épisodes en anglais pour les communautés étrangères ; les épisodes sous-titrés étaient ensuite mis en ligne sur des drives Google, dont il fallait trouver les liens sur Twitter. Si la série s’est faite connaître à l’étranger avant d’être adaptée, c’est donc uniquement par la puissance de la communauté de fans ! 💪
Les fans ne sont pas seulement des relais de diffusion, ils deviennent de véritables gardiens de l’expérience autour de SKAM. Par exemple, lorsque des éléments de la saison 5 de SKAM France ont été accidentellement divulgués dans un article en ligne, la communauté s’est mobilisée massivement pour “nettoyer” Internet des spoilers. Captures d’écran, extraits révélateurs ou théories anticipées ont été effacés ou signalés par les fans eux-mêmes afin de préserver l’expérience de découverte pour les autres spectateurs.
Relais de diffusion, protecteurs du récit, les fans ont aussi un rôle de co-création dans l’univers de SKAM. 👨🎨
L’imagination des fans comble les béances narratives à travers des fanfictions, prolongeant l’existence des personnages au-delà de la diffusion officielle. Par exemple, la saison 3 se focalise sur le couple de Lucas et Eliott, dont l’histoire passe alors au second plan les saisons suivantes (chaque saison se concentre sur le point de vue d’un personnage). Certains fans ont ainsi décidé d’entreprendre l’écriture de la suite de leur histoire, pour la faire perdurer (ou pas !), accessible gratuitement sur des plateformes comme Wattpad.
Depuis l’arrivée de TikTok, on voit aussi émerger de nombreux montages vidéo (edits), permettant non seulement aux fans de communiquer sur la série, mais aussi de la faire vivre d’une manière différente.
The End., une fanfiction inventant la rupture de Lucas et Eliott, publiée sur Wattpad
Afin de renforcer davantage le lien avec la communauté de fans, des projections des épisodes de SKAM France ont été organisées à Paris pour les saisons 3 et 4. Non seulement les fans peuvent y voir des épisodes en avant-première, mais c’est aussi l’occasion pour eux de rencontrer les personnages qu’ils suivent au quotidien ! Lors de questions-réponses, les spectateurs échangent avec les acteurs, puis à la sortie de la salle, les fans se rencontrent, discutent entre eux et prennent des photos avec ceux qu’ils suivaient jusque-là uniquement à travers leurs écrans. Ces moments de rencontre prolongent l’expérience transmédia dans le monde physique, brouillant encore davantage les frontières entre fiction et réalité. Les personnages quittent l’espace numérique pour exister dans le réel, le temps d’une soirée, renforçant le sentiment d’appartenance à une communauté soudée autour de la série.
Rencontre entre Maxence Danet-Fauvel, l’acteur d’Eliott, et une fan lors d’une projection SKAM France
SKAM ne se contente pas de raconter une histoire : elle propose une nouvelle manière de la vivre. En exploitant pleinement les codes du transmédia, la série redéfinit la place du spectateur, désormais immergé, impliqué et parfois même acteur de la narration. À l’heure où les contenus se multiplient et se consomment toujours plus vite, SKAM fait le pari inverse : ralentir, fragmenter, et créer du lien. 💖
Marine Marzin
Sources
Cluseret, M., Le public au cœur de la narration. Transmédia, espaces numériques et implication des publics. L’exemple de la série SKAM FRANCE. Mémoire de Master 2, CELSA Sorbonne Université (2024) Disponible sur : https://dumas.ccsd.cnrs.fr/dumas-04873021v1
Dans nos salons européens, la « Box » internet est devenue le métronome de nos vies numériques. Elle agrège nos consommations, enregistre nos préférences et, surtout, renvoie en temps réel aux instituts de mesure une mine d’or de données via sa « voie de retour ». Mais que se passe-t-il dès que l’on sort de ce confort filaire ? Dans de vastes régions du monde, de l’Afrique subsaharienne à l’Asie du Sud-Est, le modèle de la télévision par IP (IPTV) est quasi inexistant. Pourtant, on y consomme massivement des contenus, sur des écrans partagés ou des smartphones. Comment transformer ces spectateurs « invisibles » en données monétisables ? Voici les coulisses de la mesure d’audience « Mobile-First ».
Le paradoxe du « Leapfrog » technologique
Le concept de « Leapfrog » (saut de grenouille) décrit parfaitement la situation des marchés émergents : ces pays ont sauté l’étape de la ligne fixe et du câble pour passer directement au tout-mobile. En Afrique, selon le rapport Digital 2024 de DataReportal, le mobile représente souvent plus de 90 % des connexions internet.
Cependant, pour la télévision, le signal reste majoritairement hertzien (TNT) ou satellitaire. Contrairement à une box Orange ou Sky, une antenne râteau ou une parabole ne « parle » pas à l’émetteur. Elle reçoit, mais ne transmet rien. Pour les instituts de mesure comme Kantar ou Nielsen, c’est un trou noir statistique. On sait que le contenu est diffusé, mais on ignore qui le regarde vraiment, combien de temps, et si le spectateur a changé de chaîne pendant la publicité.
L’ingéniosité technique : Le son comme traceur
Pour pallier l’absence de connexion physique entre le téléviseur et l’institut de mesure, les ingénieurs ont dû faire preuve d’astuce. La solution la plus élégante aujourd’hui est le Watermarking audio (ou tatouage numérique).
Le principe est le suivant : au moment de la diffusion, la chaîne de télévision insère un signal acoustique inaudible pour l’oreille humaine dans la bande-son de son programme. Ce signal contient l’identifiant de la chaîne et l’horodatage précis. Pour le capter, on utilise un « panel »: un échantillon de la population équipé d’une application dédiée sur leur smartphone ou d’un petit boîtier portable appelé PPM (Portable People Meter).
Le micro de l’appareil « écoute » l’environnement et, dès qu’il reconnaît un watermark, il enregistre l’exposition au média. Cette technologie présente un avantage majeur pour les pays du Sud : elle capte l’audience hors foyer. Dans des villes comme Lagos ou Kinshasa, la télévision est souvent une expérience collective dans des bars ou des espaces publics. Le watermark permet de suivre le spectateur partout où il va, transformant son smartphone en un audimètre personnel.
Étude de cas : Le Nigeria, du « journal de bord » à la révolution numérique
Le Nigeria, souvent surnommé le « géant de l’Afrique », offre l’exemple le plus frappant de cette transition. Avec plus de 210 millions d’habitants et l’une des industries cinématographiques les plus prolifiques au monde (Nollywood), le pays a pourtant longtemps souffert d’un « trou noir » statistique.
La fin de l’ère du papier
Jusqu’à récemment, la mesure d’audience au Nigeria reposait essentiellement sur la méthode des journaux de bord (Diary method). Des panélistes devaient noter manuellement, sur des carnets, les programmes regardés chaque jour. Cette méthode, archaïque et sujette aux biais de mémoire, était incapable de rassurer les annonceurs mondiaux. Résultat : malgré une audience massive, le marché publicitaire nigérian restait sous-évalué par rapport à son potentiel réel.
Le tournant de la NBC et du système AMSY
Sous l’impulsion de la National Broadcasting Commission (NBC), le pays a lancé une réforme radicale de son système de mesure d’audience (AMSY – Audience Measurement System). Le choix s’est porté sur une approche hybride, combinant la technologie de Kantar et de réseaux locaux.
Plutôt que d’attendre l’équipement des foyers en box internet haut débit, le Nigeria a misé sur le déploiement de décodeurs de télévision numérique terrestre (DTT) et de technologies de Watermarking. Dans ce système, les données de consommation ne transitent plus par un câble physique, mais sont agrégées via les réseaux mobiles dès qu’une interaction est détectée.
Pourquoi est-ce un changement de paradigme ?
Pour les chaînes locales comme Channels TV ou AIT, cette nouvelle précision change tout. Elles peuvent désormais prouver leur audience auprès de marques comme Pepsi ou Nestlé en temps quasi réel (J+1 au lieu de plusieurs mois). Cette étude de cas nigériane prouve qu’une infrastructure de mesure robuste peut exister sans « Box » à l’européenne, à condition de placer le smartphone et le signal audio au centre de l’écosystème.
La mesure : une « monnaie » de survie pour les médias locaux
Pourquoi déployer de telles technologies ? La réponse est économique. Dans le jargon des médias, l’audience est une monnaie d’échange.
Sans chiffres certifiés par un tiers de confiance (comme le PAMRO en Afrique), le marché publicitaire navigue à vue. Les grands annonceurs internationaux (Coca-Cola, Procter & Gamble, Unilever) hésitent à investir des millions de dollars si le « GRP » (Gross Rating Point, l’unité de mesure de la pression publicitaire) n’est pas garanti.
C’est ici que réside l’enjeu des valeurs :
Souveraineté : Sans mesure fiable, les revenus publicitaires fuient vers les plateformes globales (Google, Facebook) qui disposent de leurs propres outils de tracking. Une mesure d’audience locale forte est donc un outil de protection de la diversité culturelle et des médias nationaux.
Équité : Elle permet de donner une valeur réelle à des programmes qui, bien que populaires, restaient jusqu’ici sous-évalués faute de preuves chiffrées.
Limites éthiques et zones d’ombre
Toutefois, cette « technologie de l’écoute » ne va pas sans soulever des questions de vie privée. Demander à des citoyens d’installer une application qui accède en permanence à leur micro, même pour détecter des fréquences inaudibles, est un défi éthique majeur. La conformité avec des réglementations inspirées du RGPD devient un casse-tête pour les instituts de sondage dans ces régions.
Enfin, il reste le défi de la fracture rurale. Si le watermark fonctionne parfaitement dans les zones urbaines connectées, la mesure de l’audience dans les villages reculés, sans couverture réseau stable pour remonter les données, reste le dernier bouclier de « l’audience invisible ».
La fin de la domination de la « Box » ne signifie pas la fin de la mesure, mais sa mutation. En devenant mobile et acoustique, la mesure d’audience s’adapte à une réalité mondiale où l’individu est plus mobile que son foyer. Pour les pays émergents, c’est une étape cruciale pour stabiliser leurs marchés médias. Mais le défi de demain sera de réussir à hybrider ces données techniques avec une réelle compréhension sociologique des usages, afin que les chiffres ne remplacent jamais totalement l’humain.
Il y a vingt-cinq ans après l’apparition de Loft Story sur nos écrans, tout le monde semblait penser à une mode éphémère, un genre qui allait s’essouffler. Pourtant, en 2025, la téléréalité ne s’est jamais aussi bien portée. Des « Marseillais » à « Too hot to handle » sur Netflix en passant par «Nouvelle école » et « La villa des coeurs brises », le mécanisme reste infaillible. Ainsi, près d’un quart de siècle plus tard, force est de constater que le genre n’a pas seulement survécu, il a colonisé nos écrans, de la télévision linéaire aux flux algorithmiques de TikTok et Netflix. On peut ainsi se demander comment ce genre, de plus est « ancien », a-t-il réussi à devenir le pilier central de l’économie de l’attention moderne ?
Pour commencer, afin de mettre le sujet en perspective, il est important de comprendre que la téléréalité a connu trois âges :
Tout commence par ce que les sociologues, à l’instar de Nathalie Nadaud-Albertini, appellent « l’âge de l’innocence ». Entre 2001 et 2005, la France découvre une expérience quasi-anthropologique avec les premières téléréalités, dont le moteur est alors la curiosité pure. En effet, à cette époque on observe des anonymes enfermés dans leur banalité, l’attention du public est captée par le « vrai », par ce miroir tendu à la société qui permet à chacun de tester ses propres jugements moraux. C’était le temps de la découverte avant que le public finisse par s’ennuyer de banalité. Ainsi, alors que selon François Jost chaque émission repose sur une « promesse », avant celle ci était ontologique (on nous promet que ce que l’on voit est « vrai ») avant de devenir ludique (le jeu et le clash passent avant la réalité).
En effet, à partir de 2006 à commencé l’ère de la scénarisation. Comme l’a souligne François Jost dans son ouvrage Le Culte du banal : de Loft Story à Secret Story (CNRS Éditions), le contrat a changé à ce moment là. Dans son ouvrage il analyse comment on est passé d’une télévision qui montrait « l’homme ordinaire » (le Loft) à une télévision qui met en scène des « caractères » (Secret Story). Jost explique que le spectateur ne regarde plus pour voir la « vérité », mais pour voir si les candidats vont réussir à tenir leur rôle ou leur secret. Le contrat n’est plus : « Regardez, c’est la vraie vie » mais : « Regardez comment ils jouent avec la réalité ». Le téléspectateur ne cherchent plus la banalité, mais l’extraordinaire et le conflit, c’est une industrialisation de l’émotion. Le casting devient un métier, et l’attention du spectateur est désormais maintenue par une dramaturgie millimétrée, conçue pour ne jamais laisser le cerveau au repos.
Depuis 2016, nous sommes entrés dans une troisième dimension, celle de l’écosystème numérique global. Aujourd’hui, l’émission de télévision n’est plus que la partie émergée d’un iceberg médiatique bien plus vaste. Elle sert de rampe de lancement à des carrières d’influenceurs qui monétisent leur audience 24h/24 sur les réseaux sociaux tels qu’Instagram ou TikTok. Les spectateurs ne regarde plus seulement une émission, ils ont accès à un flux de contenu permanent qu’ils peuvent consommer de manière fragmentée. Comme l’explique Yves Citton,dans son livre L’Économie de l’attention (2014) où il développe ses théories sur le capitalisme attentionnel, la téléréalité a réussi à coloniser notre « temps de cerveau disponible » en devenant omniprésente, abolissant la frontière entre le show et la vie quotidienne.
Egalement, si la téléréalité perdure, c’est parce qu’elle s’appuie sur des mécanismes psychologiques universels que le digital n’a fait qu’accentuer. Dès 1954, dans son article fondateur A Theory of Social Comparison Processes, le psychologue Leon Festinger expliquait que l’être humain possède un besoin intrinsèque d’évaluer ses propres capacités en se mesurant aux autres. En cela, la téléréalité nous offre un miroir permanent à ce besoin en nous permettant de nous rassurer en observant les échecs des autres (ce qu’on appelle la comparaison descendante) ou, au contraire, de nous projeter dans des styles de vie idéalisés.
Le succès de la télé-réalité repose également sur l’interaction parasociale, un levier puissant théorisé dès 1956 par Donald Horton et Richard Wohl. Dans leur article, ils décrivent ce sentiment d’entretenir une « intimité à distance » avec des figures médiatiques qui nous sont pourtant totalement étrangères. La téléréalité moderne a poussé ce concept à son paroxysme en nous invitant dans l’intimité quotidienne des candidats, que ce soit à travers les confessionnaux télévisés ou sur les réseaux sociaux. La distance symbolique est brisée ce qui crée un attachement émotionnel si fort que le spectateur finit par suivre ces « personnalités » avec la même fidélité qu’un membre de son propre entourage.
La téléréalité s’est parfaitement adaptée à l’économie contemporaine de l’attention. Chaque épisode pouvant être découpé en une multitude d’extraits courts, étant ensuite diffusé sur TikTok, Instagram ou Twitter, chaque moment anodin devenant ainsi une séquence virale. Aussi, elle repose sur des émotions fortes comme l’indignation, le rire moqueur, le scandale ou encore la colère, soit exactement les émotions qui déclenchent le plus de réactions et d’interactions en ligne. En plus de cela, la téléréalité à un avantage décisif pour les diffuseurs, du fait de son coût de production bien inférieur à celui de la fiction, pour un rendement d’attention et de visibilité souvent supérieur.
Le genre a également survécu parce qu’il a su muter avec les plateformes. Netflix, par exemple, a renouvelé ses codes avec des programmes comme The Circle ou Love is Blind, en s’appuyant sur la data pour identifier les moments de décrochage et calibrer les rebondissements. Ces codes se retrouvent même partout, les plus grands YouTubeurs reproduisant désormais ces mécanismes de mise en scène émotionnelle, de suspens permanent et de montage frénétique.
Sources :
Jost, F. (2013). Le culte du banal : De Duchamp à la télé-réalité. CNRS Éditions. ISBN 978-2-271-07731-8.
Citton, Y. (2014). L’économie de l’attention : Nouvel horizon du capitalisme ? Paris : La Découverte.
En 20 ans, la téléréalité a redoré son image. (n.d.). La Revue Des Médias. https://larevuedesmedias.ina.fr/anniversaire-vingt-ans-telerealite-succes-acceptation
Soulez, G. (n.d.). François Jost, Introduction à l’analyse de la télévision, Ellipses, Paris 1999 ; François Jost, La télévision du quotidien Entre réalité et fiction, INA-De Boeck Université, Paris-Bruxelles 2001. Persée. https://www.persee.fr/doc/memor_1626-1429_2001_num_3_1_2453_t16_0116_0000_1
Festinger, L. (1954). A theory of social comparison processes. Human Relations, 7(2), 117–140. https://doi.org/10.1177/001872675400700202
Horton, D., & Wohl, R. R. (1956). Mass Communication and Para-Social Interaction. Psychiatry, 19(3), 215–229. https://doi.org/10.1080/00332747.1956.11023049
Chaque fin d’année, toute personne écoutant de la musique n’attend qu’une chose, car avant Noël et le Nouvel An, il y a d’abord le Spotify Wrapped. Au début du mois de décembre 2025, c’est un phénomène qui n’a pu échapper à personne avec plus de 327k tweets et une hausse significative de recherches Google sur ce sujet. Depuis décembre 2016, la plateforme aux plus de 281 millions d’abonnés a réussi à créer un rituel annuel qui donne une rétrospective de l’année entièrement basée sur les données d’écoute de ses auditeurs, les informant sur leurs morceaux, artistes et genres les plus écoutés. Ainsi, comment expliquer cette popularité et surtout, de manière générale, pourquoi aimons-nous tant avoir des rétrospectives de fin d’année ?
(Crédit : Alexander Shatov / Unsplash)
Une identification possible entre auditeurs aux goûts similaires…
À travers le monde, il est estimé que plus de 600 millions de personnes sont abonnées à une plateforme de streaming musical. Qu’elles écoutent du classique, de la pop ou encore du rock, une chose est sûre : la musique réunit. De manière générale, une grande majorité de la population écoute de la musique et c’est alors sur cet aspect communautaire que cette rétrospective veut tirer parti. En effet, Spotify Wrapped permet de clairement identifier nos goûts musicaux et d’appartenir à une communauté de fans de mêmes artistes en se réunissant autour d’intérêts communs.
Avec le Spotify Wrapped, la plateforme veut développer un sentiment d’appartenance. Elle veut qu’on se rencontre, qu’on échange sur nos goûts musicaux, qu’on se découvre des intérêts communs, car écouter de la musique est une expérience qui peut être partagée à plusieurs. C’est pour cette raison que Spotify pousse au partage sur les réseaux sociaux comme le montre son site du Wrapped 2025 où il est écrit “Pour engager la conversation : Partage les temps forts de ton Wrapped avec ton entourage !”. Son but est que nous nous identifions entre fans, entre auditeurs de mêmes genres.
… qui permet aussi une individualisation pour se démarquer
Mais le Spotify Wrapped reste avant tout une rétrospective personnalisée qui, en définissant clairement nos goûts à travers l’année, fait ressortir notre personnalité. Nous aimons rencontrer des personnes aux intérêts similaires mais par-dessus tout, nous aimons nous démarquer. Nous aimons nous connaître et être valorisés et validés dans la manière dont nous nous percevons. En confirmant notre personnalité musicale, cette rétrospective de fin d’année se pose alors comme un marqueur identitaire et un moyen d’expression de soi.
Elle permet non seulement de prouver son identité musicale, mais aussi celle en tant que fan. Par exemple, je considère Ariana Grande comme mon artiste préférée et quel meilleur moyen que de se savoir parmi les 0.001% de ses top auditeurs pour prouver à quel point j’en suis fan ? En effet, de cette manière, Spotify informe son classement à chacun en les comparant aux autres auditeurs de ce même artiste. Cette rétrospective permet également d’indiquer nos genres musicaux les plus écoutés en montrant à quel point ils sont uniques, éclectiques et nombreux ou encore les artistes écoutés qui sont à la fois niches et avec de la musique de qualité. Ainsi, le Spotify Wrapped permet également d’afficher nos différences.
La gamification comme moyen de fidélisation
Mais au-delà de l’identification et de l’individualisation, le Spotify Wrapped est une rétrospective au design intéractif et dynamique établissant alors une gamification qui a culminé avec l’édition 2025.
Tout d’abord, cette rétrospective s’appuie sur la nostalgie de ses utilisateurs et tire profit de l’affect que nous avons vis-à-vis des musiques qui nous ont accompagnées pendant l’année. Pour cela, Spotify Wrapped instaure un storytelling. Sous un format vertical, nous faisons défiler les stories pour progressivement découvrir et revenir sur les musiques qui ont rythmé notre année. Pour l’année 2025, on commence par le nombre de minutes d’écoute, on continue sur le nombre de genres différents écoutés et lesquels sont nos préférés. Ensuite, nous avons nos morceaux, albums et enfin les artistes les plus écoutés, en s’amusant à deviner lesquels seront dans notre top 5, notamment à travers des quiz. Le Spotify Wrapped ne nous donne pas simplement une rétrospective de nos données, mais les transforme en un récit significatif de notre année. Le tout est alors soigneusement résumé en une photo, prête à être partagée sur les réseaux sociaux.
En effet, Spotify encourage également le partage de sa rétrospective sur les réseaux sociaux, pas seulement pour s’identifier entre auditeurs aux goûts musicaux similaires, et montrer notre identité musicale, mais aussi pour se comparer tout en augmentant la renommée de la plateforme. Une compétition s’instaure alors, qui a d’autant plus été appuyée cette année avec un classement informant les 100 000 premiers auditeurs d’un artiste, de leur position parmi les plus grands fans de leur artiste préféré.
Spotify Wrapped introduces a ‘Fan Leaderboard’ feature where users will see where they rank among their favorite artist’s listeners worldwide (based on total minutes listened). pic.twitter.com/Kezt09Iq7J
Pour les prochaines années, cela pourrait alors encourager les fans à davantage écouter leur artiste préféré pour avoir un meilleur classement, et par conséquent, les encourager à davantage utiliser Spotify.
Le Spotify Wrapped a donc un aspect social. Spotify a même lancé cette année le Wrapped Party permettant de comparer directement nos statistiques d’écoutes avec nos proches. Cette nouvelle fonctionnalité indique, par exemple, « la personne qui a écouté la chanson avec le moins d’écoutes” ou encore “la personne qui a écouté le plus de musiques aux langues différentes”. Elle est un nouveau moyen de nous définir davantage et cette fois-ci, en nous distinguant aussi clairement des personnes de notre entourage. Elle établit aussi une compatibilité musicale entre les participants du Wrapped Party. Seulement disponibles sur Spotify, ces nouvelles fonctionnalités veulent inciter tout auditeur de musique à utiliser la plateforme musicale, car plus elle a de nos données, plus elles seront précises pour nous définir.
Ainsi, l’ensemble de ces mécanismes font partie de la gamification mise en place par Spotify et qui a pour but, dans cette économie de l’attention, de capter l’attention et de fidéliser les auditeurs. En 2017, le CEO de Netflix avait déclaré que son principal concurrent est le sommeil. Néanmoins, les plateformes de streaming musicales ont l’avantage d’être à n’importe quel moment de la journée soit même pendant le sommeil. Une série ou un film a besoin d’être regardé et écouté, mais une musique ne nécessite que l’écoute et peut même être écoutée passivement en tant que bruit de fond de nos tâches quotidiennes par exemple. Le principal concurrent devient alors le silence comme l’aurait déclaré le fondateur de Spotify.
Apple Music, Amazon, these aren’t our competitors. Our only competitor is silence
Par conséquent, comment nous inciter à écouter toujours plus de musiques ? Dans cette logique, Spotify a récemment lancé un “mini” Wrapped hebdomadaire afin d’avoir une rétrospective de nos habitudes d’écoute chaque semaine. En plus des données d’écoutes habituelles, elle s’accompagne de nouvelles fonctionnalités, ayant toujours pour but de nous définir davantage. Notamment, mes stats d’écoutes m’informent que je fais partie de 8000 premières écoutes d’une chanson ou encore que 22% de mon écoute de musique de telle semaine était consacrée à tel artiste. Il y a également un classement hebdomadaire des chansons les plus écoutées indiquant aussi leur évolution par rapport à la semaine précédente. Avec les personnes pouvant constamment se tenir au courant de leurs statistiques d’écoutes, la valeur de la rétrospective unique à Spotify se retrouve augmentée.
Néanmoins, toutes les nouvelles initiatives de Spotify pour Wrapped ne sont pas toujours bien accueillies et cela a été le cas pour l’édition 2024 qui a été vivement critiquée dû notamment à son utilisation de l’IA. En effet, en voulant être hyper-personnelle, cette dernière a rendu, au contraire, la rétrospective impersonnelle avec des descriptions hyper-spécifiques de ses utilisateurs car que signifie que c’est le genre “pink pilates princess strut pop” qui définit nos goûts musicaux ? Certains auditeurs ont même pensé que l’IA de Spotify avait halluciné certaines données et ces genres musicaux ultra-niches et qui n’avaient aucun sens. En effet, pour beaucoup d’utilisateurs, le Wrapped 2024 ne reflétait pas ce qu’ils écoutaient, mais reflétait seulement la manière dont l’algorithme pensait la musique et ce à quoi elle ressemblerait.
Le phénomène des rétrospectives démocratisé dans tous les secteurs
Tout le monde veut avoir une rétrospective de son année et pour cette raison, la plupart des plateformes de streaming musicales comme Apple Music ou Deezer ont emboîté le pas à Spotify. Néanmoins, ce phénomène concerne également d’autres plateformes de divers domaines. On a par exemple le Letterboxd Wrapped pour les films, le Year In Books de Goodreads pour les livres, Duolingo pour ceux étudiant de nouvelles langues ou encore la SNCF avec sa Rétrainspective qui récapitule les trajets effectués durant l’année. Les banques s’y sont même mises en récapitulant les dépenses et leurs types parmi les loisirs ou l’alimentation par exemple et plus récemment YouTube a lancé son propre Recap avec les YouTubeurs et vidéos les plus regardés.
Ces différentes rétrospectives ne sont peut-être pas aussi interactives que Spotify Wrapped, mais elles ont bien les mêmes objectifs que ce dernier. Elles sont un moyen d’expression de soi et permettent de faire un point sur l’année qui vient de passer. Leur réussite s’appuie sur notre nostalgie et notre volonté de nous démarquer. Nous aimons avoir des statistiques tangibles de notre personnalité et notre vie et ces rétrospectives permettent alors de montrer à tous à quel point nous avons voyagé, que nous sommes de grands lecteurs ou cinéphiles. En faisant un bilan de notre année, elles représentent alors un véritable marqueur identitaire et Spotify Wrapped en est le parfait exemple. Tout le monde n’arrive peut-être pas à trouver le temps pour voyager, lire ou regarder des films et séries, mais la musique est très peu concernée par ce problème et pour cette raison, Spotify Wrapped réussit depuis 2016 à s’instaurer comme un événement attendu par tous en fin d’année.
L’industrie audiovisuelle traverse aujourd’hui une mutation sans précédent sous l’impulsion des technologies émergentes. Avec l’avènement de l’intelligence artificielle générative et le développement d’outils spécialisés tels que Génario, la figure de l’auteur solitaire face à sa page blanche s’efface au profit d’une interface interactive capable de suggérer des structures narratives, d’esquisser des dialogues ou de générer des fiches de personnages détaillées.
En France, où l’on dénombre plus de 6 000 scénaristes selon la SACD, cette irruption technologique a d’abord été perçue comme une menace existentielle. Cette inquiétude s’est cristallisée en 2023 lors de la grève historique de la Writers Guild of America (WGA) à Hollywood, qui a duré 148 jours, marquant le plus long conflit social de l’histoire du secteur depuis des décennies. Pourtant, malgré ces tensions, le milieu du cinéma et de la télévision commence à intégrer ces outils, les envisageant désormais comme des partenaires de création plutôt que comme de simples remplaçants.
Du clavier à l’algorithme : l’IA comme nouveau « collaborateur »
L’intégration de l’IA dans le processus créatif marque le passage d’un rôle d’assistant technique à celui de véritable co-auteur numérique. Pour le milieu audiovisuel, des plateformes comme Génario ont été spécifiquement conçues pour accompagner la création dramaturgique en s’appuyant sur de vastes bases de données de scénarios classiques afin de proposer des analyses structurelles.
Cette technologie agit comme un « sparring-partner » capable d’identifier les « ventres mous » d’un récit ou de vérifier la conformité d’une intrigue avec les étapes théoriques du voyage du héros. En automatisant la génération de descriptions de décors ou en proposant des variantes de dialogues, l’IA permet aux auteurs de s’extraire de la logistique d’écriture pour se concentrer sur l’architecture globale de l’œuvre.
Le scénariste James Cameron a récemment rejoint le conseil d’administration de Stability AI. S’il reste prudent sur la capacité de l’IA à créer de l’émotion pure, il reconnaît son utilité pour la visualisation et la structuration des mondes complexes. À l’inverse, Charlie Brooker, créateur de Black Mirror, a testé l’IA pour écrire un épisode. Sa conclusion est sans appel : « Le résultat ressemblait à de la bouillie, car l’IA ne fait que régurgiter ce qui existe déjà« . Mais pour des séries à flux tendu comme les feuilletons quotidiens (Plus belle la vie, Demain nous appartient), l’IA devient un outil de productivité pour générer des dizaines de variations de dialogues en un temps record.
L’IA un superviseur editorial ?
Le métier de scénariste pourrait glisser progressivement vers un rôle de superviseur éditorial où l’acte créatif ne consisterait plus seulement à écrire, mais à choisir et affiner des propositions algorithmiques. Ce nouveau processus de création déplace le centre de compétence vers la maîtrise du « prompt » et la capacité de sélection critique.
Selon une étude du CNC publiée en 2024, près de 25% des professionnels de l’audiovisuel utilisent déjà des outils d’IA de manière occasionnelle pour le brainstorming. Le scénariste devient un chef d’orchestre. Comme le souligne Franck Bauchard, expert auprès du Ministère de la Culture et spécialiste des mutations numériques, « le rôle de l’artiste n’est plus de produire de la matière brute rapidement, mais d’apporter une démarche et un récit. L’intelligence créative se déplace ainsi de l’exécution vers la capacité de jugement et de sélection parmi les propositions de la machine. » (Bauchard, F. (2025). « Machina Sapiens : l’IA au défi de la création artistique ». Rapport et parcours d’exposition pour le Ministère de la Culture.)
Les risques de « Netflixisation » et la fragilité des jeunes auteurs
Ce changement de paradigme soulève toutefois des inquiétudes socio-économiques majeures, notamment pour les jeunes auteurs. Les syndicats craignent que les tâches traditionnellement confiées aux juniors, comme les recherches documentaires ou les premiers jets de synopsis, ne soient totalement automatisées, fermant ainsi la porte d’entrée de la profession aux nouveaux talents.
Le risque majeur de l’IA réside dans ce que les analystes appellent la « Netflixisation » des contenus. Ce phénomène désigne une uniformisation des scénarios calqués sur des succès passés. En effet, l’IA fonctionne par probabilités statistiques : elle analyse ce qui a généré du temps de visionnage pour reproduire des schémas narratifs similaires. Selon une étude de la plateforme de données Ampere Analysis, l’accent mis par les algorithmes de recommandation pousse déjà les producteurs à privilégier des genres très codifiés au détriment de l’originalité. On risque alors de voir apparaître des scénarios « moyens », efficaces pour maintenir l’attention mais dépourvus de prise de risque artistique. L’exemple de la série 1899, annulée par Netflix malgré une base de fans solide car ses données de complétion ne rentraient pas dans les cases de l’algorithme, illustre cette tension entre création humaine et dictature de la statistique.
Le droit comme rempart
Face à cette dérive, la résistance s’organise par le biais du droit. La grève de la WGA en 2023 a permis d’arracher des garanties essentielles : l’interdiction de créditer l’IA comme auteur et l’impossibilité pour les studios de forcer un scénariste à utiliser ces logiciels.
En France, le Code de la propriété intellectuelle est encore plus protecteur. Le droit d’auteur repose sur « l’empreinte de la personnalité du créateur », ce qui place les œuvres générées majoritairement par IA dans un flou juridique total. Actuellement, les productions purement algorithmiques ne sont pas protégables. Ce flou juridique crée un paradoxe pour les studios : s’ils utilisent trop l’IA pour réduire les coûts, ils perdent la protection de leur propriété intellectuelle, car n’importe qui pourrait alors copier leur film sans risquer de poursuites. Pour organiser cette cohabitation, de nouveaux textes voient le jour comme l’AI Act européen de 2024 qui impose des obligations de transparence et le respect du droit d’auteur lors de l’entraînement des modèles.
Éthique et diversité : le piège des biais algorithmiques
L’enjeu éthique du biais algorithmique demeure central. Les outils comme Génario ou ChatGPT sont entraînés sur des corpus existants qui reflètent souvent les préjugés des sociétés passées. Si l’IA est nourrie de 50 ans de films d’action où le héros est systématiquement un homme blanc, elle proposera naturellement ce schéma pour chaque nouveau scénario. Cela pose un problème majeur pour la diversité et la représentation culturelle. Le scénariste doit donc agir comme un garde-fou éthique pour déconstruire les clichés que l’IA ne manquera pas de lui proposer. C’est ici que l’humain reprend l’avantage : la machine peut mimer la structure, mais elle ne comprend pas les enjeux sociétaux complexes.
Une série pensée pour un public émotionnellement et médiatiquement saturé
Euphoria suit un groupe d’adolescents américains confrontés à des expériences intenses : addictions, relations amoureuses instables, quête d’identité, pression sociale et mal-être psychologique. Le récit, centré sur Rue (interprétée par Zendaya), explore la manière dont ces personnages tentent de se construire dans un monde saturé d’images, de réseaux sociaux, de désirs et d’excès. À la fois brutale et esthétisée, la série donne à voir une adolescence sans filtre, où les émotions sont vécues à l’extrême.
Cette représentation s’inscrit pleinement dans l’économie de l’attention, caractérisée par une concurrence accrue entre contenus au sein d’un environnement marqué par l’abondance informationnelle et publicitaire. Les jeunes générations évoluent dans un flux continu de divertissements et de sollicitations émotionnelles. Selon We Are Social, le public d’Euphoria cherche à trouver sa place dans ce contexte saturé, oscillant entre le besoin de canaliser ses émotions et celui de créer des connexions et des espaces d’intimité, en ligne comme hors ligne. La série donne précisément forme à ces tensions.
Les trajectoires des personnages fonctionnent ainsi comme des miroirs émotionnels pour un public en construction :
Rue incarne la difficulté à gérer le trop-plein émotionnel, dans un monde où les échappatoires sont multiples mais souvent destructrices, notamment à travers l’addiction.
Jules représente une quête de liberté et de reconnaissance, construite en grande partie à travers les réseaux sociaux et les relations numériques, soulignant la fragilité de l’intimité dans un espace en ligne permanent.
Kat illustre la recherche de validation par la visibilité numérique. En se mettant en scène sur Internet, elle expérimente à la fois une forme de pouvoir et les limites d’une exposition constante.
Maddy symbolise la pression des normes sociales et esthétiques renforcées par les réseaux sociaux. Son identité se construit sous le regard continu des autres, faisant de l’attention un capital à maintenir.
Nate incarne la dimension la plus sombre de cette logique, où le contrôle de l’image et de l’information devient un outil de domination et de maintien du pouvoir social.
À travers ces figures, Euphoria agit comme un miroir émotionnel pour son public, mettant en lumière les tensions entre surcharge émotionnelle, quête d’intimité, hyper-visibilité et pouvoir médiatique, caractéristiques de l’économie de l’attention.
Une esthétique de la sur-stimulation au service de la captation de l’attention
L’un des marqueurs les plus visibles de Euphoria réside dans son esthétique hyper-stylisée. Couleurs néon, jeux de lumière agressifs, musique omniprésente et mouvements de caméra immersifs composent un univers visuel pensé pour produire un impact immédiat. Chaque scène semble conçue pour marquer durablement la mémoire du spectateur, dans une logique proche de celle des plateformes numériques cherchant à maximiser le temps d’attention.
Cette sur-stimulation sensorielle s’inscrit pleinement dans les mécanismes décrits par l’économie de l’attention : face à des capacités cognitives limitées, les contenus doivent intensifier leurs signaux pour ne pas être ignorés. Euphoria adopte ainsi une esthétique de l’excès, transformant chaque épisode en une expérience émotionnelle forte, difficilement “scrollable”, à rebours de la consommation distraite mais parfaitement compatible avec les attentes d’un public habitué aux contenus courts, visuels et intenses.
Une série conçue pour un public hyperconnecté
Au-delà de l’écran, Euphoria est pensée comme un objet médiatique circulant massivement sur les réseaux sociaux. We Are Social souligne que la série ne se contente pas d’offrir un moment d’évasion : elle confronte et stimule un public qui se tourne naturellement vers les plateformes numériques pour échanger, commenter et débattre. Euphoria est ainsi une série conçue pour un public hyperconnecté.
Les maquillages si particuliers des personnages comme Maddy ou Jules ont par exemple généré des millions de vues sous forme de tutoriels sur TikTok et Instagram. Certaines scènes de disputes, monologues, séquences musicales, sont largement découpées, partagées et détournées, devenant des formats autonomes dans les flux sociaux. La série prolonge ainsi l’attention bien au-delà du temps de visionnage, s’inscrivant durablement dans les conversations numériques.
Si HBO ne recherche pas nécessairement le scandale, la chaîne est connue pour repousser les limites du représentable. Comme le souligne Martine Delahaye dans Le Monde, Euphoria s’inscrit dans cette tradition en abordant frontalement des sujets sensibles, tout en s’assurant que la série fasse parler d’elle. La provocation devient ici un levier de visibilité, renforçant la présence médiatique de l’œuvre.
Les scènes jugées trop explicites ou choquantes ont suscité de nombreuses polémiques, alimentant articles, débats et réactions sur les réseaux sociaux. Dans l’économie de l’attention, ces controverses jouent un rôle central : elles génèrent de l’engagement, qu’il soit positif ou négatif, et participent à maintenir la série au cœur de l’espace médiatique.
Un phénomène de pop culture mesurable
Les chiffres confirment cette dynamique. Euphoria est devenue la série la plus regardée sur HBO derrière Game of Thrones et la plus tweetée aux États-Unis depuis 2020, selon Les Échos. Elle s’impose comme un véritable objet de pop culture, capable de fédérer une communauté active et expressive. Cette omniprésence numérique témoigne de sa capacité à capter et retenir l’attention dans un paysage audiovisuel saturé.
Cependant, ce succès s’accompagne de critiques. Certains observateurs dénoncent une esthétisation excessive de la souffrance ou une exploitation émotionnelle du public adolescent. Ces débats illustrent les tensions inhérentes à l’économie de l’attention, où la recherche d’impact peut entrer en conflit avec des considérations éthiques et sociales.
Euphoria, symptôme et produit de l’économie de l’attention
Euphoria ne se réduit ni à une série provocante ni à un simple succès générationnel. Elle constitue un produit pleinement inscrit dans l’économie de l’attention, pensé pour un public émotionnellement intense, hyperconnecté et exposé à une concurrence médiatique constante. Par son esthétique, sa narration, sa circulation sur les réseaux sociaux et les controverses qu’elle suscite, la série illustre les évolutions actuelles de la création audiovisuelle. Euphoria apparaît ainsi à la fois comme un miroir des logiques attentionnelles actuelles et comme l’un de leurs exemples les plus aboutis.
Maïwenn GAUTIER LE COCGUEN
Sources :
Articles de presse et médias spécialisés
Delahaye, M. (2019). « Avec Euphoria, HBO s’adresse brillamment aux ados ». Le Monde. → Analyse critique du positionnement éditorial et médiatique de la série.
Direction générale du Trésor (2025). L’économie de l’attention à l’ère du numérique, Trésor-Éco n°369. → Cadre économique et institutionnel sur la captation et la monétisation de l’attention.
We Are Social (2022). Why you so obsessed with me? Une analyse sémiotique de la série Euphoria. → Analyse du lien entre la série, son public et les usages numériques contemporains.
Ouvrages et articles académiques
Citton, Y. (2014). Pour une écologie de l’attention. Paris : Seuil. → Référence centrale pour penser les enjeux culturels, politiques et médiatiques de l’économie de l’attention.
Patino, B. (2019). La civilisation du poisson rouge : petit traité sur le marché de l’attention. Paris : Grasset. → Essai critique sur l’impact des technologies numériques et des plateformes sur la captation et l’exploitation de l’attention dans les sociétés contemporaines.
Dans l’ère du numérique, la pratique sportive a subi une mutation profonde. Le coureur solitaire du dimanche a laissé place à l’athlète connecté dont chaque foulée est scrutée, analysée et, surtout, publiée. Des plateformes telles que Strava, Garmin Connect ou Instagram font de l’effort physique une donnée sociale. Mais que se cache-t-il réellement derrière ce besoin irrépressible de « poster sa séance » ? S’agit-il d’une simple recherche de motivation ou d’une nouvelle forme d’aliénation par le chiffre ?
Le Quantified Self : Quand la donnée donne vie à l’effort
L’idée derrière le Quantified Self (l’auto-mesure connectée) est assez simple : « seul ce qui est mesuré peut être amélioré ». Pour beaucoup d’utilisateurs, le numérique ne se limite pas à documenter la performance ; il la rend tangible, manifeste et « présente », en lui assignant une position précise dans leur vie de tous les jours. Comme le met en évidence une recherche récente, sans empreinte numérique, la course « compterait pour du beurre ».
L’outil devient une extension de soi. Cette assimilation implique que la montre connectée s’insère dans l’image corporelle de l’athlète. L’absence de cet outil temporaire peut engendrer une perturbation physique et psychologique, laissant la personne avec un sentiment de « nudité » ou de manque sensoriel. Le sportif perçoit alors son corps à travers le prisme principal de la donnée chiffrée.
La construction de l’identité numérique par la performance
Le partage en ligne satisfait un besoin de reconnaissance sociale. Lors de la publication d’une performance, l’individu ne divulgue pas uniquement une distance ou un temps ; il révèle également son mode de vie, sa détermination et sa capacité à surmonter les défis. L’inculturation : le sport se transforme en un instrument de marketing personnel. Mettre en avant ses réalisations sur son curriculum vitae ou ses profils de réseaux sociaux est une façon de démontrer ses compétences en gestion personnelle et sa persévérance aux recruteurs ainsi qu’à ses collègues. La recherche de reconnaissance : les « j’aime », les kudos et les commentaires fonctionnent comme des récompenses instantanées qui renforcent l’estime de soi. L’analyse comparative sociale : les plateformes sportives en ligne instaurent un environnement où l’on se compare continuellement aux autres. Ce contrôle incite à la compétition tout en suscitant une anxiété liée à la performance.
Le paroxysme de l’apparence : l’émergence des « Strava Jockeys »
Cette obsession du paraître a donné naissance à un marché de la performance simulée : les « Strava Jockeys ». Ces coureurs, souvent de jeunes athlètes rémunérés, réalisent des sorties à la place de clients qui souhaitent booster artificiellement leurs statistiques. Les tarifs varient selon l’effort : environ 40 euros pour un 10 km et jusqu’à 80 euros pour un semi-marathon. Si certains utilisent ces services pour briller auprès de leurs abonnés ou remplir des défis hebdomadaires, d’autres y voient un outil de duperie plus profond, comme ce client qui mandate un Jockey pour courir à sa place afin de faire croire à ses patrons qu’il est encore en déplacement professionnel. Cette pratique souligne une dérive inquiétante où l’image de la performance prime désormais sur l’expérience physique réelle.
Quand la montre dicte l’effort
L’un des aspects les plus captivants de la littérature universitaire est le rôle actif accordé à l’objet connecté. La montre ne se limite plus à être un simple observateur, elle se transforme en un participant qui « booste » le coureur.
L’ajout d’un impératif d’optimisation fait de l’exercice physique une entreprise de productivité. Pour certains, cette motivation est perçue comme un défi stimulant qui permet de dépasser ses limites. Pour certains, cela se transforme en une pression stressante, comparable à un « bracelet électronique » numérique qui entrave la perception des sensations authentiques au profit d’une cadence imposée par l’algorithme.
Les enjeux éthiques : La « vie surveillée » et la fin de l’intimité
La frontière entre les données de bien-être et les données de santé est assez floue. En partageant nos parcours GPS et nos rythmes cardiaques, nous exposons notre intimité à des niveaux dont nous n’avons souvent pas conscience.
Risques pour la protection de la vie privée : Des erreurs de la part d’opérateurs ont déjà entraîné la divulgation publique d’informations sensibles (adresses de résidence, modes de transport).
Le « Pay as you live » : L’intérêt croissant des compagnies d’assurance pour ces données pose un défi majeur à la mutualisation des risques. Aux États-Unis, certains contrats proposent déjà des réductions de prime en échange d’un comportement « vertueux » mesuré par des bracelets connectés.
La surveillance en entreprise : De plus en plus d’entreprises intègrent le sport connecté dans leurs programmes de « bien-être corporate », soulevant des questions sur le consentement réel des salariés dans un cadre de subordination.
Le minimalisme digital : Vers une reconnexion sensible
Devant cette surabondance de chiffres, une tendance contraire voit le jour : le désengagement volontaire. Quelques coureurs prennent sciemment la décision de courir sans montre ni téléphone intelligent. Cet éloignement a pour objectif de renouer une connexion avec le monde et son corps personnel. En éliminant l’entremetteur technologique, le sportif aspire à :
Se rétablir un lien avec son environnement naturel (odeurs, panoramas, conditions climatiques).
Explorer à nouveau ses sensations internes sans passer par le prisme des données.
S’affranchir de l’injonction de performance pour retrouver le plaisir pur du mouvement.
Le partage de performances sportives est un outil puissant de motivation et de lien social, mais il ne doit pas devenir une nouvelle forme de servitude. Réussir son projet de « Quantified Self », c’est être capable de jongler entre la précision du chiffre pour progresser et le silence de la montre pour ressentir.
Selon les préconisations de la CNIL, conserver le contrôle sur ses données personnelles est une condition essentielle pour que le sport demeure un domaine de liberté plutôt qu’un espace de surveillance.
« Voici le lien pour découvrir l’intégralité de la filmographie de Jean-Luc Godard des années 60 à la fin des années 80 ». Ces messages pulluent désormais sur X et Reddit : grâce à un simple lien vers un drive Google ou vers un fichier We Transfer, les internautes ont la possibilité d’accéder à une offre de contenu inédite, presque illimitée. Ces nouveaux points d’accès sont en rupture avec le piratage tel qu’il fut à une époque, nécessitant des outils techniques et une connaissance précise de certains sites. Non seulement le piratage n’a pas disparu, mais il se serait démocratisé. Pourquoi donc ?
Non, le visionnage illégal de films et de séries n’a pas disparu. D’après l’ARCOM, le piratage de contenus audiovisuels represente près d’1,2 milliard d’euros de perte pour le secteur, et 230 millions d’euros de TVA en moins pour l’Etat. Ce phénomène persiste, et continue d’abîmer la santé globale d’un écosystème culturel déjà tourmenté. Pourtant, il ne devait pas être ainsi.
La promesse déchue d’une plateforme unique et centrale
Au début des années 2010, le streaming légal proclame avoir trouvé la formule magique parfaite : une plateforme unique, un immense catalogue de contenus accessible à un prix modéré,sur n’importe quel appareil à toute heure de la journée et en tout lieu. A l’époque, c’est Netflix qui incarne cette promesse. La plateforme de SVOD américaine arrive en France en 2014 avec un catalogue inédit : des productions originales crées par la société et visionnables nulle part ailleurs, côte à côté avec des classiques du cinéma et des séries intemporelles : Friends, Big Bang Theory… Pour les fans de ces séries, c’est l’ocassion rêvée pour reprendre le visionnage depuis le début, et de ne plus être dépéndant de la programmation des chaînes de télévision.
Mais, l’histoire ne s’est pas déroulée comme prévu. Cette promesse de plateforme unique et centralisée s’est fissurée à mesure que les studios ont repris la main sur leurs contenus pour lancer leurs propres services : Disney a lancé Disney+, une plateforme offrant l’accès à tous les dessins animés Disney et Pixar, mais aussi à l’intégralité des contenus se situant dans l’univers de Star Wars et des comics Marvel. Dans la même foulée, HBO a également lancé sa propre offre Max : l’accès à toutes les plus grandes séries de l’histoire de la télévision (Les Sopranos, The Wire, Game of Thrones, Sex & the City…), mais aussi aux productions Warner Bros, dont la très populaire (et encore très rentable) saga Harry Potter. Autrement dit, chaque studio rapatrie ses œuvres et verrouille ses droits. Tout ça fractionne l’offre et la rend instable (à la joie des défenseurs du support physique) : une série ou un film peut être disponible un mois ici, puis disparaître du jour au lendemain pour réapparaître ailleurs.
Pour le spectateur, le bilan est donc plutôt morose : ce qui devait simplifier sa vie l’a finalement compliquée… et rendue plus chère. Au lieu de payer un seul abonnement, les consommateurs de contenus audiovisuels doivent multiplier les souscriptions, dont les prix sont de moins en moins « accessibles ». Pour maintenir des offres restant bien en dessous de la barre de la dizaine d’euros par mois, certaines plateformes ont intégré la publicité dans leur ecosystème : désormais comme à la télévision, des spots publicitaires viennent ponctuer le visionnage d’un film ou d’une série. Idem pour le partage de comptes entre amis, dont Netflix a fait son nouveau cheval de bataille depuis 2023. Additionnés, ces abonnements atteignent rapidement des montants comparables à ceux d’un ancien bouquet TV premium, contrairement à la promesse initiale de la SVOD. De ce point de vue, le piratage apparaît d’abord comme une réponse économique à un système dispendieux.
Crédit photo : X
Piratage : le nouveau défenseur de la culture ?
Si le piratage persiste, c’est aussi parce qu’il a su se transformer. Longtemps associé aux sites clandestins et aux manipulations complexes, il revêt aujourd’hui une forme bien simple, presque indiscernable. Grâce à leur design UX premium, de nombreux sites de streaming illégaux donnent l’impression d’être des plateformes légales : interface soignée, page d’accueil épurée, classement par tendances… L’IPTV est un exemple encore plus probant : ce service clé en main, vendu comme une alternative permettant d’accéder à une multitude de de contenus, se présente avec le même vernis que les bouquets traditionnels. Il est accessible sur les mêmes canaux : les utilisateurs disposant d’une CTV (Connected TV) peuvent brancher leur boitier et profiter d’une expérience semblable à celle obtenue sur une plateforme légale. A la question économique s’ajoute donc celle de l’expérience utilisateur : celle-ci est devenue plus fluide, plus familière.
Le piratage et le visionnage de contenus protégés ont su également tirer parti d’un allié innatendu : les défenseurs de la liberté d’expression tels qu’Elon Musk et la tendance générale de de-modération des espaces d’échanges et des réseaux sociaux. Pour concurrencer Tik Tok, le nouveau propriétaire de X(anciennement Twitter) a étendu la durée des vidéos visionnables sur le réseau. De fait, les utilisateurs disposant d’une coche bleue, c’est-à-dire payant la certification, peuvent uploader jusqu’à plusieurs heures de contenus médias. C’est ainsi qu’en juin 2023, seulement une dizaine de jours après la sortie de Spiderman : Across the Spiderverse en salles, un internaute a posté l’intégralité du film sur X, le tweet générant à ce jour plus de 4 millions d’impressions.
Les posts partageant des liens vers des partages de fichiers se multiplient également : Google Drive, Dropbox, Mega, tous ces sites servent de réceptacles communs à des bibliothèques entières de films et de séries. Cliquer sur un lien, récupérer un fichier : un geste banal, discret (donc difficilement traçable), brouillant davantage la frontière entre pratiques légales et illégales. C’est comme cela qu’apparaissent des liens vers des filmographies complètes ou des films de patrimoines rares, voire indisponibles sur les plateformes officielles. Et c’est une troisième clé d’explication, l’accès à une offre difficilement trouvable, voire introuvable ailleurs. Plus que jamais, le piratage prend des allures chevaleresques, défendant l’accès à la culture et au patrimoine. Le débat n’est pas récent : en 2014, le juriste indien Lawrence Liang explique que, outre les questions juridiques ou légales du piratage, celui-ci répond aux inégalités de pouvoir d’achat et d’accès aux biens culturels ; il devient le moteur d’une circulation culturelle au sein d’une population donnée. En France, le débat s’est récemment illustré sur X, lors d’une querelle opposant l’influenceur ciné Regelegorila et l’éditeur de DVD ESC Films. « C’est fou maintenant ce réseau, tu tapes dans la barre de recherche le nom du film que tu veux et y’a forcément quelqu’un avec un lien drive. Des héros. » a tweeté Regelegorila avant d’être interpellé par ESC qui lui rappelle qu’étant à la tête d’une large communauté, son rôle est difficilement de défendre le piratage illégal. Réponse de l’intéressé : « Malheureusement, certains films n’existent tout simplement pas légalement en France. La préservation de la culture est importante aussi ». La position de l’influenceur reflète celle de nombreux spectateurs utilisant des liens vers ces contenus illégaux. Dans cet angle mort de l’offre légale, le piratage constitue un paradoxe : là où les institutions échouent à rendre visible une partie du patrimoine, ce sont des communautés informelles qui décident de s’en charger.
Crédit photo : X
Quid de la lutte ?
La lutte contre le piratage s’est longtemps concentrée sur la fermeture de sites et sur le blocage d’adresses. Mais ces méthodes montrent aujourd’hui leurs limites : la circulation se fait par des liens éphémères et par des hébergeurs grand public ou des groupes fermés. Il ne s’agit donc non pas d’une structure massive que l’on peut démanteler, mais comme une somme de micro-pratiques difficiles à cibler. Alors, quels espoirs si la seule repression ne suffit pas ? Peut-être l’espoir réside dans le fait de repenser l’attractivité de l’offre légale et l’accessibilité à la culture elle-même. C’est déjà le cas, au vu des immenses efforts déployés autour du patrimoine culturel : cinémathèques, instituts nationaux et plateformes publiques investissent dans la restauration, la numérisation et la mise en ligne d’œuvres historiques. Et ces dépenses ne sont pas vaines : le succès de certaines plateformes publiques, les partenariats avec des archives, le travail de certains éditeurs de DVD montre qu’il existe bel et bien un public pour cette offre, à condition qu’elle ne soit pas fragmentée.
Raphael Dutemple
Sources :
Lawrence Liang, “Piratage, créativité et infrastructure : repenser l’accès à la culture”, Tracés. Revue de Sciences humaines, 26 | 2014, 183-202.
Lessig Lawrence, 2004, Free Culture : How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity, New York, Penguin Press.
Ces dernières années, le paysage de la pop mondiale a subi des mutations sans précédent. Alors que les frontières entre les genres musicaux et les marchés géographiques s’estompent, un nouveau girlsband phénomène vient bousculer les codes établis : Katseye. Ce groupe, composé de six jeunes femmes venant des quatres coins du monde est le résultat d’une ingénierie de précision : une collaboration historique entre le géant de la K-pop Hybe (le label du phénomène BTS) et le pilier américain Geffen Records. À travers le prisme de la téléréalité et d’une stratégie digitale et marketing agressive, Katseye redéfinit l’anatomie du girlsband moderne, conçu sur mesure pour et par son public.
Crédit : Warmtoned / Wikimedia Commons
La genèse : Le laboratoire « Dream Academy », héritage de la K-Pop
Tout commence en 2023 avec la diffusion d’un programme de télé-réalité, The Debut : Dream Academy. Cette émission, diffusée sur YouTube et Weverse, prend rapidement une ampleur phénoménale et est suivie en direct par des millions de spectateurs dans le monde entier. Le concept est inédit : nous suivons une vingtaine de jeunes filles sélectionnées parmi plus de 70 000 candidatures pour intégrer une formation intensive de chant et de danse à Los Angeles, calquée sur le modèle controversé des “idols” sud-coréennes : le « Trainee System ».
Contrairement aux groupes occidentaux traditionnels, Katseye est le résultat d’un véritable process de sélection et d’entraînement d’une rigueur quasi militaire. En effet, les candidates ont dû subir plus de deux ans de formation intensive à Los Angeles : cours de danse millimétrés, coaching vocal de haut niveau, mais aussi gestion de l’image et contrôle de la présence scénique. C’est ici que l’héritage de la K-pop est le plus prégnant : la performance n’est pas une option, c’est une exigence de perfection. Les membres du groupe n’ont pas été découverts, leur talent n’a jamais été caché, il a été « usiné » pour ne laisser aucune place à l’amateurisme.
Nous pouvons également noter que le training n’est pas le seul élément emprunté aux codes sud-coréens : le groupe ne fonctionne pas comme une entité uniforme mais bien comme une hiérarchie codifiée, système plébiscité par le public K-Pop. Chaque fille représente un rôle bien défini : la maknae (la plus jeune), la leader, la main vocalist, la main dancer…
La global pop : au delà de Séoul
Si la méthode de formation est coréenne, l’identité de Katseye est définitivement mondiale. C’est là que réside la nouveauté de cette variante. Hybe et Geffen n’ont pas cherché à créer un groupe de K-pop chantant en anglais, mais bien un groupe de pop occidentale à la hauteur des standards asiatiques. La composition du groupe est une leçon de géopolitique musicale : Sophie vient des Philippines, Lara est née en Inde, Manon est Suisse, Yoonchae vit en Corée du Sud, Daniela est originaire de Cuba et Megan est Chinoise. Chaque membre est une porte d’entrée vers un marché spécifique. Cette diversité n’est pas une simple façade inclusive, c’est un outil de pénétration globale qui permet au groupe de s’affranchir des frontières culturelles. Elles sont, par essence, des citoyennes d’un monde numérique où les algorithmes ne connaissent pas de pays. Cette composition permet à Katseye de s’affranchir des étiquettes : trop occidentales pour être de la K-pop pure, trop disciplinées pour être un girlsband américain classique. Elles occupent un espace tiers, celui de la « Global Pop ».
D’ailleurs, musicalement, Katseye navigue entre plusieurs eaux. Leur premier EP, SIS (Soft Is Strong), illustre cette dualité. Il contient des titres comme “Touch”, façonnés pour devenir viraux sur TikTok, comme des titres aux sonorités plus pop et universelles, comme le single “Gabriela”. Enfin, d’autres chansons comme “Gnarly” ou “Internet Girl”, présentent des sonorités plus proches de la K-Pop.
Crédit : 티비텐 TV10 / Wikimedia Commons
La téléréalité comme outil de narration et de drama
Le secret de l’engouement phénoménal connu par le girlsband ? L’implication du public dès le premier jour. Grâce à un système de vote mondial, les fans n’ont pas seulement regardé le groupe se former, ils en ont tout simplement choisi la composition, en sélectionnant chacune des membres de Katseye une à une. Cette stratégie crée un lien émotionnel et une fidélité immédiate, transformant les spectateurs en actionnaires affectifs du succès futur du groupe. En parallèle, l’aventure des candidates est documentée de manière plus intime dans la série Netflix Pop Star Academy, qui se concentre davantage sur le ressenti des jeunes filles, et sur les coulisses brutales de la formation : mécanismes de pression et de concurrences, tensions entre les candidates…
En 2O25, les labels semblent avoir compris que pour la Génération Z, l’authenticité est le facteur de succès principal. En exposant les failles des jeunes filles, on permet au public de s’identifier à elles. Les réseaux sociaux ont bien sûr eu leur rôle à jouer. Sur TikTok, les Katseye agissent comme de véritables influenceuses : lives, trends, interactions avec leurs commentaires… Les jeunes filles brisent la barrière du “quatrième-mur”, classiquement imposée par le média-training, séduisant ainsi une audience lassée des popstars trop lisses.
Un succès déjà tracé ?
Invitées sur les plus grands plateaux mondiaux, cumulant des millions de streams et des milliards de vues sur les réseaux sociaux, les Katesye confirment leur statut de phénomène mondial. Elles sont même approchées par des acteurs de l’industrie de la mode, qui y voient une opportunité pour relancer leur marque. Nous pouvons notamment citer la campagne de la marque GAP, qui a été vue plus de 400 millions de fois sur les réseaux sociaux.
« Elles représentent aussi l’archétype de la GenZ qui adore le Y2k, la mode des années 2000. Jean taille basse, haut en résille, basket montante, elles s’affichent même avec des téléphones à clapet dans leur clip. C’est pour ça que GAP, la marque phare des années 2000, les a choisies pour sa dernière campagne de pub. Les Katseye dansent en tenue GAP. La marque était un peu devenue has been ces dernières années mais grâce au groupe, leur pub a été vue plus de 400 millions de fois sur les réseaux. » – Manon Mariani pour France Inter
Les Katseye prouvent que leur modèle fonctionne : celui d’un groupe capable de performer avec un niveau de précision et de synchronisation parfait, tout se montrant authentiques et proches d’un public qui les a vu naître. Katseye est bien plus qu’un simple groupe de musique : c’est une étude de cas sur l’industrie musicale en 2025. En fusionnant l’expertise de Hybe et de Geffen, en utilisant la téléréalité comme un incubateur et en misant sur une diversité authentique, Katseye a réussi à se façonner un public avant même de sortir son premier album. Elles sont l’anatomie parfaite du girlsband du futur : mondiales, connectées, et portées par une communauté qui a l’impression d’avoir grandi avec elles.
Cependant, des défis subsistent. Le public et la critique s’interrogent parfois sur la pérennité d’un groupe aussi « fabriqué », d’un collectif dont les membres n’ont pas choisi de s’unir. L’avenir du groupe dépendra surtout de sa capacité à transitionner du statut de “produit de laboratoire” à celui d’une entité artistique autonome, mais également de la capacité des jeunes filles à transcender leur direction artistique imposée pour forger une alchimie sincère et des liens humains réels.
L’analyse grand public occidentale du cinéma chinois a longtemps reposé sur un mythe binaire : d’un côté, le cinéma d’État, riche et massif, de l’autre, l’auteur dissident, fauché et aidé par des subventions. L’export de ce cinéma chinois perçu comme binaire en demeure complexe même si la volonté se prononce de plus en plus fortement. On pense par exemple au film à succès Ne Zha 2 ( Yu Yang (Jiaozi)) que A24 ont tenté, sans réel succès, de distribuer aux États-Unis.
En revanche, le succès fracassant de Resurrection (Rǔ Yè), le troisième long-métrage de Bi Gan, vient pulvériser la grille de lecture binaire habituelle. Avec un Prix Spécial du Jury à Cannes et plus de 15 millions d’euros de recettes au box-office chinois en deux jours, ce film impose un nouveau modèle industriel : la joint-venture culturelle.
Il ne s’agit pas de charité artistique, mais d’une alliance stratégique froide et efficace entre la puissance de feu de la « Fan Economy » chinoise et les mécanismes de distribution français.
Huace & Jackson Yee : La « Locomotive » Domestique
Pour comprendre l’anomalie Resurrection, il faut d’abord regarder son bilan comptable. Contrairement aux précédents films d’auteurs chinois (souvent produits par de petites structures indépendantes), ce projet est piloté par Huace Pictures. Ce n’est pas un label art et essai, mais l’un des géants du divertissement privé en Chine, habitué aux séries TV à succès et aux blockbusters.
Initialement spécialisée dans la création de contenus pour le petit écran, la société Zhejiang Huace Film & TV a été fondée en 2005 à Hangzhou. Après être devenue la première entreprise du secteur à entrer en bourse en Chine en 2010, elle a diversifié ses activités pour devenir un acteur majeur du cinéma mondial via sa branche Huace Pictures. Le groupe produit aujourd’hui environ un millier d’épisodes de séries par an et s’est illustré au cinéma par le financement de projets d’envergure ainsi que par l’acquisition de droits de distribution à l’international. Son influence s’étend désormais à la production de films d’auteur reconnus, comme ceux de Bi Gan, tout en maintenant une position de leader dans l’industrie audiovisuelle chinoise.
L’apport de Huace ne se limite pas aux fonds, résidant dans l’intégration d’un actif stratégique majeur : Jackson Yee (Yi Yangqianxi). Pour l’industrie chinoise, Jackson Yee n’est pas seulement un acteur talentueux (Better Days, Full River Red), c’est une « IP » (Propriété Intellectuelle) humaine. Sa présence garantit mécaniquement une exposition massive.
En plaçant une telle superstar, accompagnée de l’icône Shu Qi, au cœur d’un film d’auteur radical, Huace a opéré un « dérisquage » industriel. Le studio a transformé un projet de niche (un thriller de science-fiction onirique) en un événement « incontournable » pour le grand public jeune. C’est cette puissance de frappe domestique qui a permis à Bi Gan de bénéficier d’un budget de production de niveau blockbuster. C’est par ailleurs une méthode de financement et distribution que l’on retrouve dans le monde entier: se garantir un minimum d’entrées et d’exposition à travers le star system. C’est une manière de se donner l’opportunité de prendre plus de risques artistiques sans en perdre tout espoir de financement (modèle de Mac Donald (1988)).
La France comme « Laboratoire et passeport »
Si le capital est chinois, pourquoi Bi Gan a-t-il maintenu sa collaboration historique avec CG Cinéma (Charles Gillibert) en France ?
Dans ce montage, le partenaire français n’est pas le « payeur », mais le « garant ». Face à un investisseur chinois puissant (Huace) qui pourrait être tenté de lisser le film pour en faire un produit de consommation courante, la co-production française joue un rôle de bouclier éditorial. Elle protège le « Final Cut » du réalisateur et assure l’intégrité artistique du projet.
Plus techniquement, la France a pu servir de hub de finition et de labelisation :
L’Excellence Technique : Une partie de la post-production (sound design, étalonnage complexe) a été gérée en Europe, apportant une « patine » visuelle et sonore qui distingue le film des productions CGI standardisées du marché chinois.
Le Sésame Cannois : C’est l’expertise de réseau de CG Cinéma et des Films du Losange (ventes internationales) qui a propulsé le film en Compétition à Cannes. Sans cette intervention, Resurrection aurait pu rester un gros succès local mais invisible pour la critique mondiale. La France a converti le capital économique chinois en capital symbolique global.
Resurrection marque la naissance d’un modèle hybride mature. L’industrie chinoise prouve qu’elle est désormais capable de financer ses propres auteurs sans attendre l’Europe, à condition d’y injecter ses propres stars (Star System). De son côté, l’industrie française se réinvente non plus comme « bailleur de fonds » unique, mais comme partenaire stratégique de curation et de positionnement.
Le film a réussi là où beaucoup ont échoué : il a satisfait l’exigence du critique international tout en remplissant les multiplexes de Shanghai. C’est le triomphe d’une intégration verticale transcontinentale.
“Et si on allait voir Super Mario Bros au cinéma ?” Il y a quelques années, cette question aurait surpris : Mario Bros, personnage emblématique de la multinationale japonaise Nintendo, est resté longtemps confiné aux consoles de la marque. Pourtant, en 2023 sort Super Mario Bros., le film, un film d’animation produit en collaboration avec Illumination, et le succès est immédiat. Devenu le film Illumination le plus rentable de tous les temps, il génère 1,36 milliard de dollars de recettes mondiales et un profit net de 559 millions de dollars.
Très vite, Nintendo met en avant sa volonté stratégique de se transformer en un acteur culturel global, à l’image de la Walt Disney Company. Il souhaite exploiter ses IP (Intellectual Properties) pour capter un public allant au-delà des joueurs de jeux vidéo. Cette stratégie s’inscrit parfaitement dans un contexte de convergence des médias, un processus social et culturel modifiant la relation entre les technologies, les industries, les marchés et les publics. Il ne s’agit plus d’une substitution des anciens médias par les nouveaux, mais d’une interaction complexe et mutuellement enrichissante.
Adapter un jeu vidéo Nintendo au cinéma : succès garanti ?
À sa sortie, Super Mario Bros., le film est un phénomène mondial. Il enregistre le plus grand lancement de tous les temps pour un film d’animation à l’échelle mondiale (il est aujourd’hui quatrième de ce classement). En France, il domine le box-office en 2023 avec 7,15 millions d’entrées. Ce succès prouve que l’univers des jeux vidéo Mario peut fonctionner en dehors des consoles, confirmant la force de la marque comme pilier culturel.
Pourtant, Nintendo n’en est pas à son premier coup d’essai en termes d’adaptation de ses franchises au cinéma. Il s’essaie pour la première fois au genre en 1993, avec le film en prises de vues réelles Super Mario Bros. Mais le film connaît un échec cuisant. Super Mario Bros. est surtout resté célèbre pour son flop critique et commercial, ne rapportant que 40 millions de dollars dans le monde pour un coût de production de 50 millions de dollars. La cause ? Probablement une mauvaise maîtrise des valeurs de la marque. La version de 1993 est jugée trop éloignée de l’esprit des jeux, avec de grandes libertés prises par rapport au matériau original.
Il faut dire qu’adapter un jeu vidéo Mario au cinéma peut représenter un challenge. Les jeux vidéo de la franchise Mario ont souvent un scénario peu étoffé, ce qui les rend peu exploitables dans un long format au cinéma. Pourtant, Nintendo est parvenu à en tirer un film à succès en 2023. Comment ?
Reprendre la main sur une licence très appréciée
Pour éviter de reproduire l’échec de 1993 avec son nouveau film, Nintendo change de modèle. Le studio japonais veut désormais avoir la main sur le processus créatif et financier de ses films. Nintendo passe alors d’un simple modèle de licensing à une implication directe dans la production et le financement. Son objectif est de garantir la fidélité artistique et la cohérence avec l’univers original de chaque licence, tout en diversifiant ses sources de revenus et son modèle d’affaires.
Dans ce cadre, Shigeru Miyamoto, l’architecte du jeu Super Mario, a été fortement impliqué dans le processus de création de Super Mario Bros., le film. Ce dernier comporte de nombreuses références à Super Mario, et a été salué pour sa capacité à respecter les codes visuels et sonores emblématiques du jeu. Son scénario progresse via des niveaux thématiques forts (Donkey Kong, Mario Kart…) rappelant à tout fan de la licence les heures passées sur ces jeux. De son côté, Koji Kondo a signé une bande originale avec des easter eggs sous forme de thèmes orchestraux tirés des jeux. Les fans ont aussi apprécié retrouver certaines références au jeu original, comme le champignon qui rend Bowser minuscule, ou des scènes de combat de style Super Smash Bros.
Ces détails sont importants car l’attachement du public à cette licence est un autre facteur du succès de Super Mario Bros., le film. De manière générale, bon nombre de personnes connaissent les personnages Nintendo, sans être des gamers expérimentés, ce qui offre à Nintendo de belles opportunités pour de futurs films. Nintendo peut alors s’adresser simultanément à différentes couches d’audience, incluant des individus qui n’étaient pas encore des joueurs actifs, mais qui pourraient le devenir suite à leur visionnage du film. Le film réussit ainsi à brouiller les frontières traditionnelles entre les consommateurs de jeux et ceux de films. Il crée une valeur ajoutée où l’interaction entre les consommateurs (les discussions sur les références et l’univers) alimente l’industrie médiatique.
Construire un univers narratif cohérent en mobilisant la richesse de chaque média permet alors à Nintendo d’entretenir un cercle vertueux. En outre, le succès de Super Mario Bros., le film a eu un impact positif direct sur le cœur de métier de Nintendo : les ventes de titres Super Mario sur Nintendo Switch ont augmenté de 1,3 fois d’une année sur l’autre après la sortie du film, et les téléchargements d’applications mobiles Super Mario ont augmenté de 1,4 fois. Les films jouent donc un rôle crucial en tant que points de contact continus avec les consommateurs, servant à élargir la base de fans et à approfondir leur attachement aux propriétés intellectuelles de Nintendo.
Ces dernières ont donc un fort potentiel transmédia, ce qui pousse aujourd’hui Nintendo à vouloir les étendre dans d’autres canaux d’entertainment.
Vers un écosystème de divertissement global
Pour transformer ses licences en marques culturelles durables, Nintendo ne compte pas s’arrêter aux films. Ces derniers ne sont qu’une partie de sa stratégie d’expansion, comme le décrit Shuntaro Furukawa, le président de Nintendo : “Under our strategy of ‘expanding the number of people who have access to Nintendo IP’ to continuously invigorate our core integrated hardware-software business, we have been working on initiatives beyond our dedicated video game platforms for several years. Visual content is one such area.”
Dans ce cadre, Nintendo a récemment dévoilé sa nouvelle filiale Nintendo Stars Inc. qui a pour mission principale de gérer les extensions des adaptations cinématographiques Nintendo vers d’autres supports, tels que les événements en direct. Là encore, l’objectif est d’augmenter le nombre de personnes ayant accès aux IP de Nintendo. Cette nouvelle filiale est issue de la restructuration et du rebranding de l’ancienne co-entreprise Warpstar Inc., initialement fondée en 2001 pour gérer la franchise Kirby. Il ne faut pas confondre Nintendo Stars Inc. avec Nintendo Pictures, qui est le studio interne dédié spécifiquement à l’animation et à la capture de mouvements.
La stratégie d’expansion de Nintendo est donc menée dans un large éventail de domaines, incluant les parcs à thème, le merchandising, les appareils mobiles et le contenu visuel (cinéma). L’objectif de cette stratégie n’est pas seulement de créer des jeux, mais de proposer des expériences basées sur l’univers Nintendo qui ne sont pas limitées au jeu vidéo. Par exemple, il est possible de retrouver les héros phares du studio japonais dans le Super Nintendo World™ aux Universal Studios Hollywood, en Floride. Nourriture, attraction, décors immersifs : tout est pensé pour immerger les visiteurs dans l’univers de Mario, Luigi et de la Princesse Peach.
Et pour la suite ?
Le succès de Super Mario Bros., le film a confirmé à Nintendo qu’il devait construire un plan cohérent pour sortir régulièrement des films basés sur ses IP. C’est pourquoi une nouvelle création arrive en salle dès avril 2026, avec Super Mario Galaxy, le film, la suite de Super Mario Bros., le film. Un autre projet très attendu est le film en prises de vues réelles The Legend of Zelda, prévu pour mai 2027. Ce film sera co-produit par Shigeru Miyamoto et financé majoritairement par Nintendo, en collaboration avec Sony Pictures Entertainment, Inc. pour la distribution mondiale. Nintendo mise beaucoup sur la sortie de ce live-action car la licence The Legend of Zelda performe très bien depuis près de 30 ans, avec un regain d’intérêt particulier pour ses versions sur Nintendo Switch.
La ministre fédérale allemande de la Famille, Lisa Paus, essaie Zelda sur une Nintendo Switch à la Gamescom de 2023. (Photo de Leon Kuegeler/Photothek via Getty Images)
Le studio japonais a aussi indiqué travailler sur plusieurs adaptations cinématographiques à différents stades de développement. Parmi les franchises les plus citées pour ces futures adaptations, on retrouve Donkey Kong, Metroid, Animal Crossing ou encore Pikmin.
Reste à savoir si Nintendo parviendra à garder cet effet de “nouveauté” avec ses prochains films, tout en séduisant le public avec des héros moins populaires que son célèbre plombier moustachu.
En 2024, le terme brat a connu une trajectoire symbolique remarquable. D’abord associé à une connotation péjorative, « sale gosse » en anglais, il a été réinvesti par la chanteuse Charli XCX à travers son album Brat, avant de circuler bien au-delà du champ musical, dans des contextes culturels, médiatiques et politiques plus larges. L’expression a pris une telle ampleur qu’elle est rapidement entrée dans l’usage courant de la langue : le dictionnaire britannique Collins l’a même désigné « mot de l’année 2024 », en le redéfinissant comme un terme caractérisant une attitude confiante, indépendante et hédoniste. Selon l’éditeur, Brat dépasse largement le succès musical pour devenir une véritable esthétique et un mode de vie, incarné par l’expression brat summer.
Ce glissement sémantique et culturel constitue un point d’entrée pertinent pour analyser les dynamiques actuelles de la fan culture en ligne. Issu à l’origine d’un album pop, le phénomène Brat se transforme rapidement en un ensemble de pratiques participatives, de productions symboliques et de discours identitaires portés par une communauté numérique active. Il ne s’agit donc pas d’un simple engouement, mais d’un phénomène construit collectivement par les fans, illustrant ce que Henry Jenkins définit comme une culture participative, c’est-à-dire un modèle culturel dans lequel les consommateurs ne se contentent pas de recevoir passivement des contenus, mais contribuent activement à leur création, leur circulation et leur interprétation1.
Dans un environnement numérique marqué par la convergence technologique et l’affaiblissement des frontières entre producteurs et publics, le mouvement Brat apparaît comme un objet culturel total : esthétique, communautaire, performatif et politique. L’analyser permet ainsi de saisir concrètement les mécanismes par lesquels les fans deviennent producteurs de sens, médiateurs culturels et parfois acteurs de résistance symbolique.
Définition, caractéristiques et réappropriation du phénomène Brat
Le phénomène Brat repose sur un processus de réappropriation collective. Le terme, historiquement négatif, est resignifié pour désigner un état d’esprit valorisant l’excès, l’audace, l’honnêteté émotionnelle et l’acceptation de l’imperfection. Cette redéfinition ne relève pas uniquement d’une intention artistique de Charli XCX, mais d’un travail interprétatif et performatif mené par les fans eux-mêmes.
« La fille “brat” est une fille un peu bordélique, qui aime faire la fête, qui fait parfois des choses débiles, mais qui est aussi très honnête. »
Cette définition, volontairement floue, fonctionne comme une ressource culturelle ouverte, que les fans peuvent s’approprier, interpréter et décliner selon leurs propres expériences. Elle illustre ce que Jenkins (1992) nomme le braconnage culturel (textual poaching)2: les publics s’emparent d’un texte médiatique pour en extraire des significations adaptées à leurs besoins identitaires et sociaux.
Sur le plan esthétique, Brat se distingue par une forte cohérence visuelle : le vert néon, une typographie volontairement dégradée (Arial étirée et floue), une iconographie brute et un imaginaire oscillant entre punk, grunge, cyberpunk et Y2K. Cette esthétique fonctionne comme un marqueur d’appartenance immédiatement reconnaissable, facilitant sa circulation et sa réappropriation.
Les réseaux sociaux comme infrastructures de la participation
La diffusion du phénomène Brat repose principalement sur les plateformes numériques, en particulier TikTok, Instagram et X. Cependant, comme le rappelle Jenkins (2017)3, ce ne sont pas les plateformes en elles-mêmes qui sont « participatives », mais bien les cultures qui s’y déploient. Les technologies peuvent être interactives, mais la participation relève de dynamiques culturelles et sociales.
Le hashtag #Brat agrège ainsi une variété de productions : vidéos performatives, chorégraphies (comme la danse virale sur Apple), memes, fan arts, détournements graphiques, ou encore outils participatifs comme le Brat Generator, qui permet aux internautes de produire leurs propres visuels inspirés de la charte graphique de l’album.
Exemple d’une image générée via le Brat Generator reprenant les codes esthétiques de la pochette d’album
Ces pratiques illustrent ainsi une distinction essentielle entre interactivité (choisir, cliquer, personnaliser) et participation, entendue comme la capacité à produire collectivement du sens et à influencer une expérience culturelle partagée.
Dans cette perspective, TikTok, et les réseaux sociaux plus largement, peuvent être analysés comme des écologies médiatiques hybrides (Benkler, 2007)4, où coexistent amateurs, artistes, marques, designers et acteurs politiques. Les contenus circulent de manière fluide, se répondent, se transforment et s’enrichissent mutuellement, renforçant la visibilité et la longévité du phénomène.
Fan culture, convergence et production symbolique
Les travaux de Mélanie Bourdaa5 montrent que les créations de fans participent activement à la circulation et à la promotion des œuvres culturelles, souvent de manière non institutionnelle. Dans le cas de Brat, les productions des fans fonctionnent comme une économie numérique gratuite, où l’engagement repose moins sur une logique marchande que sur l’affect, l’appartenance et la reconnaissance symbolique.
Ce phénomène s’inscrit pleinement dans la convergence culturelle (Jenkins)6, où les fans deviennent à la fois consommateurs, producteurs et prescripteurs. Comme pour des séries telles que Games of Thrones, on observe une porosité croissante entre stratégies officielles et initiatives issues du fandom. Toutefois, Brat se distingue par une autonomie forte des fans, dont les créations précèdent parfois toute récupération institutionnelle.
Communauté, identité collective et affect
Le phénomène Brat repose également sur une forte dimension affective. Être brat ne signifie pas seulement aimer un album, mais investir émotionnellement un univers symbolique qui permet de se dire, de se montrer et de se reconnaître. Les fans se constituent en communautés d’affinités, parfois éphémères, parfois durables, circulant entre différentes plateformes dans une logique de « résidence multiple » (Baym)7.
Cette dynamique favorise la construction d’identités collectives numériques, fondées sur le partage de valeurs, d’esthétiques et d’expériences. Comme le souligne Nathalie Paton (2015)8, ces formes de participation peuvent constituer des modes d’individuation subversifs, permettant de s’émanciper des normes dominantes tout en s’inscrivant dans un collectif.
Brat entre résistance symbolique et mainstreamisation
Le phénomène Brat peut ainsi être interprété comme une réponse aux discours normatifs et conservateurs largement diffusés sur les réseaux sociaux, en particulier ceux portés par les mouvements tradwife, qui promeuvent une féminité disciplinée, ordonnée et conforme aux rôles traditionnels. À rebours de ces injonctions, l’esthétique Brat valorise le désordre, l’excès et l’imperfection comme des formes d’affirmation et de résistance symbolique.
Cette posture rappelle les dynamiques des subcultures punk telles qu’analysées par la Birmingham School of Cultural Studies, notamment par Dick Hebdige9. Toutefois, contrairement au punk historique, Brat ne se situe pas en opposition frontale à la culture mainstream. Il s’agit plutôt d’une résistance relationnelle, diffuse et partiellement intégrée, qui joue avec les codes dominants tout en les détournant.
L’anti-design adopté par Charli XCX, choix d’une couleur « moche », typographie volontairement dégradée, minimalisme brutal, s’inscrit pleinement dans cette logique. En cassant les conventions esthétiques, Brat questionne les normes du « beau » et du « professionnel », tout en facilitant la viralité et l’appropriation par les fans. Cette stratégie rappelle que, comme dans le punk, « s’il n’y a rien d’intouchable, tout peut être récupéré et retravaillé » (Hall, 1981)10.
La récupération des codes Brat dans la campagne de Kamala Harris illustre aussi la porosité croissante entre culture populaire, fan culture et communication politique. En mobilisant une esthétique et un imaginaire issus de communautés jeunes, féminines et queer, la sphère politique reconnaît implicitement le pouvoir symbolique et mobilisateur des fandoms.
Ce glissement confirme l’évolution des fan cultures vers des formes d’engagement civique et d’activisme, décrites dans les fan studies comme une troisième phase du fandom : après la résistance et la participation, l’activation politique.
Conclusion : Brat comme symptôme culturel de l’ère numérique
Le phénomène Brat constitue un révélateur puissant des transformations contemporaines de la culture fan en ligne. À travers lui se déploient les logiques de culture participative, de convergence médiatique, de production symbolique et d’engagement affectif. Plus qu’un prolongement d’un album pop, Brat apparaît comme un espace d’identification, de jeu et de résistance symbolique.
En mobilisant l’anti-design, l’imperfection et l’ironie, Charli XCX a su transformer une vision personnelle en un univers culturel ouvert, massivement réapproprié par les fans. Le succès de Brat montre que la singularité, longtemps reléguée à la marge, peut devenir mainstream sans se défaire totalement de sa charge critique.
Enfin, la persistance des réappropriations par les fans, bien au-delà du brat summer, confirme que ce phénomène ne relève pas d’un simple effet de mode, mais d’une dynamique culturelle durable, où création artistique, design et fan culture s’entrelacent pour raconter de nouvelles histoires collectives.
Zoé MOTTE
Jenkins, H. (2006). Convergence Culture: Where Old and New Media Collide. New York : New York University Press. ↩︎
Jenkins, H. (1992). Textual Poachers: Television Fans and Participatory Culture. New York : Routledge. ↩︎
Jenkins, H., Ito, M., & boyd, d. (2017). Culture participative : Une conversation sur la jeunesse, l’éducation et l’action dans un monde connecté. Caen : C&F Éditions. ↩︎
Benkler, Y. (2007). The Wealth of Networks: How Social Production Transforms Markets and Freedom. New Haven : Yale University Press. ↩︎
Bourdaa, M. (2016). La promotion par les créations de fans. Raisons politiques, n°62, p. 101-115. ↩︎
Jenkins, H. (2006). Convergence Culture: Where Old and New Media Collide. New York : New York University Press. ↩︎
Baym, N. K. (2015). Personal Connections in the Digital Age. Cambridge : Polity Press. ↩︎
Paton, N. (2015). La e-participation subversive comme mode d’individuation. Revue française des sciences de l’information et de la communication, no. 7. ↩︎
Hebdige, D. (1979). Subculture: The Meaning of Style. Londres : Methuen. ↩︎
Hall, S. (1981). « Notes on Deconstructing “the Popular” ». In Samuel, R. (dir.), People’s History and Socialist Theory, p. 227-240. Londres : Routledge. ↩︎
Bibliographie
Ouvrages et articles académiques :
Baym, N. K. (2015). Personal Connections in the Digital Age. Cambridge : Polity Press.
Benkler, Y. (2007). The Wealth of Networks: How Social Production Transforms Markets and Freedom. New Haven : Yale University Press.
Bourdaa, M. (2016). La promotion par les créations de fans. Raisons politiques, n°62, p. 101-115.
Hall, S. (1981). « Notes on Deconstructing “the Popular” ». In Samuel, R. (dir.), People’s History and Socialist Theory, p. 227-240. Londres : Routledge.
Hebdige, D. (1979). Subculture: The Meaning of Style. Londres : Methuen.
Jenkins, H. (1992). Textual Poachers: Television Fans and Participatory Culture. New York : Routledge.
Jenkins, H. (2006). Convergence Culture: Where Old and New Media Collide. New York : New York University Press.
Jenkins, H., Ito, M., & boyd, d. (2017). Culture participative : Une conversation sur la jeunesse, l’éducation et l’action dans un monde connecté. Caen : C&F Éditions.
Paton, N. (2015). La e-participation subversive comme mode d’individuation. Revue française des sciences de l’information et de la communication, no. 7.
Face à la concurrence féroce des plateformes de streaming et des réseaux sociaux, la télévision linéaire opère une mutation stratégique. Elle ne se contente plus de diffuser du divertissement. Elle absorbe les codes du jeu de société, du jeu vidéo et de l’escape game pour transformer le spectateur passif en acteur engagé. Analyse de cette convergence où l’économie de l’attention redessine les frontières du petit écran.
Crédit : IA générative / Google
Dans une économie de l’attention saturée, où le temps de cerveau disponible est disputé par TikTok, Twitch, YouTube ou les jeux mobiles, la télévision traditionnelle n’est plus seulement en concurrence avec elle-même. Pour capter un public volatil, les chaînes déploient une stratégie offensive qui repose sur la convergence absolue entre le programme de flux et l’univers ludique. Le jeu devient l’outil le plus efficace pour capter l’attention grâce à ses ingrédients intrinsèques. Le suspense, les règles simples, la récompense immédiate et la participation forment un cocktail irrésistible. Ce phénomène dépasse le simple marketing et relève d’un processus profond de mutation des contenus. L’objectif ? Combler le manque d’interactivité inhérent au petit écran par des dispositifs numériques et narratifs. Et plutôt que de lutter contre ces nouveaux usages numériques, les chaînes optent pour une stratégie ambitieuse : elles intègrent les codes du jeu directement dans leurs formats. De spectateur passif, le public est désormais convié à devenir un téléspectateur-joueur. Cette figure hybride incarne une participation active, mobilise l’attention et prolonge l’expérience au-delà de l’antenne.
Quand les jeux de société dictent des formats audiovisuels
Si la télévision a toujours puisé dans le vivier ludique, nous assistons aujourd’hui à une industrialisation de l’adaptation. Dès les années 1950 Des chiffres et des lettres s’inspirait du Scrabble et Télé Match du Jeu de l’Oie. Mais aujourd’hui, des formats comme Le Maître du Jeu (TF1), inspiré du Cluedo, ou Les Traîtres (M6) et Loups Garous (Canal+), tirés du célèbre jeu d’ambiance Les Loups-garous de Thiercelieux, envahissent les grilles. Arthur a également transformé le jeu de culture générale Tu te mets combien ? (TTMC) en émission 10 sur 10, combien tu te mets ?. Plus récemment, TF1 a aussi testé des adaptations de Code Names ou encore de Bataille navale, confirmant l’ancrage durable des jeux de société dans les stratégies de programmation télévisuelle.
L’industrie télévisuelle, confrontée à une fragmentation des audiences et à une prise de risque limitée, se tourne massivement vers des formats préexistants issus du monde du jeu. Cette tendance s’explique par une frilosité économique des diffuseurs. Développer un nouveau format de jeu coûte cher et le risque d’échec est élevé. Adapter un jeu de société vendu à 7 millions d’exemplaires (comme Loups-garous) ou 750 000 (pour TTMC) offre une base de fans préexistante et une mécanique validée.
Ces jeux fournissent une narration « clé en main ». Des règles claires, des obstacles identifiables, une tension dramatique et une récompense finale. Ils permettent, notamment pour des formats comme Les Traîtres, de mélanger fiction, feuilleton et télé-réalité en jouant sur des ressorts émotionnels puissants. La peur, la trahison et la survie sont au cœur de ces dispositifs.
Au-delà de l’aspect économique, ces adaptations visent à fédérer la famille devant un écran unique. Elles surfent sur des pratiques ludiques partagées par différentes générations, surtout depuis le regain d’intérêt pour les jeux de société post-Covid. Le marché français du jeu de société a fortement progressé. Il enregistre une croissance annuelle d’environ 15 % depuis une quinzaine d’années, créant un terrain fertile pour cette stratégie télévisuelle. Les chaînes misent sur un effet de reconnaissance transgénérationnel. Parents et enfants peuvent ainsi se retrouver autour d’un concept familier, qu’ils ont pratiqué ensemble lors de soirées en famille.
Du plateau télé à la table familiale
La convergence fonctionne dans les deux sens. Les chaînes de télévision ne se contentent plus de diffuser. Elles transforment leurs marques en produits jouables pour monétiser l’attention hors antenne et créer de la rejouabilité. Les adaptations de jeux TV en jeux de société permettent de transformer son salon en véritable plateau télé. Pour prolonger l’expérience au-delà de l’écran, les chaînes transforment leurs programmes en produits dérivés interactifs.
Les jeux de société tirés d’émissions ne sont pas de simples produits d’appel. Burger Quiz, Les 12 Coups de Midi, Vendredi tout est permis visent une immersion sonore et mécanique fidèle. The Wall, face au mur intègre un mur électronique pour reproduire la mécanique centrale de l’émission et Tout le monde veut prendre sa place respecte scrupuleusement les modes « Duo, Carré, Cash ». L’enjeu est de permettre au téléspectateur d’incarner le candidat, de valider ses compétences cognitives depuis son salon, de vivre l’adrénaline du plateau sans quitter sa table. Ces produits dérivés ne sont pas de simples gadgets. Ils reproduisent fidèlement les mécanismes de l’émission pour créer une continuité d’expérience entre l’écran et le réel.
L’aboutissement ultime de cette gamification est le passage du virtuel au physique immersif. L’émission Fort Boyard, pionnière du « jeu d’aventure », s’est déclinée en salles de jeu physiques (Fort Boyard Aventures). Développés avec les producteurs de l’émission, ces espaces reproduisent les cellules et les mécanismes du fort. Ici, la médiation de l’écran disparaît totalement. Le public pénètre dans des décors fidèles aux épreuves télévisuelles. Le téléspectateur ne joue plus par procuration. Il vit l’expérience sensorielle du programme dans sa chair. C’est la concrétisation totale de la promesse ludique : traverser l’écran.
Ce phénomène s’inscrit dans une tendance plus large d’expérientification du divertissement. À l’ère du numérique, paradoxalement, le public recherche des expériences tangibles, incarnées. Les escape games ont connu une croissance exponentielle. Près de 2500 salles existent aujourd’hui en France, témoignant de cet appétit pour des divertissements qui mobilisent le corps autant que l’esprit. En créant ses propres expériences physiques, la télévision tente de capter cette soif d’immersion tout en renforçant l’attachement émotionnel à ses marques.
Crédit photo : Fort Boyard Aventures via Facebook
La frontière avec le jeu vidéo s’estompe également. Les concepts historiques s’essoufflent ou doivent se réinventer pour séduire les nouvelles générations, nées avec une manette dans les mains. On voit ainsi des projets comme l’adaptation future d’Intervilles en jeu vidéo par Banijay. Ceci prouve que le flux télévisuel ne suffit plus. Il faut devenir une marque jouable, déclinable sur tous les supports. Cette mutation traduit une prise de conscience. Les codes narratifs du jeu vidéo (missions, niveaux, progression) sont désormais plus familiers aux jeunes publics que ceux de la télévision traditionnelle.
Le second écran : la nouvelle manette de la TV
Enfin, la convergence numérique tente de résoudre le paradoxe historique de la télévision : son unilatéralité. Historiquement, la télévision a tenté de faire jouer le public via le courrier, puis le téléphone et le Minitel pour les votes et les concours. Dès 1969, L’Arbalète de Noël permettait de guider une caméra par téléphone, et en 1992, Hugo Délire transformait le Minitel en manette pour diriger le célèbre troll à travers ses aventures.
Aujourd’hui, le smartphone est devenu la « manette » du téléspectateur. Des dispositifs comme les entraînements interactifs proposés sur l’application france.tv pour 100 % Logique, les QR codes affichés à l’antenne, les votes par SMS ou via applications, mais aussi l’existence d’applications de jeu dédiées pour certaines émissions comme Tout le monde veut prendre sa place ou Slam, permettent une participation en temps réel. Ils transforment le spectateur passif en « téléspectateur-joueur » actif. Cette interactivité n’est pas qu’un gadget. Elle répond à un objectif pragmatique pour les chaînes, celui de maintenir l’attention. En demandant au public de répondre à des questions ou de voter, on sollicite son attention visuelle et sa déduction cognitive. On l’empêche ainsi de zapper. L’interactivité numérique compense ainsi la linéarité rigide du flux télévisuel face à la flexibilité totale du streaming.
Ce processus se nomme la « ludicisation » : amener le spectateur à adopter une « attitude ludique », c’est-à-dire une distance et une conscience de jouer. Pour les chaînes, l’enjeu est vital : l’interactivité numérique doit compenser la linéarité du flux TV. La télévision cherche depuis longtemps à activer cette attitude, mais le smartphone lui offre enfin les moyens techniques de ses ambitions interactives.
La gamification du divertissement TV n’est donc pas une simple mode, mais une réponse structurelle à une crise de l’attention. Dans un contexte de pression économique et culturelle intense (baisse des recettes publicitaires, concurrence des plateformes, transformation des pratiques médiatiques), la télévision linéaire tente de retrouver sa raison d’être originelle. En brouillant les pistes entre spectateur et joueur, entre écran et plateau, entre virtuel et physique, la télévision espère redevenir ce qu’elle fut à ses débuts : un foyer d’expérience collective, qu’elle se vive manette en main, pions sur la table, ou smartphone devant les yeux.
Reste à savoir si cette télévision ludifiée pourra, à long terme, recréer un véritable rendez-vous collectif dans un paysage médiatique de plus en plus éclaté.
Imaginez un monde où un simple clic peut transformer un mensonge en réalité virale. Un monde où des vidéos de candidats sont créées de toutes pièces, où des messages politiques sont envoyés automatiquement à des millions de personnes ciblées par leurs centres d’intérêt ou leur âge, et où les algorithmes des réseaux sociaux décident de ce que vous voyez, et de ce que vous ne voyez pas.
Depuis 2016, avec l’affaire russe et Cambridge Analytica aux Etats-Unis, nous savons que les élections peuvent être influencées via la manipulation grâce à l’utilisation des données personnelles. En 2020, lors des élections présidentielles aux Etats-Unis, l’automatisation et les premières tentatives de deepfakes ont montré la montée en puissance des technologies. En 2024, l’intelligence artificielle est devenue un acteur central, capable de générer et diffuser du contenu politique à une échelle auparavant inimaginable.
Alors, comment l’IA reconfigure-t-elle les stratégies d’influence politique et les responsabilités des acteurs médiatiques et numériques lors des élections américaines de 2024 ?
@ Getty images
L’IA : un accélérateur de la guerre informationnelle
La guerre informationnelle ne constitue pas un phénomène nouveau dans le champ politique, mais l’intelligence artificielle en modifie profondément l’ampleur, la vitesse et les modalités. Alors que les campagnes de désinformation reposaient historiquement sur des interventions humaines relativement limitées, l’IA permet aujourd’hui une industrialisation de la manipulation de l’information.
Les technologies de génération de contenus (textes, images, sons et vidéos) rendent possible la création de messages politiques crédibles, personnalisés et massivement diffusables à faible coût. Les deepfakes, en particulier, incarnent cette rupture technologique : ils permettent d’attribuer à des candidats des propos ou des comportements fictifs, brouillant la frontière entre réel et artificiel. Lors de l’élection présidentielle américaine de 2024, ces contenus ont renforcé la défiance envers l’information politique et fragilisé la capacité des citoyens à distinguer le vrai du faux. Par exemple, il y a eu un deepfake vocal de Joe Biden appelant à ne pas voter aux primaires démocrates, mais aussi des images générées montrant Donald Trump entouré de supporters afro-américains, ou encore des faux visuels anti-Clinton ou anti-immigration attribués aux démocrates.
L’objectif n’est donc pas de convaincre, mais de désorienter et saturer l’espace public, en instaurant un doute généralisé : une zone grise où la distinction vrai/faux devient floue, une sorte de « brouillard informationnel ». La conséquence n’est pas seulement la diffusion de fausses informations, mais bien une perte de confiance qu’ont les citoyens en les médias.
Par ailleurs, l’IA ne se limite pas à la production de contenus. Elle intervient également dans leur diffusion automatisée, via des réseaux de bots capables d’interagir, de commenter et de relayer des messages à grande échelle. Cette automatisation crée un effet de volume et de répétition, essentiel dans les stratégies de désinformation, en donnant l’illusion d’un consensus ou d’une popularité artificielle autour de certaines idées. L’échelle est nouvelle : un individu équipé d’IA peut produire ce qui nécessitait autrefois une équipe entière. Avant les élections de 2024, on observait déjà des tactiques, telles que les affaires Team Jorge, mais elles ont été perfectionnées : les bots générant des réponses crédibles grâce au langage naturel, la personnalisation automatique des messages selon les communautés (âge, religion, genre, géolocalisation), mais aussi des campagnes synchronisées sur TikTok, X, Instagram et YouTube. De plus, un nouveau levier a été utilisé : celui de WhatsApp, ce qui permet de créer un lien de proximité avec l’électorat, comme on le voit dans le documentaire Arte High School Radical, avec une sollicitation quotidienne de la part des deux partis en lice.
Les recherches sur la réception montrent cependant que ces dispositifs n’agissent pas de manière uniforme. Les publics déjà politisés, polarisés ou défiants envers les médias traditionnels sont davantage exposés à ces contenus et plus enclins à les relayer. Les fake news et deepfakes ne convertissent donc pas massivement de nouveaux électeurs, mais renforcent des opinions préexistantes, contribuant à la radicalisation des discours et à la polarisation de l’espace public, plutôt qu’à une conversion idéologique directe. L’IA devient ainsi un levier stratégique majeur de la guerre informationnelle, non plus marginal, mais central dans les dynamiques électorales contemporaines.
@ Arte.tv
Les réseaux sociaux, nouvelles infrastructures du débat public
Si l’intelligence artificielle constitue l’outil, les plateformes numériques et les infrastructures télécoms en sont le vecteur principal. Les réseaux sociaux jouent un rôle déterminant dans la circulation de l’information politique, en particulier aux États-Unis, où ils représentent une source d’information majeure pour une large partie de la population. Certaines figures comme Elon Musk ont eu un rôle majeur pendant ces élections.
Les algorithmes de recommandation, conçus pour maximiser l’engagement des utilisateurs, favorisent souvent les contenus polarisants ou émotionnels. Cette logique économique, fondée sur l’attention, entre en tension avec les exigences démocratiques. L’IA, intégrée au cœur de ces algorithmes, participe à une hiérarchisation opaque de l’information : les contenus les plus clivants, simplifiés ou sensationnalistes bénéficient d’une visibilité accrue, indépendamment de leur véracité. Cette logique influence indirectement la perception politique des électeurs, sans intervention humaine explicite.
Alors, l’enjeu réside dans la capacité des infrastructures à soutenir une diffusion massive, instantanée et transnationale des contenus. La rapidité des réseaux, combinée à l’automatisation algorithmique, réduit considérablement le temps de réaction des autorités, des médias traditionnels et des dispositifs de fact-checking.
Les plateformes se trouvent ainsi dans une position stratégique ambivalente : à la fois acteurs économiques, intermédiaires techniques et régulateurs de facto de l’espace public numérique. Lors des élections de 2024, certaines ont mis en place des dispositifs de modération ou de signalement de contenus générés par IA. Toutefois, ces mesures restent limitées par la complexité technique des outils, la difficulté de détection automatisée et la crainte d’atteintes à la liberté d’expression. Cette centralité des plateformes dans la circulation de l’information pose directement la question de leur responsabilité politique et juridique.
La régulation à l’épreuve de la vitesse numérique
L’utilisation de l’intelligence artificielle dans les campagnes électorales pose des défis majeurs de gouvernance, tant pour les États que pour les acteurs privés du numérique. La question centrale n’est plus seulement technologique, mais profondément managériale et politique : qui est responsable des usages de l’IA dans l’espace informationnel ?
Les plateformes numériques revendiquent souvent un rôle d’intermédiaires techniques, tandis que les pouvoirs publics peinent à imposer des cadres réglementaires adaptés à la rapidité de l’innovation. Aux États-Unis, la régulation demeure faible, laissant une large place à l’autorégulation des entreprises technologiques. À l’inverse, l’Union européenne tente d’imposer un cadre plus contraignant avec le Digital Services Act, qui oblige les plateformes à plus de transparence algorithmique, à la coopération avec les chercheurs et à la mise en place de mécanismes de signalement renforcés. Toutefois, ces dispositifs restent en tension avec la rapidité de circulation des contenus et la sophistication croissante des outils de manipulation. Alors, l’IA impose une redéfinition des stratégies de contrôle, de transparence et d’éthique.
Enfin, l’élection présidentielle américaine de 2024 met en lumière la nécessité d’une gouvernance hybride, associant États, plateformes, médias et société civile. Sans coordination internationale et sans cadre clair, l’intelligence artificielle risque de renforcer durablement les asymétries informationnelles et d’éroder la confiance dans les processus démocratiques. L’enjeu n’est donc plus seulement de détecter ou de supprimer les contenus trompeurs, mais de préserver les conditions mêmes d’un débat public démocratique. Dans un espace saturé de contenus artificiels, la capacité à débattre, à faire confiance à l’information et à exercer un jugement critique devient un défi central pour les démocraties contemporaines.
Sources : R. Badouard, Les Nouvelles lois du web: Modération et censure (2020) et cours suivis à l’Institut Français de Presse (2023-2024) M. Laulom, High School Radical (2025) – documentaire Ensemble des réseaux sociaux de Donald Trump et Kamala Harris CISA, rapport sur les deepfakes électoraux (disponible ici)
La « guerre du streaming » n’est pas seulement celle des prix ou des exclusivités, c’est une guerre pour notre attention. Dans cet écosystème informationnel saturé, le paradoxe n’est plus l’accès au contenu, mais la capacité à choisir.
Nous faisons tous l’expérience de « l’embarras du choix », cette fatigue décisionnelle analysée par le psychologue Barry Schwartz en 2004 comme le « paradoxe de l’abondance » : trop de choix mène à la paralysie et à l’insatisfaction. Face à un catalogue algorithmique de 10 000 titres, l’utilisateur se sent perdu. C’est dans cette brèche que s’engouffrent les plateformes de niche. C’est le cas de Shadowz, la plateforme française de SVOD entièrement dédiée au cinéma de genre et d’horreur, lancée en 2020.
Comment une « petite » plateforme thématique peut-elle non seulement exister, mais prospérer dans cet écosystème hyper-concurrentiel ? Cet article postule que le succès de Shadowz repose sur une stratégie délibérée d’hyper-éditorialisation. En substituant la curation humaine à l’algorithme opaque, Shadowz ne vend pas seulement des films : elle vend un point de vue, une expertise et un sentiment d’appartenance. Elle oppose à l’automatisation de la découverte un modèle communautaire et éditorialisé.
Le pari de la complémentarité
Contrairement à un nouvel entrant qui chercherait à détrôner les leaders, Shadowz s’est positionné d’emblée comme un complément. Son identité s’est construite sur un ADN précis : « fait par des passionnés, pour des passionnés ». Cette affirmation n’est pas un simple slogan marketing, elle est le fondement de son lancement. Née d’une campagne de financement participatif sur Ulule qui a atteint plus de 300% de son objectif, la plateforme a validé son concept et prouvé l’existence d’une demande communautaire avant même d’écrire sa première ligne de code. Ce n’est pas un capital-risque qui a financé une idée, c’est une communauté qui a plébiscité un projet.
Cette passion est structurée par une expertise technique et sectorielle. Shadowz est portée par VOD Factory, une société spécialisée dans la création de plateformes SVOD en marque blanche. Ses fondateurs, dont Christophe Minelle, et son responsable éditorial, Aurélien Zimmermann, ne sont pas seulement des cinéphiles ; ils sont des professionnels de la distribution numérique. Ils allient la culture du genre à la maîtrise de la « platform economy ». Cette double compétence leur permet de déployer une stratégie précise. D’une part, un modèle économique pensé pour le « multi-abonnement » : un prix bas (4,99 €/mois) qui ne force pas l’utilisateur à choisir entre Netflix et eux. D’autre part, un catalogue qui ne vise pas l’exhaustivité, mais la pertinence. Avec environ 500 titres disponibles à la fin de l’année 2024, la valeur de Shadowz réside dans ce que les autres n’ont pas : des classiques introuvables, des pépites de festivals et des raretés oubliées.
Plus important encore, Shadowz a opéré un pivot stratégique en devenant elle-même distributrice. En acquérant les droits français de films inédits (les « Shadowz Exclu »), la plateforme sort de son rôle de simple diffuseur pour devenir éditrice. Cette intégration verticale, bien que modeste, est cruciale. Elle se prolonge hors ligne, avec la co-édition de Blu-ray et l’organisation de projections événementielles. Shadowz ne se contente pas de streamer des films ; elle les fait exister, leur donne une vie physique et sociale, et participe à la préservation d’un patrimoine cinématographique de niche.
@Shadowz
La stratégie éditoriale : miser sur la Long Tail
La stratégie de catalogue de Shadowz est une application directe, et paradoxalement plus fidèle que ses concurrents, de la théorie de la Long Tail (Anderson, 2006).
Chris Anderson postule qu’à l’ère numérique, les coûts de stockage et de distribution quasi nuls permettent aux entreprises de générer un revenu substantiel non plus seulement avec les « hits » , mais en vendant de petites quantités d’un très grand nombre d’articles de niche. Si Netflix, à l’époque de la location de DVD, fut l’exemple phare d’Anderson, son modèle SVOD actuel a largement abandonné cette logique. Pour retenir 200 millions d’abonnés, Netflix doit désormais produire des programmes globaux tels que Stranger Things, qui agissent comme des produits d’appel et des différenciateurs massifs. La Long Tail des vieux films, coûteuse en droits de licence fragmentés, est devenue secondaire. Shadowz prend le contre-pied radical : son modèle économique n’existe que dans la Long Tail du cinéma de genre. Dans un monde où « tout est disponible » (théoriquement), la valeur n’est plus l’accès, mais le filtre. L’infinité de la Long Tail est anxiogène ; Shadowz propose d’en être le curateur de confiance. La nouvelle rareté n’est pas le contenu, c’est le temps et la confiance.
« L’idée n’est pas d’avoir 5000 films, mais d’avoir une sélection qui a du sens. […] On se plaît à confectionner un édito poussé qui parlera aux fans de genre. » – Aurélien Zimmermann
Cette curation transforme la plateforme en « éditeur » au sens noble du terme. L’équipe éditoriale ne se contente pas d’agréger du contenu ; elle le sélectionne, le contextualise et le défend. Elle crée une ligne éditoriale claire, chose que les plateformes généralistes, dépendantes d’accords de licence globaux et d’algorithmes cherchant le plus petit dénominateur commun, ne peuvent ou ne veulent plus faire (Gillespie, 2018). C’est une économie de la qualité contre une économie de la quantité.
Le système de recommandation : L’anti-algorithme
C’est sur le terrain de la recommandation que la rupture est la plus flagrante. Le système de Shadowz est une réfutation directe du modèle de la « boîte noire » algorithmique.
Les plateformes dominantes utilisent des algorithmes de recommandation sophistiqués dont l’objectif premier est la rétention : prédire ce que l’utilisateur est susceptible d’aimer pour maximiser le temps passé sur la plateforme. Ce faisant, elles risquent de créer ce qu’Eli Pariser a nommé la « Bulle de Filtre ». L’algorithme n’est pas passif ; il est actif. Il n’optimise pas pour la découverte ou l’enrichissement culturel, mais pour la satisfaction immédiate et la minimisation des désabonnements.Shadowz oppose à ce modèle opaque un système de recommandation humain, transparent et multi-couches. Comme l’analyse T. Gillespie dans Custodians of the Internet, les plateformes ne sont jamais neutres : elles façonnent activement ce que nous voyons. Shadowz assume ce rôle de « gardien » de manière explicite. Le système de recommandation de Shadowz s’articule d’abord autour d’une taxonomie détaillée qui sert d’outil de navigation principal. Il faut oublier les catégories génériques comme « Horreur » ou « Thriller » ; les films sont classés par sous-genres ultra-précis, allant du « Giallo » au « Folk Horror », en passant par le « Body Horror », le « Rape & Revenge » ou même les « Nouveaux Extrémismes Français ». Cette classification dépasse la simple métadonnée pour devenir un véritable outil pédagogique. Elle n’est pas seulement un tag, elle est une langue partagée avec la communauté, un lexique qui guide l’utilisateur, lui apprend le vocabulaire spécifique du genre et l’invite à explorer des filiations cinématographiques (Zimmermann, 2022). Cette approche est complétée par l’incarnation de la recommandation. Plutôt que de proposer la formule algorithmique « Parce que vous avez regardé… », Shadowz offre des « Cartes Blanches ». La recommandation n’est plus un calcul, elle est confiée à des personnalités identifiées : des réalisateurs comme le duo Bustillo & Maury, des critiques de Mad Movies, ou des vidéastes reconnus tel Le Fossoyeur de Films. La confiance n’est plus accordée à un code opaque, mais à une expertise humaine reconnue par la communauté. Enfin, ce système est enveloppé dans un contexte éditorial riche. Chaque film est accompagné de fiches détaillées, de textes explicatifs et d’anecdotes, tandis que la newsletter et les réseaux sociaux ne poussent pas des suggestions personnalisées, mais des « coups de cœur » éditoriaux, toujours argumentés, s’apparentant à des micro-critiques.
@Shadowz
En agissant ainsi, Shadowz brise la bulle de filtre. L’objectif n’est pas la rétention à tout prix, mais la sérendipité : la découverte heureuse et fortuite de ce que l’on ne cherchait pas. L’algorithme de recommandation classique est, par définition, l’ennemi de la sérendipité. Il est conçu pour optimiser un chemin, pour prédire un comportement et éliminer l’accident. La curation humaine, à l’inverse, réintroduit ces imprévus fertiles. Les titres mis en avant par Shadowz peuvent sembler totalement décorrélés de l’historique de visionnage de l’utilisateur. C’est précisément cette rupture qui crée la découverte. En n’étant pas entièrement personnalisée, la page d’accueil permet à l’utilisateur de tomber sur une collection historique, une thématique (« Horreur et Politique ») ou un film dont il n’a jamais entendu parler. Shadowz fait le pari de l’intelligence et de la curiosité de son public.
Vers un écosystème de niche ?
Shadowz est la preuve de la viabilité d’un modèle de SVOD alternatif dans un marché que l’on croyait saturé. Sa réussite s’explique par son refus stratégique du modèle algorithmique dominant, au profit d’une hyper-éditorialisation qui place l’expertise humaine au centre de la proposition de valeur. En exploitant intelligemment l’idée de la Long Tail et en substituant la curation incarnée à la « Bulle de Filtre », la plateforme ne se contente pas de divertir une niche : elle l’anime, l’éduque et la fédère.
L’avenir de la SVOD n’appartiendra peut-être pas à un unique vainqueur, mais à une constellation de plateformes spécialisées, comme MUBI pour le cinéma d’auteur ou Tënk pour le documentaire. Ces acteurs, en préférant la pertinence d’une communauté à la largeur d’une audience, encouragent le développement de la curiosité culturelle.
Dimitri SCHEM
Sources :
Anderson, C. (2006). The Long Tail: Why the Future of Business Is Selling Less of More. Hyperion.
Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale University Press.
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
Dimanche 5 octobre 2025. Le soleil se couche sur le circuit Bugatti du Mans. Des dizaines de milliers de fans s’amassent au pied du podium sur lequel 24 personnalités d’Internet, créateurs de contenus et rappeurs, célèbrent la fin d’une aventure unique. Derrière leur écran, ce sont plusieurs millions de spectateurs qui suivent en simultané sur Twitch ou France 2 les derniers instants de ce week-end historique : la dernière édition du GP Explorer. “The Last Race”.
Le GP Explorer, lancé en 2022 par Lucas Hauchard (Squeezie), est une course de Formule 4 mettant en compétition des personnalités du Web regroupées en écuries, lors d’un événement physique sur le circuit des 24h du Mans. Pour marquer le coup, cette troisième et dernière édition s’étend sur trois jours, reprenant le modèle d’un week-end de F1 complet : essais libres, course sprint, qualifications, grand prix.
Forts des deux premières expériences, Squeezie et ses équipes avaient toutes les clés en main pour faire entrer « The Last Race » au panthéon de l’Internet Français – et même mondial. Pari réussi pour le youtubeur de 29 ans, qui s’érige aujourd’hui en symbole d’une nouvelle ère médiatique.
Bien plus qu’une simple course automobile, retour sur le GP Explorer 3, cet ovni hybride, preuve que les créateurs d’Internet ont conquis la capacité de production, la légitimité et la suprématie narrative des médias traditionnels.
Le triomphe de l’auto-entrepreneur média
En 2017, invité sur le plateau de “Salut les Terriens” pour faire la promotion de son livre, Squeezie était interrogé – non sans condescendance – sur la nature de son métier : “vous vous filmez en train de jouer aux jeux vidéos, et vous gagnez de l’argent”, “on en a vu des branleurs dans l’émission, mais celui-là [Squeezie] il est magnifique”.
Aujourd’hui à la tête de plusieurs sociétés (Yoko, Ciao Kombucha, Gentle Mates…) et d’un empire de plusieurs millions d’euros, Squeezie n’a plus rien de l’adolescent qui se filmait en jouant à Dofus depuis sa chambre ; et s’impose comme une figure médiatique majeure qui n’a rien à envier à la télévision.
Le GP Explorer est une aventure entrepreneuriale inédite, qui réinvente l’événementiel “façon Internet”, en plaçant le sponsoring au coeur du modèle financier. Chaque écurie est sponsorisée par une entreprise, et l’événement en lui-même est accompagné par des dizaines de partenaires, qui bénéficient de mises en avant variées (aussi bien physiques avec des stands sur place, que virtuelles avec des placements de produits dans les vidéos). La troisième édition était suivie par près d’une cinquantaine de partenaires, parmi lesquels Netflix, Samsung ou encore Lego. Les multinationales se bousculent pour accéder à une part du gâteau. Cette stratégie permet à Squeezie de financer son événement grâce à son audience ultra-attractive, tout en maintenant un prix abordable sur la billetterie (jusqu’à 85€ pour les places en tribune) : c’est la signature de l’économie de plateforme, monétiser l’attention agrégée plutôt que l’accès exclusif au contenu.
Malgré tout, avec plus de 200 000 participants, la billetterie uniquement a permis d’engranger plus de 13 millions d’euros, un bond colossal comparé aux éditions précédentes qui ne se tenaient que sur un jour et à jauge réduite. Squeezie confiera d’ailleurs dans un live que seule cette dernière édition du GP était rentable. Avec un budget d’une dizaine de millions d’euros et près de 5000 personnes impliquées sur le projet, Lucas Hauchard démontre une fois de plus qu’il ne s’agit plus uniquement de faire des vidéos : le GP Explorer est devenu une véritable marque (déposée !) et une success story entrepreneuriale.
Dès la première édition, Squeezie a bénéficié du soutien des institutions du secteur automobile. Accueilli sur le mythique circuit du Mans par l’Automobile Club de l’Ouest et accompagné par la Fédération Française du Sport Automobile, le projet a bénéficié de l’expertise de véritables professionnels (coachs, ingénieurs…) qui ont formé les participants. Alpine (gamme de véhicules sportifs de Renault) sponsorise chaque année une écurie, et a même fait venir ses pilotes de F1 Esteban Ocon et Pierre Gasly lors de la deuxième édition pour une démonstration en piste. Cette année, symbole du graal ultime pour tout passionné, c’est la Scuderia Ferrari qui a posté un message de soutien sur ses réseaux sociaux au début du week-end.
Du côté des médias traditionnels, cette troisième édition est historique car elle était, pour la première fois, retransmise en direct à la télévision sur France 2, France 4 et France.tv. Pour les créateurs d’Internet qui peinaient encore il y a quelques années à être pris au sérieux, c’est la consécration. La reconnaissance par les médias traditionnels demeure, aujourd’hui, le point central de légitimation de leurs activités.
Sans pour autant délaisser Twitch, qui diffuse l’entièreté du week-end et culmine à près d’1.4 millions de viewers (record national), Squeezie investit donc la télévision linéaire pour attirer un nouveau public et une légitimité qui ne lui était jusqu’alors que partiellement accordée. Pour France Télévisions, c’est du pain béni. L’événement touche 6.7 millions de téléspectateurs sur l’ensemble du week-end (pic à 1.6 millions) et contribue à rajeunir grandement son public, avec 39.5% de part d’audience sur les 15-34 ans. Le GP réalise d’ailleurs un meilleur score que le GP de Singapour de F1, diffusé le même jour sur Canal+.
D’après Baptiste Brossillon, chercheur à l’université Paris-Saclay et spécialiste des liens entre le sport professionnel et le divertissement, cette retransmission télévisée est loin d’être anodine : “Il y avait déjà des diffuseurs intéressés dès la première édition. Mais en termes de storytelling […], c’était mieux de commencer en disant «Regardez, on s’est fait tout seul, voyez ce qu’on est capable de faire». Si la première édition avait été diffusée sur une grande chaîne ou plateforme, l’image de l’événement n’aurait pas été la même.” Le choix du service public est également un moyen de lisser son image : la vente des droits de diffusion n’aurait pas été faite pour l’argent, mais pour la reconnaissance symbolique (“on a réussi à faire quelque chose de tellement grand qu’on passe à la télé”).
Un pari politique et marketing gagnant-gagnant donc, qui pourrait bien ouvrir la voie à d’autres créateurs.
Une véritable saga médiatique
Mais si le modèle économique et l’approbation des institutions y contribuent, ce qui fait le succès du GP Explorer, d’après Baptiste Brossillon, c’est avant tout son ADN narratif. L’ensemble du processus est storytellé.
À l’origine, ce projet part d’un pari fou lancé lors du ZEvent 2020 par Squeezie pour encourager les dons. La première édition est donc le récit extraordinaire d’un événement “fait par des mecs d’Internet, pour des mecs d’Internet”. La deuxième édition, c’est l’argument sportif, l’idée de la revanche pour les pilotes qui ont goûté à la compétition et ont faim de prouver de quoi ils sont capables.
Extrait de la vidéo “L’histoire du projet le plus fou de ma vie”, postée sur la chaîne Youtube de Squeezie à l’issue du premier GP Explorer
La troisième édition, c’est la dernière : “The Last Race”. Il faut s’arrêter au sommet, avant de provoquer la lassitude. Narrativement, c’est fort, et stratégiquement, cela permet de créer de la rareté dans un univers médiatique où l’offre est infinie. En annonçant la fin, Squeezie crée un produit non reproductible, augmentant la pression médiatique, l’urgence de participation (billetterie), et l’intensité émotionnelle de la consommation médiatique.
Et c’est l’excuse parfaite pour mettre le paquet : un week-end complet, une course surprise avec les vainqueurs des éditions précédentes, un vol de la patrouille de France, une ouverture internationale avec des écuries espagnoles et américaines et une diffusion locale, deux soirs de concerts avec un line-up digne des plus grands festivals (SDM, Théodora, Vladimir Cauchemar…), et pour couronner le tout : un album entier produit par le rappeur à succès SCH, réunissant plus d’une vingtaine d’artistes français.
Ainsi, chaque étape de l’aventure est événementialisée : reveal des écuries, des livrées, des casques, bande-annonce… Mais le cœur du récit ne se passe pas sur le compte officiel du GP Explorer. Ce sont les participants eux-mêmes qui contribuent à alimenter l’univers qui se crée autour de l’événement. Chaque pilote est un média, accompagné de son cadreur. Chaque session d’entraînement fait l’objet d’un vlog, d’un live, de stories ou de posts. Chacun raconte l’aventure de son point de vue, les récits s’entrecroisent, les spectateurs sont immergés au plus près des garages. Internet étant un petit milieu, le GP est fréquemment mentionné dans des vidéos qui n’ont rien à voir, et des personnalités ne participant pas à l’événement contribuent à alimenter l’engouement : ainsi, on a pu voir Léna Situations se rendre à un week-end d’entraînement pendant ses Vlogs d’Août, et Hugo Décrypte couvrir assidûment le projet sur sa plateforme d’actualités.
Cette production massive et coordonnée de contenus témoigne d’une stratégie d’hyper-alimentation algorithmique et de synergie cross-plateformes, assurant une visibilité constante et prolongeant le cycle d’attention.
Dès lors, le GP Explorer 3 est bien plus qu’un simple week-end de course. L’événement n’est qu’un point d’orgue ; le véritable produit, c’est cette campagne algorithmique coalimentée par des dizaines de créateurs, une saga médiatique qui s’étend sur plusieurs années.
La clé du succès repose donc en partie sur la concentration d’influenceurs, véritables marques humaines capables de mobiliser leur communauté. Le choix des participants n’est donc pas anodin. Stratégiquement, Squeezie fait appel à des personnalités aux horizons différents (influenceuse, gamer, rappeur) pour attirer des communautés qui ne se croisent pas habituellement, mais toutes reliées par la culture Internet. Ainsi, il réunit des cultures autrefois peu valorisées par les institutions tout en prouvant qu’elles sont aujourd’hui au coeur de l’industrie du divertissement.
Un nouveau public : la génération Internet
Cette stratégie du co-branding fonctionne parce que Squeezie a compris qu’il ne s’adressait évidemment pas aux fans de sports mécaniques : d’après une radiographie du réseau mobile d’Orange, 55% des spectateurs avaient moins de 35 ans et l’audience était mixte, avec 47% de femmes.
En effet, le cœur de cible de l’événement, c’est la génération Internet. Nés entre 1990 et 2010, ce sont les adolescents et jeunes adultes qui ont grandi avec les personnalités du Web, les premiers youtubeurs et influenceurs, et qui sont aujourd’hui indépendants, avec un pouvoir d’achat, et seraient donc prêts à payer pour voir leur créateur de contenus préféré courir au Mans.
On constate que le public était également grandement familial, avec 20% de mineurs, souvent accompagnés d’un ou plusieurs de leurs parents. Pour beaucoup, ce week-end était l’occasion d’une sortie en famille, preuve qu’Internet transcende aujourd’hui les générations et est capable de fédérer, au même titre qu’une émission télévisée ou que les grands événements sportifs.
Âge des visiteurs français pendant le GP Explorer 3 Sources : Flux vision – Orange Business / Sarthe Tourisme
L’apogée du sportainment
Ainsi, le GP Explorer s’inscrit dans un mouvement global où le divertissement et le spectacle sportif remplacent peu à peu les sports professionnels. Les nouveaux acteurs digitaux entrent dans la compétition aux retransmissions sportives et s’affranchissent des règles pour dynamiser les rencontres. Exemple probant : la Kings League de Gérard Piqué, des matchs de football de 40 minutes disputés à 7 joueurs et diffusés en streaming.
Les fans ne sont donc pas là tant pour les performances sportives que pour voir leur créateur préféré rouler. Comme le dit Baptiste Brossillon, la formule n’est pas « un sport qu’on a rendu plus divertissant » mais « un divertissement sur base sportive ».
La fin de l’amateurisme sur le Web
Ainsi, le GP Explorer a largement dépassé les frontières d’Internet, devenant un véritable phénomène culturel qui a marqué une génération entière. Le projet de Squeezie tire la sonnette d’alarme pour les médias traditionnels, et marque un tournant dans l’histoire médiatique.
L’événement symbolise la réussite insolente de créateurs qui, partant de simples plateformes numériques, ont réussi l’exploit de s’approprier des événements d’une envergure digne des plus grands rendez-vous sportifs. Avec des budgets, une logistique et une production approchant celles de la télévision traditionnelle, ces “petits mecs d’Internet” ont démontré qu’ils pouvaient tout produire. Et si ces programmes pensés à l’origine pour le Web s’inspirent autant des formats TV, ils n’en restent pas moins fidèles à leurs propres codes et au lien direct qu’ils ont avec leur communauté, une authenticité qui est, de loin, leur plus grand levier de puissance.
MultiChoice compte plus de 23,5 millions d’abonnés dans 50 pays africains. (ShutterStock)
Au-delà de cette posture offensive, l’acquisition d’un tel acteur – le dernier de cette envergure encore disponible – est également défensive, visant à sécuriser une position face à l’accélération des plateformes globales. Cette fusion d’actifs donne naissance à un supergroupe panafricain fédérant plus de 40 millions d’abonnés dans près de 70 pays. L’intégration est hautement stratégique : elle permet à Canal+ de compléter sa domination historique sur l’Afrique francophone avec l’emprise de MultiChoice sur les marchés anglophones et lusophones. Ce « beau puzzle » contrôle désormais, aux côtés du chinois StarTimes, environ 90 % des parts de marché de la télévision payante en Afrique.
Le « beau puzzle » (Données Dataxis 2024)
Sur le plan légal, l’acquisition a été conditionnée par une contrainte de taille : pour se conformer à la législation sud-africaine sur la radiodiffusion, Canal+ a dû consentir à limiter ses droits de vote à 20 % dans l’entité locale, LicenceCo. Cette obligation découle des politiques de Black Economic Empowerment (BEE), visant à corriger les inégalités économiques héritées de l’apartheid en assurant une participation majoritaire de citoyens sud-africains « historiquement désavantagés » dans les secteurs clés. Le paradoxe est ainsi posé : l’entité française paie le prix fort pour une majorité de contrôle, mais doit renoncer au contrôle opérationnel sur le marché le plus mature et le plus rentable du continent.
La crise structurelle de MultiChoice : les raisons d’une opération de sauvetage
L’acquisition par Canal+ s’est jouée dans un contexte de crise structurelle profonde pour MultiChoice , une situation qui a pu être interprétée comme une « opération de sauvetage ».
Le groupe sud-africain subit une érosion critique de sa base clientèle, atteignant 2,8 millions d’abonnés en deux ans (mars 2023 à mars 2025). Sur le seul exercice 2025, 1,2 million de clients DStv ont fait défection, représentant une chute de 8 %. L’épicentre de cette saignée est le Nigeria, qui concentre 63 % de l’érosion des abonnés et a vu 1,4 million d’abonnés disparaître en deux ans.
Cette défection est principalement due à la conjoncture économique. MultiChoice a dû affronter des « conditions d’exploitation des plus difficiles depuis près de 40 ans », la volatilité des devises s’étant révélée le facteur d’érosion le plus violent. En tête, la dépréciation de 58 % du naira nigérianau premier semestre 2025 a engendré un manque à gagner colossal de 10,2 milliards de rands sud-africains (ZAR) sur le chiffre d’affaires. L’inflation, dépassant 30 % au Nigeria et en Angola, a par ailleurs exercé une pression intense sur le pouvoir d’achat des consommateurs, rendant l’abonnement TV souvent non essentiel.
Un bilan contrasté : l’impact des devises annule la performance opérationnelle
Les résultats de l’exercice fiscal 2025 de MultiChoice dessinent un tableau ambivalent : d’un côté, une gestion des coûts rigoureuse, de l’autre, des pertes massives liées aux devises et aux investissements stratégiques.
L’activité de Pay-TV traditionnelle est désormais scindée. En Afrique du Sud, malgré la baisse des abonnés, une gestion rigoureuse des coûts a permis une augmentation notable de 7 % du bénéfice commercial. En revanche, le segment « Reste de l’Afrique » est victime de l’instabilité monétaire. Malgré une croissance opérationnelle des revenus (plus d’abonnements, plus de ventes), la conversion des gains réalisés en monnaies locales (comme le Naira) a provoqué une chute de 23 % des revenus déclarés en rands (ZAR). Ce déséquilibre a généré une perte commerciale significative de 760 millions ZAR (environ 37,5 millions d’euros).
Le moteur de croissance réside dans la diversification, notamment la plateforme de streaming Showmax, qui enregistre une croissance spectaculaire de 44 % de ses abonnés payants actifs. Cependant, cette phase de conquête est extrêmement coûteuse. En « année d’investissement de pointe », les pertes commerciales de Showmax ont augmenté de 88 %.
Pour simplifier : MultiChoice a investi un total de 90 millions de dollars dans le développement de Showmax, mais a simultanément accumulé des pertes opérationnelles (liées aux frais de marketing et d’acquisition de contenu) de 146 millions de dollars. Le groupe paie le prix fort pour concurrencer les plateformes mondiales, assumant un déficit pour gagner des parts de marché.
Le plan de bataille : streaming, contenu local et diversification
Face à la disruption du marché, MultiChoice a mis en place une stratégie en trois axes, qui sera désormais celle du nouvel ensemble. D’abord, la relance du service de streaming Showmax, menée en coentreprise avec NBCUniversal, est le fer de lance de la conquête des 44 marchés.
(ShowMax Press Kit)
Ensuite, une diversification au-delà de l’image : les revenus pour DStv Internet ont crû de +85 % et ceux de DStv Stream de +48 %. Des plateformes de fintech comme Moment (ayant traité 635 millions USD de paiements) et de paris sportifs (SuperSportBet) témoignent de cet élargissement de l’écosystème.
Enfin, le contenu africain est l’ancre de fidélisation. MultiChoice a produit 2 763 heures de contenu local au cours des six derniers mois. Canal+ a déjà amplifié cette stratégie en investissant dans des studios de production locaux au Nigeria, en Côte d’Ivoire, au Rwanda et au Sénégal.
L’équation poids démographique contre risque structurel
Le nouveau géant issu de cette union fait face à des défis qui dicteront le succès de l’opération. La stratégie de Canal+ est un pari stratégique majeur sur la croissance démographique, visant la population subsaharienne estimée à 2 milliards d’habitants d’ici 2050. Cependant, Canal+ devient structurellement plus dépendant des marchés africains, qui représentent déjà 30 % de ses abonnés, s’exposant ainsi à une volatilité économique et politique élevée.
L’enjeu immédiat est la monétisation des investissements dans le streaming , désormais en concurrence directe avec Netflix et Amazon Prime Video. Les pertes opérationnelles importantes de Showmax soulignent que la rentabilité n’est pas acquise. Le groupe est par ailleurs contraint par le tribunal sud-africain de financer la production locale, et la question de la capacité à maintenir les marges tout en produisant un contenu authentiquement africain reste centrale.
Pour l’exercice 2026, la direction a établi une feuille de route claire : un nouvel objectif d’économies de 2,0 milliards ZAR (environ 98 millions d’euros), le retour à la rentabilité du segment Reste de l’Afrique et une amélioration des pertes commerciales de Showmax.
L’union entre Canal+ et MultiChoice n’est pas une simple consolidation, mais la naissance d’un acteur majeur qui a choisi de parier massivement sur le potentiel démographique africain en dépit d’une volatilité économique et politique élevée. Le prix de l’acquisition, 2,5 milliards d’euros, sera jugé à l’aune de la capacité du nouveau management à transformer les millions d’abonnés en revenus stables.
L’équation est complexe : il faudra d’une part monétiser l’investissement coûteux dans le streaming Showmax face aux géants mondiaux, et d’autre part réussir le retour à la rentabilité du segment Reste de l’Afrique, l’un des plus touchés par le choc des devises. En priorisant la stabilisation et le financement de la production locale, le nouveau géant audiovisuel s’engage dans une course de fond où seule la résilience de son modèle, et non plus seulement l’ampleur de sa taille, confirmera la pertinence de ce pari stratégique sur l’avenir du continent.
Étude de cas : To Like or Not, Émilie Anna Maillet
Écrit et mis en scène par Émilie Anna Maillet et coproduit avec la Compagnie Ex Voto à la lune, le spectacle To Like or Not incarne une forme innovante de théâtre numérique, jouant avec les frontières entre l’art scénique traditionnel et les technologies contemporaines. La pièce de théâtre explore les dynamiques des relations dans une bande d’adolescents, relations humaines marquées par l’omniprésence des réseaux sociaux. Conçu pour provoquer la réflexion sur les rapports sociaux d’adolescents à l’ère numérique, To Like or Not plonge les spectateurs dans un monde hybride. Lors des premières minutes de la pièce, les spectateurs sont invités à suivre un live Instagram d’un des personnages de la pièce en scannant un QR code affiché sur le rideau. La première rencontre avec l’intrigue se fait donc littéralement sur les réseaux sociaux, via son smartphone.
Ouverture de la pièce de théâtre par un live Instagram d’un des personnages
La pièce ne fait pas qu’explorer les dynamiques et les enjeux du numérique, puisqu’elle intègre le numérique sur tous les plans de sa conception : augmentation grâce à la réalité virtuelle, comptes Instagram pour chacun des personnages principaux, numérique dans la scénographie et l’esthétique… Présenté comme un spectacle “augmenté”, le projet, en complément des financements classiques du spectacle vivant, a obtenu des fonds de plusieurs organisations dont les projets sont dédiés au numérique ; le Fonds de soutien à la création artistique numérique, une aide du CNC accordée à la préproduction d’oeuvres pour la création immersive et du dispositif « Expérience augmentée du spectacle vivant » du plan France 2030 et opérée par la Caisse des Dépôts.
Ces dispositifs numériques permettent aux spectateurs d’approfondir la compréhension des personnages, d’assurer une expérience de communication continue au-delà du cadre de la pièce, de permettre une multiplicité de discours pluriels au théâtre que dans d’autres médiums artistiques, d’enrichir la proposition scénographique etc. Cette forme de théâtre augmenté est un exemple frappant de la manière dont le numérique peut redéfinir les pratiques artistiques. En intégrant des outils comme la réalité virtuelle et les réseaux sociaux, To Like or Not offre une expérience théâtrale hybride qui s’appuie sur les potentialités technologiques pour enrichir l’expérience du spectateur. En explorant ces nouvelles dimensions, ce spectacle ouvre la voie à une réflexion sur les possibilités du numérique pour « augmenter » le théâtre, et soulève des questions sur l’évolution de la relation entre l’art et le public à l’ère du numérique.
Un projet théâtral étendu au delà de la scène
Dépassement de la scène :
En parallèle du spectacle et de l’expérience physique de la scène, proposition d’une expérience (facultative), les spectateurs peuvent se retrouver dans la pièce, interagissant avec les personnages via des casques de réalité virtuelle. Cette expérience donne accès à une immersion totale. Les spectateurs ne sont pas simplement des observateurs, mais deviennent des acteurs de l’expérience, capables de dialoguer et d’interagir avec les personnages en 3D. Cette immersion redéfinit la relation classique entre l’artiste et le public, et introduit une nouvelle forme de narration. Avant de découvrir le spectacle, le public connaît donc les personnages, les dynamiques et les situations.
L’expérience immersive existe essentiellement pour un projet de sensibilisation sur le harcèlement. Elle permet, particulièrement aux scolaires, de revenir plusieurs fois sur des situations par différents biais, comprendre les scènes de harcèlement et comment y faire face. Le théâtre par immersion devient un nouvel outil de médiation.
Construction d’un monde “réel” sur les plateformes.
L’existence des personnages sur les réseaux sociaux prolonge l’univers de la pièce au-delà de la scène, en créant un véritable parallèle avec le monde réel. Depuis 2022, chaque personnage possède un compte Instagram actif, alimenté régulièrement avec des contenus qui reflètent sa personnalité, ses centres d’intérêt, ses relations. Ces profils construisent un univers narratif cohérent et autonome, où les amitiés, les conflits, les couples ou les passions sont déjà en place avant même le début du spectacle. Ce dispositif permet une immersion prolongée, où le théâtre s’invite dans la vie quotidienne du public, et brouille volontairement les frontières entre fiction et réalité.
L’Esthétique de la mise en scène et les nouvelles formes de jeu par l’intrusion du numérique
Le spectacle donne aux comédiens et à la metteuse en scène un nouvel imaginaire et une nouvelle façon de faire du théâtre.
Le numérique permet de mettre en scène avec précision des situations où il occupe une place centrale, notamment dans la vie des adolescents. Certaines scènes montrent les personnages interagir via des jeux vidéo ou des échanges numériques. Ces moments prennent sens grâce à l’intégration du numérique dans la mise en scène, qui les rend plus naturels, plus crédibles. Des conversations écrites, projetées sur des écrans mais non lues à voix haute, apportent une narration discrète mais essentielle. Elles rendent visibles les non-dits, les tensions ou les émotions, reflétant les nouvelles formes de communication, souvent silencieuses mais intenses. Ces choix permettent à la pièce de témoigner avec justesse des codes et réalités contemporains.
Sur le plan esthétique, le numérique transforme aussi la scénographie. Les écrans, omniprésents, investissent toute la hauteur de la scène, élargissant l’espace dramatique. On navigue entre différents lieux, moments, et points de vue. Grâce aux projections, aux smartphones ou aux réseaux sociaux, le spectateur est transporté dans un théâtre éclaté, à la fois sur scène, en ligne et dans l’intimité des personnages. Le numérique devient ainsi un outil de narration à part entière, aussi visuel que dramaturgique.
Si To Like or Not ouvre des perspectives passionnantes pour une hybridation entre théâtre et numérique, cette proposition audacieuse révèle également certaines tensions et limites dans sa mise en œuvre.
Une présence numérique inégale
L’un des constats relevés est la disparité dans l’usage du numérique tout au long du spectacle. Très présent dans la première partie – via les interactions sur Instagram, les projections, les discussions textuelles et les éléments immersifs – le dispositif s’estompe à mesure que l’action dramatique s’intensifie. Ce retrait progressif interroge : s’agit-il d’un choix volontaire pour revenir à l’émotion brute et à l’incarnation sur scène ? Ou d’une limite du dispositif lui-même, trop envahissant ou distrayant lorsque les enjeux dramatiques prennent le pas sur l’esthétique ? Cette variation peut aussi générer une forme de rupture de rythme ou de confusion chez le spectateur.
Des contraintes techniques encore présentes
Le recours à des outils numériques innovants s’accompagne inévitablement de risques techniques, et To Like or Not n’y échappe pas. Lors des captations en direct intégrées au spectacle, certains spectateurs ont noté un décalage entre l’image projetée et l’action sur scène, provoquant une perte de fluidité. Le journal Le Monde souligne ainsi que «saturé de sons et d’images, le théâtre s’englue lui aussi dans ces mondes virtuels parallèles”. Ces accrocs nuisent à l’effet d’immersion et rappellent que la réussite d’une telle intégration repose sur une technologie irréprochable, encore difficile à atteindre dans le cadre d’une production théâtrale.
Une immersion qui peut rester superficielle
L’expérience immersive, bien qu’innovante, peut manquer de profondeur narrative. Comme l’indique Sceneweb, si la réalité virtuelle permet d’entrer dans la peau d’un personnage, certaines scènes projetées souffrent d’un traitement encore trop lisse ou stéréotypé, avec un aspect gadget qui peut parfois desservir l’intention initiale. Le potentiel pédagogique (notamment autour du harcèlement scolaire) est indéniable, mais il demande une écriture plus fine et plus nuancée pour véritablement toucher le public.
Le risque d’un “théâtre éclaté”
Enfin, la multiplication des supports – scène, réseaux sociaux, réalité virtuelle, live Instagram – interroge la cohérence du projet théâtral. Le spectateur, surtout s’il n’a pas suivi le dispositif dans son ensemble (notamment les réseaux sociaux en amont), peut se sentir déconnecté de l’univers proposé. Ce « spectacle transmédia » impose presque une préparation pour en saisir toutes les strates narratives. Cela pose une question de démocratisation de l’accès à l’œuvre : le spectacle s’adresse-t-il toujours à tous les publics, ou seulement à ceux déjà familiers de ces codes numériques ?
Conclusion
Le spectacle To Like or Not d’Émilie Anna Maillet illustre parfaitement comment le numérique peut enrichir et transformer le théâtre en proposant une expérience immersive et interactive. En intégrant les réseaux sociaux, la réalité virtuelle et des dispositifs scéniques innovants, il dépasse les frontières du spectacle vivant traditionnel et questionne notre rapport aux technologies. Toutefois, cette hybridation soulève aussi des défis, notamment en termes de cohérence dramaturgique et de limites techniques pouvant déranger l’immersion du spectateur. Ce projet ouvre néanmoins des perspectives sur l’avenir du théâtre, en explorant comment le numérique peut non seulement “augmenter” l’expérience scénique, mais aussi redéfinir la relation entre le public et l’œuvre artistique.
Marie Grouin-Rigaux, Maëlle Houix et Clémentine Schmitt
Gagneré, G. (2023). Une passerelle entre arts numériques et spectacle vivant. Frontières numériques. Actes du 5ᵉ colloque international sur les frontières numériques. Europia.
Paredes, M. (2024, février). L’utilisation du numérique dans le spectacle vivant : l’appropriation de l’œuvre à partir d’un dispositif de médiation culturelle (Thèse de doctorat, Université Rennes 2).
Harry, Louis, Liam, Niall et Zayn. Si vous n’étiez pas adolescent dans les années 2010, ces prénoms ne vous évoqueront probablement rien. Pourtant, ils ont marqué une génération entière, et le nom de leur groupe, lui, était sur toutes les lèvres : One Direction.
Ils ont entre 16 et 18 ans lorsqu’ils postulent, individuellement, aux auditions de l’émission X-Factor au Royaume-Uni. Si aucun n’est sélectionné, ils tapent tout de même dans l’œil des juges, qui décident de les réunir afin qu’ils poursuivent l’aventure en groupe. Ils sont talentueux, c’est certain, mais leur acte n’est pas encore tout à fait rôdé (on est bien loin de leurs 7 Brit Awards). Ils ne finissent d’ailleurs que troisième de la compétition. Alors, comment expliquer le succès fulgurant des One Direction ? Et comment expliquer que, 10 ans après leur séparation, leurs fans – les Directioners – soient toujours aussi actifs ? Plongée dans les abysses d’un fandom qui a révolutionné les façons d’être fan, s’emparant des réseaux sociaux comme outil de construction identitaire.
Contrairement aux boysbands des années 90 (NSYNC, Backstreet Boys), le succès des 1D ne repose pas uniquement sur les médias traditionnels. 2010, c’est le début de l’ère “réseaux sociaux”. Si X-Factor est diffusé à la télévision, les 5 adolescents publient tout au long de leur aventure des “Video Diaries” relatant leur quotidien sur Youtube. C’est ce sentiment de proximité, plus que leurs performances artistiques, qui démarque 1D des anciens boysbands et leur permet d’acquérir rapidement un socle solide de fans – essentiellement des jeunes filles.
Et ce sont sur ces fans qu’ils ont pu compter, dès le départ et tout au long de leur carrière, pour assurer le marketing du groupe. Dans le documentaire This Is Ussorti en 2013, leur manager Simon Cowell l’explique : “Après leur défaite sur X-Factor, 200 ou 300 ‘super-fans’ en ont fait leur mission de promouvoir One Direction pour qu’ils deviennent le plus grand groupe au monde.” Twitter, Facebook, Tumblr, Instagram… tous les moyens sont bons pour faire parler de leurs artistes favoris.
World Wide Fans
Là où, quelques années auparavant, être fan signifiait s’abonner à des magazines, assister à des “meet and greets”, ou, par le bouche-à-oreille, rencontrer d’autres fans en adhérant à des fanclubs locaux, l’arrivée des réseaux sociaux a révolutionné les façons d’être fan.
En effet, il est plus facile d’entrer en contact avec d’autres individus aux goûts similaires. Il n’y a aucune barrière à l’entrée, n’importe qui peut rejoindre le fandom. Se constitue alors un vaste réseau interconnecté, qui dépasse toute frontière géographique, permettant le partage d’expériences et nourrissant un sentiment d’appartenance à un Tout qui dépasse les fans individuellement.
Une communauté active et organisée, experte des réseaux
Par ailleurs, dans cette nouvelle ère digitale, les fans ne sont plus seulement passives. Elles participent activement au succès de leurs artistes favoris. Les Directioners ont parfaitement su s’emparer des nouveaux outils à leur disposition pour organiser des tendances et remplacer le label aux fonctions de marketing.
Par exemple, en mars 2015, après le départ de Zayn, le hashtag #AlwaysInOurHeartsZaynMalik a explosé et surpassé en popularité le crash du vol Germanwings. Leur mobilisation s’illustre également par le projet No Control, où les fans ont auto-promu une chanson du groupe ignorée par le label. Elles ont fixé une fausse date de sortie du single, et investi massivement les réseaux. Il leur a fallu moins d’une semaine pour que le morceau soit diffusé en radio.
Expertes dans le maniement des réseaux, les Directioners ont également su tirer parti des différentes fonctionnalités de chaque plateforme pour exprimer les multiples facettes du fandom. Sur Twitter, on retrouve la face “publique” : véritables journalistes, les fans suivent et partagent l’actualité du groupe en temps réel. Sur Tumblr, plus intimiste, les fans se retrouvent entre elles pour des analyses approfondies de paroles, des décryptages d’interviews, et des conversations légères et humoristiques ponctuées de contenus imagés (GIFs, memes). Aujourd’hui, elles s’emparent de TikTok pour lancer des trends et partager des “edits”, de Youtube pour publier des compilations, d’Instagram pour filmer les concerts en live…
Enfin, comme partout, une forme de hiérarchie s’installe sur les réseaux sociaux. Certains comptes, hyperactifs, bénéficient d’une exposition et d’une reconnaissance supérieures, sont considérés comme des références. En France, c’est l’équipe de @Team1DFrance qui régit la vie du fandom. Véritable organisation structurée, ce qui n’était à l’origine qu’un compte d’updates collabore aujourd’hui avec les équipes des artistes, et organise de vastes « fan projects » lors des concerts, par exemple.
La communauté Directioners devient alors une petite sous-société, avec ses codes et langages propres. Lieu de discussions, d’échanges, d’enquêtes, les membres du fandom partagent des références et des inside jokes qu’eux seuls peuvent comprendre, utilisent des termes spécifiques, tels que “OT5” pour désigner les fans du groupe entier, ou “Solo stans” pour les fans d’un membre dans sa carrière solo, et des symboles communs s’installent dans le collectif. Ces codes créent un double effet d’inclusion et d’exclusion : seuls ceux qui les maîtrisent sont capables de comprendre les conversations au sein du fandom, une façon de mettre à distance les non-fans et de renforcer le sentiment d’une identité de groupe propre. Ces normes et croyances constituent un capital culturel qui permet aux fans de se reconnaître entre eux et possède un véritable pouvoir distinctif (Bourdieu, 1979).
Les réseaux sociaux, par leurs algorithmes, leur effet de masse et leur étendue, n’ont fait que renforcer ces phénomènes. Les fans utilisent d’ailleurs leurs profils comme outil d’affirmation identitaire : il n’est pas peu commun de retrouver une référence à 1D ou à leur carrière solo dans la bio, l’username ou la photo de profil des fans, même s’il s’agit d’un compte personnel. L’appartenance au fandom est, pour beaucoup, un marqueur identitaire.
Culture participative : les réseaux comme théâtre des interactions
Si les fans sont actifs dans la promotion de leur groupe favori, ils sont également directement impliqués dans l’élaboration du “lore” entourant les artistes. Émergent alors des récits alternatifs et des théories du complot, nourries par des dissections approfondies des comportements des chanteurs, et poussées jusqu’à l’élaboration de fanarts, de montages vidéos, photoshop ou la rédaction de fanfictions qui réinterprètent la vie du groupe. L’un des plus connus est le mythe “Larry Stylinson”, selon lequel Louis et Harry entretiendraient une relation romantique secrète. Bien que maintes fois démentie, certains fans – les “Larries” – sont toujours convaincus, preuves à l’appui, de sa véracité.
Des sites comme Tumblr, Wattpad ou Archive of Our Own ont fortement contribué à l’élaboration de ces récits alternatifs, sans compter les milliers d’edits et de compilations qui peuplent TikTok ou Youtube. L’imaginaire collectif joue un rôle clé dans la définition de l’identité de groupe.
Pour nourrir cet imaginaire, 10 ans après la séparation du groupe, les réseaux sociaux font également office de mémoire collective. Véritables archives, on retrouve sur Tumblr ou Twitter des collections des moments phares du groupe, les trends nostalgiques s’emparent de Tiktok (ex: en 2023, la chanson Night Changes connaît un regain massif de streams après une trend sur la plateforme) et des rites s’installent, tels que des “streaming parties” pour célébrer des anniversaires d’albums.
Ainsi, le fandom fonctionne comme une mise en scène collective : chacun adopte des comportements et participe à des actions qui réaffirment son appartenance au groupe. L’identité du fan se façonne dans son interaction avec les autres. Les réseaux sociaux agissent comme théâtre de ces interactions, permettant aux fans de se voir et se valider mutuellement (Goffman, 1956 et Greenland, 2016).
Le retournement du stigmate de la fangirl
Dans l’imaginaire collectif, et dans l’histoire médiatique, le personnage de la groupie est souvent stigmatisé. Assimilée à une pathologie, l’obsession des jeunes femmes pour un artiste est vue comme une aliénation, de l’hystérie, et bien souvent moquée (Lewis, 1992).
Sur les réseaux sociaux, ces fangirls peuvent se connecter entre elles. Ces communautés virtuelles deviennent des “safe places” où les jeunes filles peuvent être elles-mêmes, sans crainte d’être stigmatisées, car leurs sentiments sont compris, validés et partagés par les autres membres : ce qui est condamné dehors est ici valorisé. Solidarité, confiance et loyauté sont les maîtres mots de ces relations. De nombreux témoignages de fans expriment à quel point cette expérience a renforcé leur confiance en elles. À un âge où elles se cherchent encore, l’appartenance à un fandom a sans aucun doute un impact majeur sur la construction identitaire de ces jeunes femmes. Le fandom est un lieu d’empowerment où les femmes se soutiennent et retournent ensemble le stigmate, jusqu’à revendiquer avec fierté leur identité de fangirl.
En constituant une communauté aussi soudée sur les réseaux sociaux, les Directioners se sont démarquées par une identité collective très forte. Raisons du succès du boysband, elles étaient pionnières dans l’exploitation des nouvelles plateformes et leur modèle d’organisation numérique est aujourd’hui repris par de nombreuses fanbases. Si One Direction s’est séparé en 2015, 10 ans plus tard, le fandom est plus vivant que jamais, preuve de la résilience de ces fans 2.0.
L’image de Chiara Ferragni semblait inébranlable. Suivie par plus de 30 millions de personnes sur Instagram, omniprésente dans les médias, partenaire de marques prestigieuses, l’influenceuse italienne avait réussi à transformer sa notoriété en un empire commercial solide. Mais en décembre 2023, c’est une simple brioche de Noël qui a tout fait basculer. Vendu sous couvert d’une action caritative, le pandoro co-signé avec la marque Balocco affichait un prix gonflé… sans que les bénéfices ne soient réellement reversés à la cause annoncée. L’affaire, vite rebaptisée Pandoro Gate, a pris une ampleur nationale puis internationale.
Ce scandale a lancé un débat bien plus large : jusqu’où peut-on faire confiance aux influenceurs ? Et surtout, les marques ont-elles intérêt à s’associer à des personnalités aussi exposées, dont la réputation peut basculer du jour au lendemain ? Dans un univers où l’authenticité fait vendre, la frontière entre sincérité et mise en scène devient de plus en plus floue.
Chiara Ferragni : l’ascension d’une reine de l’influence
Avant de se retrouver au cœur d’un scandale retentissant, Chiara Ferragni représentait l’archétype de l’influenceuse à succès. À la fois entrepreneuse, figure de mode et personnage public, elle avait réussi à construire en une dizaine d’années un empire où tout — sa vie privée, ses convictions, ses partenariats — formait un récit cohérent. Elle ne se contentait pas d’être visible : elle incarnait une stratégie marketing à elle seule.
Tout commence en 2009, avec le lancement de The Blonde Salad, un blog à mi-chemin entre carnet personnel et vitrine fashion. Les réseaux sociaux n’en sont encore qu’à leurs débuts, mais Ferragni en saisit très vite le potentiel. Très vite, elle passe du statut de blogueuse mode à celui de figure incontournable de l’influence numérique. Instagram devient sa plateforme de prédilection. Elle y expose ses looks, ses voyages, ses collaborations, mais aussi sa vie de couple et de mère. L’ensemble est soigné, scénarisé, mais donne le sentiment de transparence. Ce mélange entre contenu inspirant et dimension personnelle séduit une audience massive : plus de 30 millions d’abonnés, une communauté fidèle et engagée.
Ferragni comprend également qu’elle peut aller plus loin. Elle crée sa propre marque de vêtements et d’accessoires, puis fonde TBS Crew, sa société de production de contenu. Son modèle repose sur un principe simple : faire de sa vie un espace commercial intégré, où chaque publication peut devenir un vecteur publicitaire, sans que cela ne paraisse forcé.
Ce positionnement fait d’elle un atout stratégique pour les marques. Là où une campagne traditionnelle cherche à imposer un message, Ferragni l’intègre dans son univers. De Dior à Nespresso en passant par Lancôme et Tod’s, les marques voient en elle une extension de leur identité, capable de toucher un public jeune et connecté. Au fil des années, son influence dépasse la mode. En pleine crise du Covid-19, elle relaie les appels à la vaccination et lève des fonds pour les hôpitaux de Milan. En 2021, elle est même nommée au conseil d’administration de Tod’s, preuve de sa reconnaissance dans le monde économique. Elle est reçue au palais présidentiel par Sergio Mattarella. Ferragni devient alors une figure publique à part entière, autant médiatique qu’institutionnelle.
Jusqu’alors, tout semble parfaitement maîtrisé. Elle a su dépasser le cadre des réseaux sociaux, tout en conservant un lien fort avec sa communauté. Mais c’est justement cette exposition permanente qui rend le système fragile. Lorsqu’une crise survient, ce n’est pas un produit qui est en cause : c’est l’ensemble de l’image publique qui vacille. Et dans le cas du Pandoro Gate, le contraste entre le message de sincérité affiché et la réalité perçue a brisé ce fragile équilibre.
Le Pandoro Gate : une opération marketing qui tourne à la crise réputationnelle
En décembre 2023, Chiara Ferragni se retrouve au centre d’un scandale qui va profondément entacher son image. En cause : une opération marketing autour d’un pandoro, une brioche traditionnelle italienne, lancée en partenariat avec la marque Balocco. Le produit, appelé le Pink Christmas Pandoro est vendu à 9 euros, soit plus du double du prix original, avec une communication indiquant qu’une partie des bénéfices serait reversée à l’hôpital pédiatrique Regina Margherita de Turin.
Mais l’enquête menée par l’Autorité italienne de la concurrence (AGCM) révèle un décalage majeur entre le message diffusé et la réalité de l’opération. En réalité, Balocco avait effectué un don unique de 50 000 euros à l’hôpital, plusieurs mois avant le début de la campagne. Aucun pourcentage des ventes du produit n’était destiné à l’établissement de santé. Pourtant, cette campagne a rapporté plus d’un million d’euros aux entreprises de l’influenceuse.
Le 16 décembre, l’AGCM condamne respectivement l’influenceuse et l’entreprise Balocco à une amende d’un million d’euros et de 400 000 euros pour pratique commerciale trompeuse. La polémique prend rapidement de l’ampleur. Le gouvernement italien, par la voix de Giorgia Meloni, la première ministre, critique publiquement la campagne. Dans un contexte de défiance croissante envers les influenceurs, l’affaire devient un sujet national, repris par les principaux médias.
Ferragni publie alors une vidéo d’excuses, évoquant une erreur de communication, et annonce un don personnel d’un million d’euros à l’hôpital concerné. Mais cette tentative de reprise en main ne suffit pas à apaiser les critiques. L’affaire met en lumière les limites d’un modèle reposant fortement sur la réputation personnelle de l’influenceuse. En associant son image à une opération caritative, Ferragni engageait directement la relation de confiance qu’elle entretient avec son public. La perception d’une instrumentalisation de la solidarité à des fins commerciales a provoqué une rupture symbolique.
Au-delà de l’aspect juridique, les conséquences économiques sont également visibles. L’influenceuse perd plus de 300 000 abonnés sur Instagram en quelques jours, et plusieurs partenaires commerciaux suspendent leur collaboration. En mars 2024, Ferragni est écartée du conseil d’administration de Tod’s, qu’elle avait intégré en 2021 pour aider à moderniser l’image de la marque. Quelques semaines plus tard, sa société TBS Crew annonce une augmentation de capital de 6,4 millions d’euros, traduisant un besoin urgent de redresser sa structure financière.
Les influenceurs sont-ils encore un atout pour les marques ?
L’affaire Ferragni n’a pas seulement terni l’image d’une influenceuse. Elle a mis en lumière les fragilités d’un modèle qui, depuis une dizaine d’années, s’est imposé comme un levier central dans les stratégies de communication des marques. Le marketing d’influence repose sur un principe simple : créer un lien de confiance entre une personnalité et son public, pour rendre un message commercial plus crédible. Mais ce lien, qui a longtemps été vu comme une force, devient aujourd’hui une zone de risque.
Dans le cas de Chiara Ferragni, ce n’est pas tant le produit qui a posé problème, ni même les profits générés. C’est la manière dont une opération commerciale a été habillée d’un discours solidaire, en laissant entendre qu’une partie des ventes serait reversée à un hôpital. Le public a perçu un écart entre les promesses et la réalité. Et dans un univers où tout repose sur la sincérité perçue, cette dissonance a suffi à briser la confiance.
En France, la loi adoptée en juin 2023 encadre plus strictement les pratiques des influenceurs : obligation d’indiquer les partenariats commerciaux, interdiction de certaines publicités trompeuses, sanctions en cas de manquement. Mais cette régulation, aussi nécessaire soit-elle, ne suffit pas à restaurer la confiance du public.
Cette crise intervient dans un contexte plus large. Bien que les macro-influenceurs, très exposés, génèrent souvent beaucoup de visibilité, provoquent en réalité peu d’adhésion réelle. À l’inverse, d’après une étude de Hubspot en 2023, les micro-influenceurs, suivis par des communautés plus restreintes mais plus ciblées, génèrent jusqu’à 60% plus d’engagement que leurs homologues qui ont une audience plus large. Pour autant, l’influence reste un levier puissant. En 2025, une étude du Global Banking & Finance Review indique que 69 % des consommateurs disent faire confiance aux recommandations de produits partagées par des influenceurs sur les réseaux sociaux. Le modèle évolue, mais il reste largement pertinent.
Désormais, pour les marques, le critère de l’audience ne peut plus être le seul. Il faut aussi prendre en compte la stabilité de l’image publique de l’influenceur, son historique en matière d’engagements ou de controverses, la cohérence entre ses prises de parole, mais surtout, la perception réelle de sa sincérité auprès de son audience. Ce travail de sélection — parfois négligé — devient essentiel pour limiter les risques de dissonance. C’est ce qu’on appelle de plus en plus la due diligence de réputation, un processus d’évaluation qualitative du profil d’un influenceur avant tout partenariat.
En parallèle, on observe un recentrage sur des collaborations plus longues et plus cohérentes, presque assimilables à du co-branding. L’idée n’est plus de multiplier les opérations ponctuelles, mais de construire un récit commun dans la durée, avec des influenceurs qui partagent réellement les valeurs de la marque.
En bref, le Pandoro Gate ne remet pas en cause l’efficacité du marketing d’influence. Il rappelle en revanche qu’il ne peut plus se résumer à une question de visibilité ou de chiffres.
Dans un paysage où les frontières entre communication, engagement et storytelling deviennent de plus en plus floues, cette affaire pose une question essentielle : les influenceurs doivent-ils rester de simples vitrines commerciales, ou devenir de véritables partenaires de confiance, garants du message qu’ils transmettent ?
Sur les réseaux sociaux, la vie de famille devient contenu. Maternité, cuisine, disputes et confidences sont exposées pour capter l’attention, gagner la confiance… et monétiser l’intime. Derrière l’authenticité affichée, un business rodé s’installe.
Une révolution silencieuse au cœur du foyer
Autrefois invisible, le quotidien domestique fait désormais spectacle. Sur les réseaux sociaux, des centaines d’influenceuses transforment leur vie de famille en feuilleton, leur cuisine en plateau de tournage, leur couple en stratégie de contenu. Le foyer est devenu un lieu d’influence, une vitrine permanente où se jouent des récits de maternité, de féminité, d’amour et de consommation.
Figure emblématique de ce phénomène, Poupette Kenza a été la leader incontestée de ce mouvement. À seulement 24 ans, elle a rassemblé une audience colossale sur Snapchat, Instagram et TikTok, en partageant chaque recoin de sa vie privée. Jusqu’à l’arrêt brutal de son activité après plusieurs scandales, elle a incarné l’extrême de cette logique d’exposition totale. Elle laisse derrière elle un nouveau phénomène, fascinant mais profondément inquiétant.
À travers cette exposition massive de leur vie domestique, ces femmes influentes redéfinissent les frontières de l’intime. Mais que révèle vraiment cette mise en scène continue ? Et à quel point brouille-t-elle les limites entre ce que l’on vit et ce que l’on vend ?
L’influenceuse Poupette Kenza, de son vrai nom Kenza Benchrif :
Le quotidien mis en vitrine : la stratégie de l’exposition continue
Filmer son réveil, ses enfants à table, ses disputes conjugales ou l’état de son évier n’a plus rien d’exceptionnel : c’est devenu un langage, une narration, une présence. Dans ce nouvel ordre médiatique, l’intime n’est plus dissimulé, il est déployé. Certaines influenceuses partagent leur quotidien avec une intensité quasi obsessionnelle, jusqu’à publier 200 stories par jour, découpant leur vie en séquences digestes, calibrées pour capter l’attention. C’est notamment le cas de Poupette Kenza, qui illustrait jusqu’à l’absurde cette logique de saturation narrative.
Derrière le naturel affiché se cache une mise en scène pensée : les contre-plongées sur les cernes, le désordre en arrière-plan, les « mauvaises mines » brandies comme gage de sincérité. Cette illusion de spontanéité est l’arme la plus puissante de la narration numérique. Tout paraît brut, et c’est précisément cela qui vend. Dans une économie de l’attention saturée, c’est la vulnérabilité apparente qui fidélise. Kenza, en diffusant ses moments les plus privés — comme sa rupture ou même une crise d’épilepsie de son mari qu’elle filme au lieu d’appeler les secours — poussait cette logique jusqu’à ses limites les plus problématiques.
Les pseudonymes eux-mêmes s’enracinent dans ce registre du foyer : Dania2g parlait si souvent de son mari que son pseudonyme est devenu « Dania Mon Mari. SirineJne, elle, fait référence à son mari comme Batman et devient « Sirine Batman », avant de devenir « Sirine Maman » à l’annonce de sa grossesse. Comme si l’identité se recomposait autour des rôles domestiques. Le storytelling personnel devient un outil de branding, le foyer un levier de conversion émotionnelle.
L’intime monétisé : stratégies commerciales et illusions d’authenticité
Ce théâtre de l’intime n’a rien d’anodin. Il répond à une logique marchande claire : capter l’attention pour la convertir en consommation. Plus l’influenceuse paraît proche, vraie, humaine, plus son pouvoir de recommandation s’intensifie. C’est une économie fondée sur la confiance affective. On n’achète pas un produit, on valide un lien. Et ce lien est la clé de leur modèle économique.
Les partenariats commerciaux ne sont pas des compléments, ce sont leur principale source de revenus. Les influenceuses vendent des emplacements dans leur vie, des instants d’attention, des tranches de confiance. Lorsqu’une mère de famille recommande une table à langer ou un shampoing pour bébé, elle ne vend pas un objet : elle vend l’image d’une femme crédible, rassurante, à qui l’on peut s’identifier. C’est ce transfert de confiance qui transforme leur quotidien en valeur marchande.
Les placements de produits s’insèrent ainsi dans le fil de la vie quotidienne, dans un décor crédible, un rythme familier. Mais sous cette douceur apparente, les dérives sont nombreuses. Poupette Kenza, par exemple, a été condamnée à 50 000 euros d’amende pour avoir promu des produits interdits à la vente en France (bandes de blanchiment dentaire) en les présentant comme des recommandations sincères et spontanées alors qu’il s’agissait d’un partenariat rémunéré. Elle a également prétendu lancer sa propre marque d’autobronzants alors qu’il ne s’agissait que de dropshipping maquillé, en vendant à prix fort des produits génériques simplement réétiquetés.
Le foyer devient alors un espace de storytelling commercial : chaque moment est une opportunité de placement. L’enfant devient figurant, la dispute devient climax, la maternité devient ligne éditoriale. Et plus la frontière entre vie vécue et vie médiatisée s’efface, plus la logique du marketing se fait invisible. Kenza, encore, intégrait régulièrement ses enfants dans ses publications, y compris dans des contextes où leur exposition était jugée dangereuse.
Certaines ex-vedettes de téléréalité se reconvertissent dans ce registre pour fuir l’oubli. Passées de la provocation en maillot de bain à l’image apaisée de la mère responsable, elles opèrent une mue stratégique. Ce repositionnement familial n’est pas une reconversion personnelle : c’est une relance algorithmique. Kenza, révélée à la base par ses clashs et sa spontanéité brute, avait progressivement glissé vers un contenu centré sur le foyer, la parentalité et l’entrepreneuriat féminin — sans jamais renoncer au spectaculaire.
Les dérives psychologiques et sociales d’une économie de soi
Mais cette économie de l’intime a un prix. Pour celles qui s’y prêtaient, la performance devenait permanente. Il ne s’agissait plus seulement de vivre : il fallait raconter, cadrer, anticiper ce qui serait filmable. Cette double existence — celle qu’on vit et celle qu’on donne à voir — installe une tension constante. Elle altère la perception de soi, rendant la validation numérique indispensable à l’estime personnelle.
Pour les enfants, les dangers sont plus graves encore. Filmés dans des moments vulnérables, exposés parfois sans leur consentement, ils deviennent malgré eux des personnages. Certains contenus sont repris, détournés, circulent sur des réseaux obscurs. Dans le cas de Kenza, plusieurs vidéos de sa fille ont été diffusées sans filtre, jusqu’à être détournées et retrouvées sur des plateformes pédopornographiques, menant à une enquête judiciaire et au retrait temporaire de la garde de ses enfants.
Quant au public, il n’est pas passif. Il commente, il soutient, il juge, il s’identifie. Cette illusion d’intimité crée une emprise affective forte. Certaines fans construisent des relations parasociales si intenses qu’elles perdent de vue la distance nécessaire : elles défendent, imitent, vivent à travers l’autre. Poupette Kenza a vu sa disparition temporaire des réseaux provoquer une telle angoisse chez certaines de ses fans que certaines ont arrêté d’aller travailler, incapables de rompre ce lien affectif unilatéral.
Sociologiquement, ce modèle réactive des normes genrées. Il valorise la femme douce, présente, soignée, centrée sur son foyer, maîtrisant ménage, beauté, parentalité et marketing. Ce retour au foyer, en apparence moderne, est souvent conservateur dans ses implications. Il enferme, plus qu’il ne libère. L’idéal mis en avant est celui d’une mère omniprésente, d’une épouse dévouée, mais aussi d’une entrepreneuse performante : un cumul de rôles irréalistes, qui creuse les écarts entre vie rêvée et réalité vécue.
D’un point de vue psychologique, le phénomène accentue une forme d’hyper-visibilité émotionnelle. Les influenceuses partagent leurs joies, leurs peines, leurs crises, leurs colères en temps réel, au risque d’une exposition mentale continue. La frontière entre spontanéité et dépendance affective devient floue. La plateforme devient un miroir grossissant où chaque émotion est monétisée, chaque moment intime mis en tension avec le regard de milliers d’inconnus.
Déconstruire la mise en scène du quotidien
Ce que révèle ce phénomène, au fond, c’est une nouvelle forme de capitalisme émotionnel. Le foyer devient un espace de production, l’intimité devient un outil d’influence, et la sincérité est calibrée en fonction de son potentiel viral. Ce ne sont plus seulement des produits qu’on vend : ce sont des modes de vie, des affects, des projections.
Pour les créatrices de contenu, cela exige une vigilance constante. Pour les spectateurs, cela appelle un regard critique. Et pour la société, cela pose la question de ce que nous valorisons : la transparence ou la performance ? L’émotion sincère ou sa simulation rentable ? Kenza cristallise cette tension : à force de tout exposer, elle incarne les excès, les succès, mais aussi les dangers de cette mise en scène permanente.
Partager n’est pas un problème. Ce qui l’est, c’est de ne plus savoir pour qui l’on partage, ni à quel prix. Il est temps de redéfinir les contours de l’intimité, non comme un produit de consommation, mais comme un espace de respiration, de construction, de dignité.
But when does it all start? As early as 1998, James R. Beniger (1998), president of the American Association for Public Opinion Research, had the idea that the Internet could profoundly renew the way pollsters study ‘how we form our attitudes and opinions, are influenced by mass media and by each other, make decisions as consumers and as voters’. This early recognition of the Internet’s potential to transform opinion research laid the groundwork for what would later become social media listening. As digital communication expanded, and social networks became central to public discourse, businesses, researchers, and policymakers saw unprecedented opportunities to harness online conversations. By the 2000s, numerous start-ups and agencies emerged, advocating for the systematic collection and analysis of social media data as a means to gain deeper insights into public sentiment. This shift marked a turning point in how organizations sought to « know what people think, » a concept epitomized by Brandwatch and other leading social media listening vendors.
Social media listening, also known as social media monitoring, is defined by the process of monitoring online chatter, in order to understand what is being said about a brand, organization, or topic. In practical terms, it involves monitoring and analysing mentions, comments, hashtags, opinions and even nowadays emojis from users across various platforms. The goal? To extract actionable insights from the billions of data points: emerging trends, customer opinions on products, audience expectations, or even early signals of a potential crisis.
In today’s hyper-connected world, social media listening has become an essential tool for both private businesses and public institutions.
How Social Media Listening Works
Social media listening goes beyond just monitoring or tracking mentions. It involves qualitative analysis of the « mood » and nuances of online conversations. In other words, it’s not just about counting how many times your brand is mentioned but understanding how, why it’s being discussed and what is the context. To achieve this, professionals rely on specialized tools and structured methods for collection and organization of the ongoing information flow.
The best-known tools that you might have heard of are Hootsuite, Talkwalker, Brandwatch, Meltwater, Mention, and even local platforms like Digimind. These platforms aggregate data from a variety of sources: major social networks (Instagram, Twitter, Facebook, LinkedIn, TikTok…), forums, blogs, review sites, and even online media. They use keyword-based queries (including complex Boolean operators for refined searches) to filter relevant mentions on a given subject. The collected data can include text (post content, tweets, captions, comments…), quantitative metrics (number of mentions, likes, shares, engagement rates), and even multimedia content (photos, videos or logos).
Social listening also focuses on context: who is speaking (user profile), tone (sentiment analysis: positive, neutral, or negative), and the reach of the message (influencer status, audience size). The software used Linguistic Inquiry and Word Count (LIWC) comes from decades of scientific research on people’s language and behaviour. Its employs a dictionary that classifies several hundred words as indicators of positive emotion (love, nice, sweet) and several hundred words as indicators of negative emotion (hurt, ugly, nasty). Subsets of negative emotion words assess manifestations of anger (hate, annoyed), sadness (sad, crying), and anxiety (worried, fear). It then calculates an emotional tone score based on the negative and positive emotion words. However, studies have shown the difficulty to being 100% certain: posts that did not align with any category could be skipped and not categorized. So, it is important to keep in mind that human judgment remains crucial to properly interpret the nuances (humour, sarcasm, irony) that algorithms may miss. Now that we know how social medial listening works, let’s dive deeper into some examples.
Adjusting Marketing Strategy: Ben & Jerry’s
To put all that into practice, lets look at an example from the cream brand Ben & Jerry’s, which uses social listening not only for brand management but also to inform product development and marketing strategies. By analysing advertising performance and customer conversations on social media, Ben & Jerry’s discovered an unexpected trend: it was during winter that engagement with their online ads peaked, as many customers mentioned enjoying ice cream in the colder months, often while binge-watching Netflix. Countered intuitive, isn’t it?
Thanks to this insight, the company adjusted its marketing strategy to target these « winter snackers. » For instance, it launched a new flavour called “Netflix & Chill’d”, a playful nod to this behaviour of pairing ice cream with streaming on cold nights. This new flavour, directly inspired by online discussions, allowed Ben & Jerry’s to show that it was listening to its clients and adapting to their lifestyle. Beyond product development, the company also optimized its strategic advertising calendar, investing more in winter months when its audience was most engaged. This case demonstrates how social listening can help identify hidden opportunities in consumer behaviour and adjust marketing strategies accordingly.
Ethical Dilemmas and Limitations of Social Media Listening
While social media listening opens up exciting possibilities, it also raises important ethical concerns that need to be considered. Indeed, monitoring users’ conversations online, even when publicly available, does not come without its challenges regarding privacy, consent, and bias.
The Cambridge Analytica scandal in 2018, where millions of Facebook profiles were harvested and analysed without explicit consent for political targeting, highlighted the potential pitfalls of mass data collection. Since then, public awareness has grown, and 70% of American consumers are now concerned about how their data is used. In order to adapt, businesses should pursuit a more transparent social listening practices and ensure they respect users’ consent. Furthermore, businesses operating in Europe should always anonymize any collected data as much as possible and focus on broad trend analysis rather than individual information. It is also strongly advisable to inform users in privacy policies that their social media mentions may be monitored.
Biases are another important point to kept in mind. Not all populations use social media in the same way, and not all opinions are equal in terms of volume or visibility. On top of that, automated analysisalgorithmscan have their own biases (e.g., misinterpreting sarcasm as a negative sentiment or overrepresenting popular topics at the expense of more subtle but important conversations). Furthermore, more and more people are using emojis to express their opinion or share a though, but it is still very hard to correctly identify the meaning (for example, a crying emoji is not always used to identity sadness or negative emotions, it can be used to express joy or even love). Therefore, it’s crucial to maintain a critical perspective on the insights generated by social listening and cross-reference them with other sources (such as traditional customer surveys or market studies) to avoid making unfair or misguided decisions.
But where do we put the line between helpful listening and invasive surveillance?
Authors like Shoshana Zuboff (2018) have theorized the concept of ‘surveillance capitalism’, arguing that the continuous capture, extraction, and valuation of data are now a key feature of today’s capitalist societies, reconfiguring market positions and political power. However, can we really capitalise on all the data there is?
When a company reaches out to an individual who hasn’t directly tagged them in a negative post, it may be perceived as either a thoughtful customer care response or an unwelcome « tracking » of the users every move. Is it even possible to collect and utilise such data? Legally, in Europe regulations such as the GDPR impose strict requirements on the use of personal data, including publicly available social media information, demanding transparency, proportionality, and security for any organization that collects this type of data. Users should also be able to exercise control over the data they share and how it is being used.
To conclude, social media listening is not a new concept. However, with the over-personalisation of products and services, it has become a crucial tool for businesses and public institutions. Like many digital technologies, the power of this tool comes with increased responsibility. Social media listening, when done thoughtfully and ethically, can truly enhance communication and decision-making in the digital age.
But aren’t we entering a new era of total surveillance by the Big Brother? And can we put all our trust in the governments?
Nadejda STEFANOVA
References :
Grandviewresearch.com. (2025). Europe Social Media Listening Market Size & Outlook, 2030. [online] Available at: https://www.grandviewresearch.com/horizon/outlook/social-media-listening-market/europe
Pew Research Center. 2015. Methodology: How crimson hexagon works. April 1. https://www.journalism.org/ 2015/04/01/methodology-crimson-hexagon/
Barnett-Smith, R. (2024). Social Listening Examples: 9 Brands Getting It Right | Mention. [online] Mention. https://mention.com/en/blog/social-listening-examples/
En février dernier, à l’aune du sommet du Sommet pour l’action sur l’intelligence artificielle qui s’est tenu en France ce mois-ci, le président de la Sacem, Patrick Sigwalt, et la présidente de l’Adami, Anne Bouvier, appelaient les artistes à signer une tribune sur les dangers de l’IA dans le domaine de la musique. L’avènement de l’IA à l’ère du numérique suscite manifestement un grand nombre d’inquiétudes, de défiance et de précaution dans les différentes branches du secteur culturel. Qu’en est-il du spectacle vivant, un domaine historiquement marqué par l’évolution des technologies ? En effet, machinerie, éclairage, son : voilà quelques innovations qui ont transformé l’expérience du spectacle vivant à travers les époques, jusqu’à la possibilité aujourd’hui de figer une performance, pourtant par essence unique, en permettant sa captation et un nombre infini de reproductions.
Le numérique trouve donc aujourd’hui sa place lors de chacune des étapes de la création et de la diffusion d’un spectacle. Il peut en outre s’intégrer d’une telle façon qu’il vient modifier les repères et les codes habituels des arts de la scène. C’est notamment le cas dans les digital performance, qui sont une forme hybride permettant la cohabitation du vivant et du numérique. Dans l’ouvrage pionnier Digital Performance: A History of New Media in Theater, Dance, Performance Art, and Installation, Steve Dixon et Barry Smith soulignent que « le terme […] comprend toutes les œuvres des arts de la scène où les technologies informatiques jouent un rôle clé en ce qui concerne le contenu, la technique, l’esthétique ou le résultat final ». En 2020, la troupe catalane de théâtre La Fura dels Baus s’inscrit comme actrice de ce mouvement en proposant une représentation de Macbeth en vidéoconférence. Elle explore depuis cette hybridité nouvelle qu’elle définit en ces mots : « Le Théâtre Digital fait référence à un langage binaire qui relie l’organique et le non organique, le matériel et le virtuel, l’acteur en chair et en os et l’avatar, le spectateur présent et l’internaute, la scène physique et le cyberespace ».
Une proposition prometteuse mais qui néanmoins interroge : peut-on toujours parler de spectacle vivant lorsque de tels dispositifs numériques sont utilisés ? Jusqu’où la digital performance peut-elle repousser les frontières du spectacle vivant sans en altérer son essence et son authenticité ?
Une méfiance compréhensible vis-à-vis d’une « numérisation » des arts de la scène
En effet, le spectacle vivant puise ses origines dans l’Antiquité, et a, en plus de 2000 ans d’existence, évolué de multiples façons. Les innovations technologiques ont, de façon naturelle, participé à ces évolutions et intégré la scène. Mais, jusqu’à maintenant, comme l’explique l’historienne du théâtre Clarisse Bardiot, spécialiste des humanités numériques, une inchangée fondamentale dans l’essence du spectacle vivant réside dans la coprésence physique entre l’artiste et le public. C’est cela qui, pour beaucoup, définit l’aspect « vivant » dans le terme « spectacle vivant ».
Les technologies numériques, si elles prenaient la place des artistes sur la scène, participeraient donc à première vue à une dénaturation du spectacle vivant. Les détracteurs de l’utilisation du numérique cherchent à alerter sur ce sujet, et sur leur peur de la disparition progressive des artistes. En effet, depuis les années 2000, quelques dramaturges se sont essayés à introduire des robots sur scène, voire même à des représentations sans acteur. Oriza Hirata propose en 2012 sa pièce Les Trois Sœurs (version androïde) où des robots montent sur scène, en jouant leur propre rôle, face à des comédiens qui jouent les personnages humains. Au contraire, la compagnie new-yorkaise Amorphic Robot Works proposait en 2000 un spectacle joué entièrement par des robots. Plus récemment, le groupe ABBA réalisait une tournée de concerts en hologrammes.
A l’échelle mondiale donc, le numérique prend une place de plus en plus importante, qui remet en question la définition de spectacle vivant. Qui plus est, dans une situation économique précaire, les évolutions numériques permettent de remplacer certains postes : des chanteurs se produisent seuls sur scène en diffusant la musique à travers des enceintes (comme le fait Eddy de Pretto par exemple), des voix off peuvent également remplacer des personnages pour de courtes répliques, comme c’était le cas dans le seul en scène Ici / Là-Bas de Christine Gandois.
Ainsi, les technologies numériques soulèvent des questions éthiques car elles permettent déjà de remplacer la présence d’artistes sur scène. De plus, l’IA commence également – de façon encore exploratoire – à s’immiscer dans les processus d’écriture de dialogues et d’intrigues, ce qui suscite d’autres questionnements philosophiques, en particulier sur la définition d’une œuvre d’art.
Une création artistique nouvelle, qui intègre ces innovations numériques
Cependant, le développement des technologies numériques a permis l’émergence de nouveaux possibles. Que ce soit en termes de décors (qui peuvent être créés grâce à des jeux de lumière élaborés), de sonorisation, ou encore de mise en scène, les digital performance offrent des propositions artistiques inédites aux spectateurs, souvent interdisciplinaires, où se mêlent théâtre, cinéma et musique.
Au théâtre, l’arrivée des écrans sur scène permet un dédoublement de l’image qui, loin de concurrencer le jeu des comédiens, appuie le propos des metteurs en scène. En 2023, les chercheuses canadiennes Josette Féral et Julie-Michèle Morin consacrent un ouvrage à l’utilisation de la vidéo sur scène. Elles interviewent pour cela 21 metteurs en scène qui utilisent ces technologies de façon centrale, parmi lesquels certains des dramaturges contemporains les plus primés : Roméo Castellucci, Ivo Van Hove, Milo Rau, Christiane Jatahy ou encore Jacques Delcuvellerie. Le théâtre interactif a également été révolutionné par ces technologies, et par les applications mobiles notamment.
Des innovations qui peuvent aussi apparaître comme des solutions dans une situation économique précaire
L’usage du numérique a parallèlement l’ambition d’offrir au spectacle vivant de nouvelles perspectives dans un contexte économique contraint. En effet, la maladie des coûts, théorisée par William Baumol et William Bowen en 1966, frappe de plein fouet ce secteur, où l’évolution des gains de productivité ne permet pas d’augmenter les salaires au même rythme que l’économie extérieure.
Les tentatives de hausse des prix des représentations ont rarement su couvrir les impacts de ce phénomène, puisqu’elles se sont heurtées à une limite ayant conduit à la réduction des marges “wage gap”. Les dons et les subventions publiques sont alors essentiels à la survie du spectacle vivant, mais restent parfois insuffisants dans un secteur dont les coûts sont imprévisibles, et rendent les structures dépendantes à la gestion du budget de l’État. Qui plus est, la demande globale concernant le spectacle vivant reste faible par rapport aux autres secteurs, le public régulier est peu diversifié en termes d’âge et de catégorie socio-professionnelle, et les petites structures concentrent moins de 5% des recettes globales. De plus, on constate un désengagement progressif des jeunes publics (15 à 24 ans) au profit d’autres pratiques culturelles et numériques. Or, l’utilisation des technologies digitales sur scène est susceptible d’attirer un public plus jeune, qui pourrait être sensible à des représentations au caractère plus interactif et immersif, permettant un véritable renouveau d’une pratique parfois considérée comme relativement traditionnelle et réservée à une élite déjà initiée. D’ailleurs, de nombreuses œuvres que l’on peut rapprocher du mouvement des digital performances connaissent un succès critique et commercial, c’est le cas par exemple de Rwanda 94, mise en scène du Groupov, Entre Chiens et Loups de Christiane Jatahy, ou encore Grace, le récent spectacle de danse de Benjamin Millepied.
Enfin, l’avènement d’outils scéniques digitaux pourraient notamment diminuer le coût alloué à la construction, au stockage et au transport des décors, permettant d’augmenter le wage gap et de profiter à l’économie des structures. Cela démontre ainsi une possibilité d’innovation conduisant à générer des gains de productivité.
Ainsi, la digital performance pourrait permettre aux structures de contourner la maladie des coûts et de diversifier et élargir leur public en apportant un renouveau technique et artistique, mais soulève encore de nombreuses questions éthiques. On pourrait craindre une disparition progressive du lien entre public et artiste, pourtant caractéristique du spectacle vivant, ainsi qu’une précarisation des artistes et techniciens qui peinent déjà à bénéficier d’une stabilité professionnelle et économique. Le risque d’agrandir le fossé économique entre les petites et grandes structures, qui auraient davantage de facilité à investir dans des outils numériques, pose également question. L’objectif d’hybridation et non de substitution pourrait être une piste privilégiée, mais est-il réellement possible de contrôler cet équilibre à long-terme si la standardisation du numérique devient prépondérante ?
La question de l’inclusivité dans les musées est une thématique relativement récente, mais elle est rapidement devenue un sujet incontournable ces dernières années. L’inclusivité n’est plus une simple option, elle est une obligation pour les établissements publics afin que tous les visiteurs puissent bénéficier d’une expérience muséale optimale.
En Europe, par exemple, plusieurs législations sur l’accessibilité, comme la directive européenne de 2016 sur l’accessibilité des sites web et des applications mobiles des organismes du secteur public, imposent aux musées et autres institutions publiques d’adopter des mesures permettant de rendre leurs services accessibles à tous. Cela inclut non seulement l’accessibilité physique pendant la visite, par exemple via des rampes ou des ascenseurs pour les personnes à mobilité réduite, mais également l’accessibilité numérique, qui concerne tous les visiteurs ayant des besoins spécifiques liés à la lecture, à l’audition ou à la compréhension des informations.
Les résultats (certes encore très perfectibles) suivent : en 2022, une étude Malakoff Humanis / BVA révélait que 65 % des personnes en situation de handicap considéraient l’accès aux musées et expositions en France comme facile, soit 8 % de plus que cinq ans auparavant lors de la même enquête.
Cette inclusivité prend, depuis quelque temps, une dimension numérique. Depuis le 25 juin 2021, le Centre Pompidou a mis en place une application d’aide à la visite, disponible gratuitement sur téléphone et tablette (Apple et Android), destinée aux personnes atteintes de troubles du spectre de l’autisme (TSA), mais aussi à tous les autres publics ayant des besoins similaires pour visiter le musée. L’application a été conçue en partenariat avec Infiniteach et Sesame Autisme. Il semble que cette initiative ne soit pas un cas isolé, puisque d’autres musées en France et plus largement en Europe investissent eux aussi dans cette technologie.
Après près de cinq ans, maintenant que l’engouement pour la nouveauté numérique s’est estompé, l’heure est au bilan : les applications d’aide à la visite sont-elles de véritables avancées ou de simples gadgets technologiques ?
Un impératif d’inclusion dans les musées : cadre législatif et attentes des publics
Depuis la loi de 2005 « pour l’égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées », l’accessibilité universelle est une obligation. L’article 41 précise que la loi s’applique à toute forme de handicap, physique, sensoriel, cognitif, mental ou psychique, et concerne tous types de locaux, privés ou publics. L’article 45 décrit « la chaîne du déplacement », incluant l’aménagement de la voirie, des transports et de leur intermodalité, pour les personnes et éventuellement les animaux accompagnants (article 54). Un délai maximal de 10 ans était accordé pour la mise en conformité (Art. L. 111-7-3), avec des dérogations possibles sous conditions strictes. L’accessibilité s’impose donc aux musées, anciens comme nouveaux, et peut être exigée par toute personne en situation de handicap. Si l’adaptation de monuments historiques peut s’avérer complexe, les nouvelles structures et rénovations doivent intégrer cet objectif dès leur conception avec l’appui de spécialistes. L’accessibilité ne doit pas être un « chapitre particulier » du projet d’établissement, mais une prise en compte globale et permanente (Ministère de la Culture, L’accessibilité universelle, avril 2021). Chaque musée doit disposer d’un référent « accessibilité ». L’État, via le Service des musées de France, voit dans cette exigence « l’opportunité de repenser la façon de concevoir les musées (…) en mettant le visiteur au cœur de la réflexion » (Ibid.).
L’accessibilité implique une réflexion sur l’expérience muséale dans son ensemble : accessibilité des transports, circulation dans le bâtiment, billetterie, vestiaires, boutiques, sanitaires, signalisation, éclairage, acoustique des salles, exposition des œuvres et accès aux informations. La diversité des handicaps nécessite des dispositifs adaptés et un personnel formé à leur utilisation.
Le numérique fait désormais partie de cette expérience : consultation du site, achat de billets en ligne, demande de prise en compte du handicap, et outils numériques sur place. Le « Référentiel général d’amélioration de l’accessibilité » (RGAA) de 2019, complétant la directive européenne de 2016, impose de « rendre les contenus et services numériques compréhensibles et utilisables par les personnes en situation de handicap ». Ce document en ligne liste les obligations légales et 106 critères d’évaluation. La première question posée est : « Chaque image porteuse d’information a-t-elle une alternative textuelle ? ».
Toutefois, ces adaptations doivent respecter les capacités financières des établissements, ce qui, dans un contexte budgétaire contraint, menace leur mise en œuvre complète.
Le numérique comme levier d’accessibilité et d’innovation
Le numérique joue un rôle croissant dans l’accessibilité des musées, en proposant des dispositifs adaptés aux publics en situation de handicap. Parmi les initiatives notables, le Centre Pompidou a développé l’application «Centre Pompidou Accessibilité», destinée aux visiteurs atteints de troubles du spectre de l’autisme (TSA) et du neuro-développement. Téléchargeable gratuitement sur smartphone et tablette, elle permet de préparer la visite en amont et d’accéder à des contenus adaptés sur place. D’autres institutions, comme le Musée du Louvre, ont mis en place des dispositifs de médiation numérique, tels que des audioguides Nintendo DS adaptés aux déficiences visuelles ou des parcours en langue des signes française (LSF). Autre exemple, L’application Nomade des musées de Rouen permet aux visiteurs de découvrir une sélection d’œuvres majeures grâce à des contenus spécialement adaptés aux personnes en situation de handicap visuel, auditif ou mental. Cette application a été développée avec des parcours en audiodescription et en français Facile à Lire et à Comprendre (FALC).
Au niveau européen, le musée d’Amsterdam a développé des visites en réalité virtuelle spécialement conçues pour les personnes à mobilité réduite, leur permettant d’explorer les collections depuis chez elles. Ces innovations illustrent comment le numérique, loin d’être un simple gadget, constitue un levier essentiel pour repenser l’inclusivité et enrichir l’expérience muséale pour tous. Au musée Rijksmuseum, les visites guidées intelligentes, dotées d’assistants vocaux et d’audioguides basés sur l’IA permettent aux visiteurs de découvrir les collections à leur propre rythme, tout en bénéficiant de commentaires contextualisés et personnalisés.
Aussi, les interfaces tactiles inclusives facilitent quant à elles l’accès aux informations pour les personnes en situation de déficience motrice ou cognitive, en offrant une navigation simplifiée et intuitive.
Un visiteur malvoyant peut recevoir une description audio détaillée des œuvres, enrichie de commentaires historiques et artistiques. Et une personne en situation de handicap moteur peut bénéficier d’un parcours optimisé dans ce musée hollandais et d’un accès facilité aux contenus grâce à une navigation assistée par IA.
Ainsi, ces avancées technologiques ne se substituent pas à l’expérience physique du musée, mais l’enrichissent plutôt en proposant des solutions adaptées aux besoins spécifiques de chaque visiteur.
Dispositifs numériques : inclusion ou nouvelles formes d’exclusion?
Les dispositifs numériques facilitent l’appropriation des institutions muséales par les publics empêchés, souvent perçus comme des lieux élitistes ou complexes (cf. Bourdieu). Pourtant, leur coût en limite l’accès, notamment pour les publics précaires dont notamment les personnes en situation de handicap. Les offres annexes, comme la réalité augmentée, sont fréquemment payants, ce qui constitue un frein supplémentaire.
Outre le prix, d’autres facteurs subsistent. Une étude de la fondation Malakoff Humanis révèle que 59% des personnes en situation de handicap souhaiteraient multiplier leurs sorties culturelles, mais que l’accessibilité constitue un frein pour 19% d’entre elles. La société Evelity met également en évidence les lacunes en matière d’accessibilité des musées et de leurs abords, ainsi que le manque d’un accueil adapté. Par ailleurs, 70% des répondants atteints de déficience visuelle considèrent que l’accessibilité en transport et la disponibilité d’informations en ligne comme des critères déterminants, avant même l’adaptation des visites à leur handicap.
Un autre défi majeur est la fracture numérique, qui accentue les inégalités d’accès à la culture. L’accès aux technologies varie selon le milieu social, le contexte géographique et la familiarité avec le numérique. Le temps d’adaptation nécessaire pour maîtriser ces outils peut freiner l’expérience de visite et détourner de la découverte des œuvres. Par ailleurs, tous les outils numériques ne répondent pas aux besoins spécifiques. Par exemple, la réalité augmentée reste difficilement accessible aux personnes malvoyantes ou présentant des troubles cognitifs. Par conséquent, le numérique, bien qu’il facilite la médiation, peut paradoxalement exclure certains publics.
Quel consensus? Pour garantir une expérience muséale inclusive, une approche hybride combinant dispositifs numériques et médiation humaine semble être la solution la plus adaptée. Des projets menés à La Villette, tels que la Micro-folie, illustrent l’intérêt de cette complémentarité : l’association de dispositifs interactifs et de l’accompagnement par des médiateurs formés permet de rendre l’expérience de visite plus instructive.
Armand COSSET, Emma DROUIN, Sara MAZZELLI, Noëla ROCHART
Lebat, Cindy, “Les dispositifs numériques immersifs. Une opportunité pour les visiteurs déficients sensoriels ?”, La Lettre de l’OCIM [Online], 202-203 | 2022, Online since 01 July 2023. URL: http://journals.openedition.org/ocim/5129; DOI: https://doi.org/10.4000/ocim.5129
Pinède, Nathalie. et al. « Numérique et situations de handicap : le projet “Fractures corporelles, Fractures numériques” ». Communication & Organisation, 2019/2 n° 56, 2019. p.139-148. CAIRN.INFO, shs.cairn.info/revue-communication-et-organisation-2019-2-page-139?lang=fr.
Le spectacle vivant peut se définir par ce que nous appelons communément “performance”, il contient l’idée selon laquelle en y assistant, nous vivons un événement éminemment présent, en train de se produire. Cet événement est le fruit d’une production du corps de l’artiste qui, par une mise en scène précise, prend sens devant les yeux du spectateur·ice, en direct.
En parallèle de l’irruption du numérique dans les arts vivants, nous parlons de plus en plus de “performance” pour qualifier ces productions, ce qui rend la définition de la performance floue. Or la performance a un spectre définitionnel assez large historiquement comme l’explique Julie Pellegrin. C’est d’abord un terme utilisé dans le secteur artistique avec les avant-gardes du XXe siècle, qui renaît dans les années 1960 sous le nom d’event ou de happening puis qui se transforme sous l’appellation de performing arts rejoignant ainsi la définition que nous utilisons ici, celle de spectacle vivant. Dans ces diverses évolutions, la performance semble aller de paire avec l’utilisation du corps comme moyen de réaliser un exploit et comme outil performatif au sens linguistique – dans la mesure où l’action du corps fait le spectacle, elle semble ne pas avoir besoin d’autre médium. Or, le numérique semble dévier de ces aspects, il nécessite un médium, comme un écran par exemple, il semble nous inciter à sortir de nos corps ou à l’oublier dans la mesure où il nous sort du réel. De prime abord, le numérique apparaît comme un outil qui nous positionne hors du présent, d’une réalité avec laquelle le spectateur ou l’artiste sont en co-présences quand la performance pourrait être caractérisée par la liveness, le fait même d’être présent.
Ainsi, dans quelle mesure le numérique, comme médium supplémentaire de la performance, permet-il de ré-envisager la place du corps présent dans le spectacle vivant ?
Performance médiatisée et liveness
Alors qu’au départ la scène était composée quasi exclusivement de comédien·ne·s venu·e·s performer, elle a progressivement accueilli des innovations technologiques qui ont contraint ces derniers à laisser un peu de leur place au sein du spectacle. Le numérique va plus loin encore que les innovations technologiques qui l’ont précédé, en allant jusqu’à la disparition de la scène et de la présence physique des performeur·euse·s : les captations et enregistrements ont révolutionné le monde de la performance, en proposant aux spectateur·ice·s de profiter de celle-ci directement depuis chez elles·eux. Cette médiatisation tend aujourd’hui à séparer performance et corps physique (que ce soient les corps des artistes ou ceux des spectateur·ice·s), autrefois terriblement intriqués l’un avec l’autre. Regarder une performance ne signifie plus nécessairement aller physiquement dans un théâtre et voir, en live, des personnes se mouvoir. Pourtant, les théâtres continuent de se remplir et les artistes continuent de performer en live pour un public. La présence du public prend en effet une plus grande symbolique, et même un sens expérientiel : le public n’aura pas la même expérience qu’il soit chez lui, seul, ou dans une salle de spectacle, entouré d’autres spectateur·ice·s.
Image libre de droit
Si le numérique a mis en évidence l’intérêt du liveness, qui allait de soi avant cette révolution, il a également opéré de réelles transformations pour la création et les artistes. Ce double medium, captation et live, voire triple avec les live stream, contraint les performeur·se·s à partager la scène avec les caméras. La captation implique parfois des choix scéniques spécifiques pour prendre en compte le rendu capté : une responsable Arts et Spectacles d’Arte nous confie ainsi que ses équipes de tournage influent parfois sur le placement de certains décors et artistes sur la scène pour que ces derniers collent aux attendus de la télévision et captent l’attention du spectateur·ice qui regarderait depuis chez lui (rencontre réalisée le 12 février 2025). Ce cas de la contrainte spatiale et corporelle du numérique est pourtant marginal à côté des libertés qu’il permet en termes de gestion de l’espace scénique : Monica Paredes parle ainsi d’une “mutation des espaces habitables” pour évoquer cette restructuration des espaces utilisables et des placements des corps sur scène, du fait du numérique (Paredes, 2023). Il pousse la création au-delà du plateau et même du réel. Les limites imposées par le corps du spectateur·ice cessent ainsi d’être une contrainte artistique : en témoigne notamment le dispositif Scènes Augmentées qui, à travers des jumelles de réalité virtuelle comme un prolongement du corps du spectateur·ice, élargit l’espace scénique pour y créer des corps et actions qui n’existent pas en live. Par le biais de techniques numériques innovantes, le quatrième mur peut donc se briser un peu plus, en repensant les contraintes imposées par les corps tant du spectateur·ice que de l’artiste.
Le numérique comme production spéculative au sein de la performance : l’interactivité comme moteur de la création
Paradoxalement, alors que certaines réflexions soulignent l’impact négatif des nouvelles technologies dans l’immédiateté de la relation entre le·la performeur·se et le public (Schloss, 2003), le numérique offre également la possibilité d’engager le corps du public qui devient alors une condition nécessaire au processus créatif. Le spectacle Eve 3.0 mêle chorégraphie et VR : le public participe ainsi à la narration en dansant avec différents acteur·ice·s réel·le·s et virtuel·le·s, transformant ainsi les spectateur·ice·s en interprètes. Le numérique permet de dépasser la co-présence habituelle des corps des interprètes et du public souvent scindés en deux groupes distincts. Cette évolution soulève une nouvelle réflexion sur le concept d’interactivité, où l’intégration du numérique dans le monde du spectacle vivant ouvre un questionnement sur les théories de la réception, l’œuvre ne pouvant plus exister indépendamment de l’engagement du public. La conférence des absents de Rimini Protokoll est une performance où les conférenciers ne sont pas physiquement présents sur scène, mais sont représentés par le public, qui lit leurs discours en leur nom. C’est donc la présence des spectateur·ice·s qui joue le rôle clé dans la réalisation de la performance, ils·elles “co-créent” l’œuvre. La téléprésence devient une présence performative qui modifie et altère les règles de la représentation et l’absence physique module un espace pour de nouvelles inscriptions et des perspectives inattendues, tandis que la mise en scène à distance de Rimini Protokoll donne vie à un jeu théâtral de traductions et de corps. Ce type d’interaction est explicite dans la question de l’utilisation des technologies dans le spectacle vivant. Là où le terme vivant nous renvoie à un corps visible, tactile, présent, la limite à ne pas dépasser est précisément celle de la fiction ou d’une paralysie de la dramaturgie et de la narration. La capacité consiste donc à utiliser les nouveaux dispositifs numériques comme une nourriture de quelque chose qui existe déjà, à savoir l’humain. Cette alimentation permet d’augmenter les possibilités d’interaction et donc de création, de participation active et de personnalisation de l’expérience. La coexistence de l’art et du numérique devient ainsi un champ d’expérimentation où l’artiste et les spectateur·ice·s échangent continuellement et contribuent ensemble aux processus de création.
Image libre de droit
Le numérique peut aussi donner l’illusion de pouvoir repousser les contraintes physiques corporelles : il rend vivant ce qui, par définition, ne l’est pas. Les hologrammes, par exemple, permettent de transgresser les limites du corps humain, d’effacer la temporalité en faisant revivre des personnes décédées, comme l’ont montré les performances d’hologrammes de Tupac à Coachella, ou de Maria Callas à la salle Pleyel en 2018. Au-delà des réflexions éthiques et juridiques que ces représentations supposent, l’intégration de ces évolutions technologiques dans le spectacle vivant ouvre la voie à une réflexion plus ontologique. Le numérique ne se contente pas de satisfaire une forme de fascination pour le corps des artistes, il incarne la promesse d’un prolongement existentiel du corps, une manière de pallier leur caractère éphémère et de prolonger l’illusion d’incarnation, même après la disparition physique.
La performance et le numérique offrent également un nouveau moyen d’émanciper les corps minorisés, en dépassant les contraintes imposées par la scène traditionnelle. Dans Sylvia, Fabrice Murgia utilise la captation vidéo pour questionner les normes de représentation, projetant sur un écran à l’arrière de la scène des gros plans du corps des comédiennes. La caméra redéfinit l’espace scénique et l’expérience du spectateur en mettant en avant des corps et des émotions souvent invisibilisés. Cette approche rejoint une réflexion plus large sur la manière dont les nouvelles technologies peuvent être mobilisées pour offrir une tribune à des récits et des présences marginalisées.
L’intégration du numérique dans le spectacle vivant ne se résume ainsi pas à une simple transformation des dispositifs scéniques, mais constitue une reconfiguration profonde des rapports entre corps, espace et spectateur·ice·s. Loin d’effacer la présence physique, il en révèle de nouvelles dimensions, en amplifiant l’expérience sensorielle et en redéfinissant les modalités d’interaction. Qu’il s’agisse d’une médiatisation de la performance, d’une interactivité accrue ou d’une émancipation des corps minorisés, le numérique apparaît non pas comme une rupture, mais comme un prolongement et un outil spéculatif permettant d’explorer d’autres formes de corporéité.
Suzanne BRICE, Arianna DI BELLO, Mélissande MICHELET, Camille RÉAU
Bibliographie
Delporte, C. (2022, 18 mars). Des hologrammes aux avatars, que nous réservent les concerts de demain ? Les Echos. https://www.lesechos.fr/weekend/spectacles-musique/des-hologrammes-aux-avatars-que-nous-reservent-les-concerts-de-demain-1394722
Paredes, M. (2023, août 12). L’utilisation du numérique dans le spectacle vivant : l’appropriation de l’œuvre à partir d’un dispositif de médiation culturelle. Theses.fr. https://theses.fr/2023REN20044
Scènes Augmentées : une solution de double virtuel pour réinventer le spectacle vivant. (2024, 7 octobre). Makery. https://www.makery.info/2024/10/07/scenes-augmentees-une-solution-de-double-virtuel-pour-reinventer-le-spectacle-vivant/
Schloss, W. A. (2003). Using Contemporary Technology in Live Performance: The Dilemma of the Performer, Journal of New Music Research. https://www.radiofrance.fr/franceculture/podcasts/affaire-en-cours/qu-appelle-t-on-performance-8420419
Sorbier, M. (2022, 26 mai). Qu’appelle-t-on « performance » ? France Culture. https://www.radiofrance.fr/franceculture/podcasts/affaire-en-cours/qu-appelle-t-on-performance-8420419
Plus personne n’en doute : l’essor des réseaux sociaux a bouleversé notre manière de nous informer, de débattre, et, pour certains, a même ouvert la voie à des formes insidieuses de radicalisation. YouTube, Instagram, X, TikTok… Ces plateformes sont devenues bien plus que de simples lieux de divertissement : elles sont aujourd’hui des espaces où se fabriquent de nouvelles formes d’engagement politique. Dans ce terreau, la figure de l’influenceur politique a peu à peu émergé, jusqu’à s’imposer comme un acteur central du débat public.
Mais que se passe-t-il quand des discours extrêmes – antiféministes, racistes, homophobes ou encore masculinistes – s’y propagent librement, drapés dans un discours prétendument “authentique” ou “engagé” ? Dans ce brouhaha idéologique, un phénomène en particulier attire l’attention et inquiète : celui des communautés dites « Incels » (involuntary celibates), nées de la frustration intime de certains hommes face au rejet amoureux. En ligne, ces dernières ont progressivement glissé vers un rejet systématique des femmes, du féminisme, et plus largement des valeurs progressistes. Elles se sont peu à peu transformées en de véritables foyers de propos haineux et profondément réactionnaires.
Dans le prolongement de cette dérive, une question s’impose : comment une détresse affective individuelle peut-elle devenir le socle d’un projet idéologique collectif ? Certains influenceurs ou influenceuses, parfois sans même revendiquer explicitement leur proximité avec ces sphères, reprennent et véhiculent ces narratifs, leurs codes et leurs obsessions. Ils exaltent la virilité, minimisent ou rejettent frontalement le féminisme, et valorisent l’idée d’une soumission féminine. Autant de points de contact entre ces communautés souterraines et certaines figures du web politique, qui n’hésitent pas à s’approprier ces récits pour mieux les propulser dans l’espace public.
Mais comment ces logiques, à la fois provocatrices et séduisantes, circulent-elles si facilement ? Et surtout, comment parviennent-elles à captiver, à séduire, voire à convaincre ?
Unsplash.com / Image libre de droit
La naissance d’un phénomène : quand la frustration devient une arme politique
À l’origine, le terme « Incel » naît dans les années 1990 sous l’impulsion d’une étudiante canadienne, anonyme, dissimulée derrière le pseudonyme d’“Alana”. Elle souhaitait créer un espace d’écoute pour toutes les personnes — hommes comme femmes — confrontées à la solitude affective. Une sorte de refuge numérique, pensé comme une “safe place” dans un Internet déjà envahi par la mise en scène de soi et la comparaison permanente. Loin, très loin, des discours actuels, ce petit espace se voulait inclusif, ouvert, et non genré.
Mais avec la montée en puissance de forums comme Reddit, 4chan ou plus récemment Discord, le terme change de mains — et de ton. Ces plateformes, par leur structure même, deviennent des catalyseurs puissants de radicalisation. Anonymat absolu, absence de modération, langage codé et culture du mème : tout y favorise le dérapage collectif, l’escalade verbale, l’effet de meute. Très vite, ce qui relevait de la confession intime se transforme en rhétorique de guerre. Les propos se durcissent. Le féminisme devient l’ennemie à abattre. Et avec lui, toute femme jugée “trop libre”, “trop visible”, “trop exigeante”.
Chez leurs détracteurs, le langage lui-même devient un instrument de domination symbolique. Tout y est codé, hiérarchisé, chargé de rancœur. On parle de “females” plutôt que de “women”, on théorise le “looksmaxing” — optimisation du physique perçue comme clé d’accès à la reconnaissance sociale —, on invoque la “black pill”, cette vision fataliste selon laquelle les hommes laids sont condamnés à ne jamais être aimés. Et la “friendzone” ? Érigée en injustice systémique, elle résume à elle seule le sentiment d’exclusion que ces discours cultivent. Dans cette nouvelle grammaire du ressentiment, les femmes sont perçues comme responsables de la souffrance masculine, accusées de privilégier les « Chads » — ces hommes alpha, dominants, au physique avantageux — elles relègueraient les “beta males” dans l’invisibilité sociale et sexuelle.
Dans les fils de discussion, les premières attaques contre les femmes se multiplient. Certaines sont accusées de “jouer avec les sentiments des gentils garçons”, d’autres « d’accumuler les relations toxiques, puis de pleurer sur leur sort à trente ans”1. Les forums deviennent des tribunaux numériques où la femme occidentale est jugée, moquée, réduite à une caricature. Derrière l’humour grinçant et les ”private jokes”, c’est une colère sourde qui gronde : celle d’hommes qui se vivent comme évincés, humiliés, oubliés par une société qui valoriserait, selon eux, l’apparence, la domination et l’hypersexualité.
Cette logique de victimisation s’est rapidement transformée en colère idéologique et a vite donné lieu à l’émergence de figures sacrificielles. En 2014, Elliot Rodger, jeune homme de 22 ans, tue six personnes et en blesse treize autres en Californie avant de se donner la mort. Dans son manifeste, il se présente comme un “gentleman” trahi par les femmes, et légitime son passage à l’acte comme une vengeance. Depuis, il est devenu une figure quasi-sacrée pour une frange radicale du mouvement, qui le surnomme “Saint Elliot”.
Alors, comment expliquer qu’une communauté née du désespoir glisse aujourd’hui vers une idéologie misogyne ? Pourquoi ces figures violentes deviennent-elles des modèles à suivre ? Faut-il voir dans cette dérive une simple provocation ou l’expression d’un malaise bien plus profond dans nos sociétés ?
Unsplash.com / Image libre de droit
YouTube et la fabrique algorithmique de la haine
En réalité, l’adhésion à ces idéologies n’a rien d’accidentel : les plateformes les favorisent. Conçus pour maximiser l’engagement, leurs algorithmes privilégient les contenus clivants, polémiques, émotionnellement chargés. Les réseaux sociaux comme X assurent une viralisation éclair de ces messages, particulièrement auprès des plus jeunes et donc – des plus influençables. Sur TikTok, les formats courts, rythmés, manichéens, séduisent par leur apparente simplicité. Quelques mots, une punchline, une image choc : c’est suffisant pour installer une vision du monde binaire, où le féminisme est vu comme une menace et la masculinité comme une valeur à réhabiliter.
Mais c’est sur YouTube que l’enracinement idéologique opère le plus profondément. En quelques clics, un utilisateur peut passer de vidéos anodines à des contenus de plus en plus radicaux. L’algorithme, loin de ralentir cette dérive, l’encourage : plus une vidéo provoque, plus elle est visible. C’est dans ce contexte que prolifèrent les « commentary channels », des chaînes spécialisées dans l’analyse critique de contenus ou de comportements, souvent sous un angle culturel ou sociétal. Ces créateurs adoptent un ton faussement “posé” ou “rationnel”, s’expriment en connaissant parfaitement les limites du légal, et évitent ainsi toute sanction directe. Sous couvert de réflexions “neutres” ou de “liberté d’opinion”, ils s’autorisent des attaques ciblées, notamment envers des personnes anonymes — souvent des femmes — à qui ils vouent une obsession à peine dissimulée.
La plateforme, loin d’être un simple espace d’expression, agit comme une véritable chambre d’écho où se construit un imaginaire masculiniste globalisé. Des figures américaines comme Andrew Tate (millions de vues malgré de multiples bannissements)et Jordan Peterson (8,6 millions d’abonnés) y prospèrent. Tous deux diffusent, à des degrés divers, une idée commune : celle d’un homme dépossédé de son pouvoir, qu’il s’agirait de reconquérir. Mais plus inquiétant encore : ces contenus s’accompagnent régulièrement de cyberharcèlement ciblé — contre des militantes féministes, des influenceuses, des journalistes — sans réelle sanction. La haine y est donc non seulement visible, mais tolérée.
Dans cette constellation, une figure française tire son épingle du jeu : Thaïs d’Escuffon. Ancienne porte-parole de Génération Identitaire, elle s’impose aujourd’hui sur YouTube comme l’une des voix féminines les plus visibles d’un conservatisme “décomplexé”.
Débat « Féministe vs Antiféministe » entre Thaïs d’Escufon et Mélissa Amnéris, publié sur la chaîne YouTube de Carla Ghebali le 3 janvier 2025.
Thaïs d’Escuffon, une vitrine féminine pour l’ordre patriarcal
Mais qui est-elle vraiment ? Ancienne porte-parole de Génération Identitaire — un mouvement dissous pour incitation à la haine — la jeune femme de 25 ans s’est imposée comme une figure montante de la sphère conservatrice française. À travers ses vidéos léchées et ses interventions médiatiques, elle défend une vision ultraconservatrice du monde, prônant le retour à un “ordre naturel” où les femmes retrouveraient leur rôle d’épouses et de mères. Par sa posture de “voix dissidente ”, elle s’oppose frontalement au féminisme, qu’elle accuse de détruire les repères traditionnels et évoque un prétendu “matriarcat” occidental responsable de la détresse masculine. Ce discours séduit, notamment les jeunes hommes en quête de repères, de clarté, et parfois… de domination.
Comment expliquer qu’une figure aussi clivante parvienne à fédérer une audience fidèle, parfois admirative ? Qu’a-t-elle de si singulier pour incarner, aux yeux de certains, un modèle à suivre ? C’est simple : elle incarne ce que les partis d’extrême droite tentent de construire depuis des années sur Internet. Une nouvelle génération de militantes, jeunes, urbaines, éduquées, qui parlent le langage des réseaux. En s’appuyant sur des profils comme le sien, l’extrême droite parvient à réenchanter son récit. Finis les discours poussiéreux d’anciens militants en costume-cravate. Place aux vlogs, aux shorts TikTok, aux slogans calibrés pour buzzer. L’image compte autant que le fond — et parfois plus.
Et surtout, ces partis ont compris une chose essentielle : quand les médias traditionnels suscitent de la méfiance, les influenceurs inspirent de la confiance. Ils créent du lien, de l’intimité, une impression de sincérité. Et cette proximité émotionnelle est un canal redoutablement efficace pour faire passer les idées les plus radicales — sans jamais en avoir l’air.
Invitée dans de nombreuses émissions en ligne, largement relayée sur les réseaux, elle fascine autant qu’elle dérange. On clique pour comprendre, pour juger, pour débattre. Mais c’est précisément là que réside le danger : notre curiosité fait tourner l’algorithme, et l’algorithme normalise. Ce qui, pour beaucoup, reste une simple provocation finit par devenir une opinion admise. Et pour les publics les plus vulnérables, les moins armés pour décoder ces discours, cette radicalité déguisée en bon sens devient une évidence.
Image tirée de la série à succès « Adolescence », sortie le 13 mars 2025 sur Netflix, créée par Jack Thorne et Stephen Graham, et réalisée par Philip Barantini.
Une violence bien réelle pour une réponse encore timide
Ce glissement progressif de la provocation à la normalisation n’est pas sans conséquences. Car ces discours ne restent pas confinés à l’écran : ils façonnent les interactions, orientent les comportements et finissent par redéfinir les normes du débat.
Aujourd’hui, toute prise de parole perçue comme « anti-traditionnelle » s’expose à une remise en question systématique, voire à des campagnes de discrédit. L’objectif est souvent le même : rendre invisibles les discours contradictoires et favoriser un espace numérique où seules les idées réactionnaires circulent librement. Ces communautés fonctionnent comme des bulles fermées : plus on y adhère, plus leur vision du monde paraît dominante et plus il est difficile d’en sortir.
L’anonymat favorise cette dynamique, et les plateformes, elles, peinent encore à répondre efficacement. Cela entraîne, pour les publics les plus vulnérables, un risque accru de harcèlement qui peut conduire à des conséquences dramatiques.
Dans ce contexte, la responsabilité des grandes plateformes numériques (GAFAM) est de plus en plus questionnée. Cette responsabilité est d’autant plus problématique que certaines plateformes comme le X d’Elon Musk et le Facebook de Mark Zuckerberg revendiquent une liberté d’expression qui se traduit par une absence totale de modération; en témoigne leurs récentes prises de position au sujet des politiques de modération de leurs réseaux respectifs.
En réaction à cette atmosphère délétère, certaines œuvres participent à une prise de conscience. La mini-série britannique « Adolescence« , diffusée sur Netflix depuis mars 2025, illustre avec justesse les conséquences de la radicalisation numérique. Créée par Jack Thorne et Stephen Graham, elle interroge les effets néfastes des réseaux sur la jeunesse. Un signal fort : elle a été saluée par le Premier ministre Keir Starmer, qui a recommandé sa diffusion en milieu scolaire.
1 Reformulations synthétiques inspirées des discours fréquemment observés sur les forums Incels. Ces expressions ne sont pas des citations directes, mais plutôt des représentations des sentiments et opinions couramment exprimés au sein de ces communautés.
La loi n°2005-102 du 11 février 2005, intitulée « Égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées », a marqué un tournant majeur dans la reconnaissance des droits des personnes en situation de handicap en France. En consacrant le principe d’accessibilité généralisée, elle impose aux établissements recevant du public, y compris les lieux culturels, d’adapter leurs infrastructures et leurs services afin de garantir un accès équitable à tous. Cette exigence s’inscrit dans une démarche plus large de démocratisation culturelle, une ambition portée en France depuis André Malraux. Elle a conduit le secteur culturel à investir massivement dans le développement des relations avec les publics pour rendre la culture accessible à tous (Paredes, 2024). Néanmoins, si des avancées significatives ont été réalisées dans les domaines des arts visuels et du cinéma, le spectacle vivant reste confronté à de nombreux défis en matière d’accessibilité, notamment pour les personnes sourdes, malentendantes, aveugles et malvoyantes. La spontanéité et l’improvisation inhérentes à ce secteur compliquent en effet la mise en place de solutions adaptées. Toutefois, face à ces obstacles, les innovations numériques apparaissent comme une réponse prometteuse, permettant de repenser l’expérience du spectacle vivant pour mieux répondre aux besoins des spectateurs en situation de handicap, mais aussi, en agissant comme un outil de lutte contre les discriminations (Lydia Morlet-Haïdara, 2017). Réalité augmentée, réalité virtuelle, ou encore intelligence artificielle, depuis 2005, le secteur a vu la création de nombreux dispositifs numériques afin d’adapter l’expérience de la scène aux personnes en situation de handicap.
Dans cet article, nous nous interrogeons sur la manière dont le numérique permet aux acteurs du spectacle vivant de favoriser une accessibilité réelle et inclusive pour les personnes en situation de handicap, et ainsi de participer à cet objectif de démocratisation culturelle.
Il s’agira dans un premier temps d’examiner les différents dispositifs numériques déployés pour améliorer l’accessibilité du spectacle vivant, puis d’analyser l’essor des investissements dans ces technologies, qui accompagnent une ouverture croissante du secteur aux personnes en situation de handicap. Enfin, nous mettrons en lumière les limites de cette transition, en soulignant les disparités et les contraintes qui subsistent dans l’adoption de ces outils au service de la démocratisation culturelle.
Numérique et accessibilité dans le spectacle vivant : quels dispositifs ?
Lunettes intelligentes pour les surtitres en direct et la langue des signes
L’utilisation de lunettes intelligentes pour fournir des surtitres en temps réel (sous-titres) et d’autres aides visuelles pendant les spectacles est un développement majeur dans le secteur du spectacle vivant. Expérimentée par la compagnie française Panthea au Festival d’Avignon en 2015, ces lunettes de réalité augmentée projettent les dialogues traduits ou transcrits directement sur l’objectif dans le champ de vision du spectateur, sans obstruer la vue de la scène. Les spectateurs peuvent alors choisir une traduction en langue étrangère, un sous-titrage français « adapté » qui comprend les noms des personnages, des effets sonores ou d’autres indices pour les spectateurs sourds et malentendants. Le même appareil peut également délivrer une piste d’audiodescription via un écouteur connecté, ce qui permet aux spectateurs aveugles ou malvoyants d’entendre en temps réel les descriptions des décors, des costumes et des mouvements sur scène. De plus, ces systèmes peuvent prendre en charge l’interprétation en langue des signes en diffusant un flux vidéo d’un interprète sur les lunettes ou un appareil portable couplé. En permettant de personnaliser l’affichage du texte, les lunettes intelligentes offrent une expérience de visionnement personnalisée pour chaque utilisateur.
Les gilets vibrants pour ressentir la musique
Pour les publics sourds et malentendants, l’utilisation de la technologie vibrante pour transmettre les éléments émotionnels et rythmiques de la musique a été développée. Un exemple marquant est le gilet vibrant SoundX, un appareil portable développé en partenariat avec la Philharmonie de Paris. Le système SoundX utilise l’intelligence artificielle pour convertir les signaux audios en direct en vibrations synchronisées qui sont ressenties sur le torse du porteur. Porté comme un gilet léger ou un sac à dos, il traduit les fréquences musicales en retour tactile, permettant aux spectateurs sourds de ressentir la dynamique d’une symphonie ou d’un opéra sur leur peau. Cela complète les aspects visuels d’une performance (comme regarder des musiciens ou des danseurs) avec une sensation physique directe de rythme et de tempo. Développé à l’origine pour les jeux immersifs, le gilet a ensuite été affiné avec les commentaires d’utilisateurs sourds pour assurer une réponse vibratoire précise sur tout le spectre sonore. À titre d’exemple, à partir de la saison 2024-2025, la Philharmonie de Paris met gratuitement à la disposition des spectateurs malentendants ces gilets vibrants lors de certains concerts. En mettant à disposition ce dispositif multisensoriel, la salle de concert a ouvert ses portes à des auditeurs qui ne pouvaient jusqu’alors pas profiter pleinement des spectacles en direct.
L’audiodescription et la conception immersive pour plus d’accessibilité au théâtre
Pour les publics aveugles et malvoyants, les technologies numériques ont ouvert de nouveaux modes d’engagement avec le spectacle vivant. L’audiodescription, diffusée par des casques sans fil pendant les spectacles, fournit une narration en temps réel des éléments visuels – décors, costumes, mouvements – permettant au public de se faire une image mentale de l’action. Ce service est souvent complété par des visites tactiles, au cours desquelles les spectateurs sont invités à explorer les principaux accessoires et costumes par le toucher avant la représentation. De grandes salles comme le Théâtre du Châtelet combinent ces services avec des programmes accessibles en braille ou en gros caractères, garantissant ainsi une expérience multisensorielle qui va au-delà des dialogues parlés. Parallèlement, les technologies immersives créent d’autres moyens d’accéder aux spectacles. La réalité virtuelle et la vidéo à 360° simulent des expériences théâtrales pour ceux qui ne peuvent pas y assister en personne, tandis que des expositions telles que World Unseen à La Villette en 2024 montrent comment la photographie peut, elle aussi, être traduite en formats tactiles, audio et braille. Conçue en collaboration avec des défenseurs de l’accessibilité, l’exposition offre alors aux visiteurs aveugles et voyants une expérience sensorielle partagée, remettant en question les normes visuelles de la consommation artistique.
Ces innovations numériques illustrent la manière dont les outils numériques ne se contentent pas d’adapter les formats existants aux publics handicapés, mais imaginent également le langage même de l’expérience artistique. Si ces différentes technologies semblent alors se répandre dans de nombreux théâtres nationaux, il convient désormais de regarder si les investissements, le nombre d’acteurs, mais aussi la réception de ces dispositifs sont le signe d’une démocratisation culturelle du secteur aux personnes en situation de handicap.
II. Un investissement dans le numérique qui s’accroît, allant de pair avec une plus grande accessibilité du secteur
Des investissements croissants dans les dispositifs numériques pour personnes en situation de handicap
Outre l’essor d’entreprises et acteurs spécialisés dans le développement de dispositifs numériques (Panthéa, Epson, SoundX), les initiatives en faveur de l’accessibilité numérique dans le secteur culturel se sont multipliées ces dernières années. On peut tout d’abord souligner une nette évolution des budgets dédiés aux projets culturels inclusifs. En Île-de-France, la Direction régionale des affaires culturelles (DRAC) a alloué en 2024 une enveloppe budgétaire de 555 200 euros au programme « Culture et Santé », visant à financer des projets culturels inclusifs et à améliorer l’accessibilité des infrastructures culturelles. Ce fonds a permis de soutenir 17 projets destinés à équiper les lieux culturels en matériel adapté, tels que des casques, des boucles magnétiques ou des lunettes Panthéa. Par ailleurs, le ministère de la Culture et plusieurs régions ont également augmenté leur soutien financier à ces initiatives, révélant une prise de conscience croissante de l’importance de l’accessibilité numérique pour favoriser l’inclusion culturelle. On note à ce titre plusieurs dispositifs visant à subventionner le secteur culturel et promouvoir l’investissement des institutions dans les dispositifs numériques d’accès au spectacle vivant. Le dispositif pour la création artistique multimédia et numérique joue par exemple un rôle clé dans l’accessibilité culturelle, en intégrant des outils innovants comme la réalité augmentée, la réalité virtuelle ou l’audiodescription automatisée. De plus, le plan France Relance, qui vise à moderniser et numériser le secteur culturel, a permis d’accélérer l’adoption de ces technologies par les institutions. Ce programme a notamment encouragé l’équipement des théâtres et opéras en solutions immersives et interactives, facilitant ainsi l’accès aux œuvres pour un public plus large, y compris les personnes en situation de handicap. Ces différents dispositifs témoignent ainsi d’une nette évolution des investissements dans les outils numériques dédiés aux personnes en situation de handicap dans le secteur du spectacle vivant.
Un engagement croissant des institutions culturelles en faveur de l’accessibilité numérique
De plus en plus d’institutions culturelles françaises disposent aujourd’hui d’un des dispositifs numériques cités plus haut. Les théâtres nationaux publics ont en effet largement investi dans les relations publiques pour favoriser l’accès à leur programmation aux personnes en situation de handicap. En ce qui concerne la technologie développée par Panthéa par exemple, on compte en France 23 théâtres, 5 opéras, 3 festivals et 17 compagnies qui en disposent. Parmi eux, le Théâtre du Châtelet offre des places réservées aux personnes à mobilité réduite et propose des lunettes en réalité augmentée en partenariat avec Panthéa et Epson. Selon Olivier Py, directeur du Théâtre du Châtelet, les lunettes connectées sont sans aucun doute un dispositif qui va de pair avec la démocratisation culturelle : « Le Théâtre du Châtelet est le théâtre de tous. Engagés en faveur de l’accessibilité et du changement de la représentation sociale du public, […] les lunettes connectées représentent une possibilité d’avenir incroyable et ouvrent un champ des possibles immense pour des publics toujours plus vastes. »Ces investissements ont de même été constatés dans d’autres grandes institutions culturelles telles que l’Opéra de Paris, ayant largement investi dans les lunettes connectées et les gilets vibrants, mais aussi le Théâtre de la Colline, ayant mis en place d’un programme d’accessibilité comprenant audiodescription et spectacles adaptés en langue des signes française (LSF). Concernant les gilets vibrants, plusieurs institutions culturelles en France ont également investi dans cette technologie pour améliorer l’expérience des spectateurs sourds, malentendants ou autistes. Par exemple, l’Opéra de Montpellier a acquis vingt gilets vibrants, tandis que le Théâtre Silvia Monfort à Paris en a mis cinq à disposition du public. Ces initiatives témoignent ainsi d’une volonté croissante des institutions culturelles vivantes d’intégrer pleinement les publics en situation de handicap à leurs programmations. Toutefois, si ces avancées marquent un progrès significatif, des efforts restent à fournir pour généraliser ces dispositifs et garantir une accessibilité équitable sur l’ensemble du territoire.
Une bonne réception de ces dispositifs par les publics et les institutions
Selon une étude de 2022 de la Fondation Malakoff Humanis Handicap, 75 % des personnes en situation de handicap ont visité au moins une fois par an un lieu culturel au cours des dernières années. Si on l’on se focalise sur le spectacle vivant, on constate une adoption croissante de ces dispositifs par les publics en situation de handicap. Les publics sont globalement très satisfaits de ces dispositifs. Par exemple, l’expérimentation des lunettes connectées lors des 10 représentations de Così fan tutte (opéra de Mozart) au Théâtre du Châtelet a été largement plébiscitée par le public. Chaque soir, la totalité des 27 paires de lunettes mises à disposition a été empruntée. On peut lire plusieurs témoignages de spectateurs à ce sujet : « Je ne peux pas lire les petits caractères. J’ai agrandi les surtitres sur les lunettes connectées et cela m’a permis de lire sans difficulté les surtitres tout au long du spectacle. ». Au sujet des gilets vibrant également : « Les gilets vibrants m’ont permis de ressentir pleinement la musique, une expérience inédite et immersive. » Ainsi,comme le souligne Lydia Morlet-Haïdara (2017), les technologies numériques, en améliorant l’accès au spectacle vivant, constituent un véritable levier pour réduire les inégalités et favoriser l’inclusion des personnes en situation de handicap.
Les institutions culturelles et les collectivités locales, quant à elles, reconnaissent la nécessité d’intégrer ces technologies à leurs relations et accueils des publics, tel qu’en témoigne l’engagement croissant des institutions en faveur de l’accessibilité par le numérique. La numérisation du spectacle vivant est perçue comme un vecteur d’inclusion essentiel qui, loin d’être une simple tendance, constitue une transformation profonde et durable du paysage culturel. Toutefois, comme le souligne Nathalie Pinède (2022), si le numérique constitue une opportunité majeure pour l’inclusion des personnes en situation de handicap, il peut aussi générer de nouvelles formes d’exclusion lorsque l’accessibilité n’est pas pleinement prise en compte.
III. Néanmoins, des dispositifs encore sous et inégalement mobilisés dans le secteur du spectacle vivant au service de la démocratisation culturelle
Un inégal accès à ces dispositifs numériques dans le secteur (contraintes budgétaires)
Bien que le secteur du spectacle vivant manifeste un intérêt croissant pour le potentiel de la transformation numérique en tant qu’outil de démocratisation culturelle (Paredes, 2024), la concrétisation de cet intérêt se heurte à un accès inégal aux dispositifs numériques, principalement en raison de contraintes budgétaires significatives. Les petites structures et les compagnies indépendantes, caractérisées par des marges financières réduites, éprouvent des difficultés considérables à investir dans des technologies avancées et souvent coûteuses, telles que les lunettes connectées pour le surtitrage et l’audiodescription développés par Panthea. Comme le soulignent nos interlocuteurs de Panthea, « Si l’institution a peu de budget, elle ne va pas se tourner vers notre offre de lunettes connectées, car trop cher ». Ces outils, pourtant essentiels pour l’inclusion des publics en situation de handicap (Deizot, Petr, 2020), représentent un investissement initial et des coûts de maintenance substantiels, limitant leur adoption à une partie restreinte du secteur.
Deux autres facteurs peuvent expliquer ces inégalités d’accès. Premièrement, bien que des mécanismes de subvention tels que cités précédemment existent, leur efficacité est atténuée par une méconnaissance persistante de leur existence et de leurs modalités d’accès par une part importante des acteurs du secteur. En effet, en 2016, plus de la moitié des établissements (51,8 %) ignoraient l’existence de l’appel à projets « Services numériques culturels innovants », et cette méconnaissance a même augmenté en 2021 où 75% des établissements sollicités ne connaissaient pas l’appel à projet (Deizot, Petr, 2020). Cette asymétrie d’information entrave la capacité des structures les plus nécessiteuses de bénéficier d’un soutien financier pour développer des solutions numériques innovantes au service de la démocratisation culturelle. Deuxièmement, l’accès inégal se manifeste également dans la faible intégration d’outils d’accessibilité numérique au sein des plateformes en ligne des lieux de spectacle vivant. Rendre les informations relatives à la programmation, aux horaires et aux services accessibles à tous les types de handicap (visuel, auditif, moteur, cognitif) demeure un défi technique et financier considérable pour de nombreuses structures, qui ne disposent pas toujours des expertises internes ou des ressources externes nécessaires à cet effet.
En dépit d’une prise de conscience croissante de la nécessité éthique et sociétale de rendre le spectacle vivant accessible à un public plus large et diversifié, la réalité budgétaire persistante continue de contraindre les investissements dans les dispositifs numériques spécifiquement dédiés à la démocratisation culturelle, perpétuant ainsi des disparités d’accès au sein du secteur.
La lente intégration de l’IA dans les dispositifs numériques
L’intelligence artificielle émerge comme un outil potentiellement transformateur pour la démocratisation culturelle dans le secteur du spectacle vivant, offrant des perspectives significatives, notamment dans les domaines du surtitrage multilingue et de l’amélioration de l’accessibilité linguistique. Des entreprises comme Panthea explorent activement l’intégration de l’IA dans leurs solutions de traduction et d’adaptation en temps réel, afin de surmonter les barrières linguistiques qui peuvent exclure une partie du public international ou des minorités linguistiques.
Au-delà de l’accessibilité linguistique, l’IA recèle un potentiel considérable dans le domaine de la création et de la diffusion de contenus. Cependant, il convient de souligner que l’IA n’est pas encore une solution universelle et mature pour le secteur du spectacle vivant. La qualité de la traduction automatique pour les œuvres littéraires et artistiques, caractérisées par des nuances culturelles, des jeux de mots et des références spécifiques, nécessite encore des améliorations substantielles et un travail de relecture et de correction humaine demeure indispensable pour garantir une fidélité et une sensibilité adéquates. Comme le précise notre interlocuteur Panthea, pour le moment, l’IA n’est « pas satisfaisante pour des œuvres littéraires » et le « Travail de relecture et de correction pas intellectuellement évident ». De plus, l’adoption et l’intégration efficaces de l’IA au sein des équipes culturelles nécessitent le développement de compétences spécifiques en matière de traitement automatique du langage, d’apprentissage machine et de gestion des données.
La complémentarité envisagée entre l’IA et les autres dispositifs numériques existants (lunettes connectées, gilets vibrants, plateformes de streaming accessibles) offre un potentiel prometteur pour une démocratisation culturelle multiforme et inclusive. Toutefois, la réalisation de ce potentiel nécessite des stratégies claires en matière d’investissement technologique, de formation des personnels et d’évaluation de l’impact sur l’accessibilité et l’engagement des publics.
Une organisation du secteur fragile
Le secteur du spectacle vivant, bien qu’ayant amorcé une transition numérique progressive, demeure fragile dans son organisation interne pour intégrer pleinement les outils numériques au service d’une démocratisation culturelle significative et durable. Un manque structurel de temps, de ressources financières et de compétences numériques spécialisées au sein des équipes constitue un obstacle majeur à la conception, au développement et au déploiement de projets numériques ambitieux et inclusifs. Le manque de formations initiales et continues adaptées aux spécificités du numérique dans le contexte du spectacle vivant, au-delà des compétences traditionnelles en communication et en marketing, freine considérablement l’adoption et l’exploitation efficace des technologies numériques pour atteindre les objectifs de démocratisation culturelle. Bien que la collaboration transversale entre les différents services (médiation, communication, technique, artistique) soit reconnue comme essentielle pour la réussite des projets numériques, sa mise en œuvre effective se heurte souvent à des cloisonnements organisationnels, à des cultures professionnelles distinctes et à une absence de coordination stratégique au niveau de la direction des structures. La pérennisation des initiatives numériques et leur évaluation systématique et rigoureuse pour mesurer leur impact réel sur l’accessibilité, l’engagement et la diversification des publics demeurent des défis importants pour assurer une démocratisation culturelle durable et significative grâce au numérique. L’absence de cadres d’évaluation partagés, de critères de réussite clairement définis et de ressources dédiées à cette fin limite la capacité du secteur à tirer des enseignements de ses expérimentations et à optimiser ses stratégies numériques au service de la démocratisation culturelle.
Conclusion
L’innovation numérique redessine progressivement le paysage de l’accessibilité des arts du spectacle, en offrant aux personnes souffrant de handicaps sensoriels de nouveaux moyens de participer à des spectacles en direct. Les lunettes intelligentes, les gilets haptiques et les outils audiovisuels immersifs contribuent à un environnement culturel plus inclusif en adaptant les expériences à de divers besoins. Ces technologies ne se contentent pas de compenser les limitations physiques ; elles imaginent activement la manière dont l’art est perçu, interprété et partagé.
Pourtant, l’accessibilité par des moyens numériques reste inégale d’un lieu à l’autre et dépend largement de l’engagement institutionnel et du financement public. Le secteur des arts du spectacle doit continuer à combler ces lacunes s’il veut parvenir à une véritable démocratisation culturelle. Il est encourageant de constater que des tendances similaires peuvent être observées au-delà de la scène : les musées, les cinémas et même la radiodiffusion publique intègrent de plus en plus une conception numérique accessible. Le défi à relever consiste à maintenir cette dynamique et à faire en sorte que l’accessibilité ne soit pas considérée comme une exception, mais comme une composante essentielle de l’expérience artistique.
ARCHIMBAUD Marie, DURAND Anna, JARROUSSE Solène.
Bibliographie :
Écrits scientifiques
Denizot, Marion, et Christine Petr. « Services numériques à destination des publics des théâtres. » Culture et recherche 134 (hiver 2016-2017) : 16-19. https://hal.archives-ouvertes.fr/hal-02426390/.
Paredes, Monica. L’utilisation du numérique dans le spectacle vivant : l’appropriation de l’œuvre à partir d’un dispositif de médiation culturelle. Thèse de doctorat, Université Rennes 2, 2023. https://tel.archives-ouvertes.fr/tel-04468938/.
Entretien à distance en visioconférence réalisé en février 2025. Échange avec trois collaborateurs de l’entreprise Panthéa.
Compte rendu de l’entretien
Introduction L’entretien a permis d’explorer les principales orientations et évolutions du domaine du surtitrage dans le spectacle vivant, en particulier à travers l’expérience et les innovations d’une entreprise spécialisée. Cet échange a mis en lumière les enjeux liés à l’accessibilité culturelle, l’impact des technologies émergentes et les défis économiques et institutionnels rencontrés par cette structure.
Présentation de l’entreprise et de ses activités L’entreprise interrogée s’est développée autour du surtitrage de spectacles, avec une expertise en traduction et découpage du texte. Progressivement, elle a étendu son offre en intégrant des solutions d’accessibilité, notamment des lunettes connectées permettant l’affichage de surtitres et de vidéos en langue des signes. Une attention particulière est portée aux besoins des spectateurs malentendants ou malvoyants.
L’entreprise se structure autour de trois axes principaux :
Le surtitrage traditionnel, qui représente environ 90 % de son activité.
L’accessibilité, avec des solutions innovantes pour répondre aux besoins des spectateurs en situation de handicap (LSF, audiodescription).
Le développement de logiciels spécifiques, permettant une gestion simplifiée et centralisée du surtitrage sur différents supports.
Évolution du marché et impact de la pandémie L’entretien met en évidence une certaine stagnation du marché du surtitrage traditionnel, bien que l’accessibilité culturelle prenne de plus en plus d’ampleur. La pandémie a marqué un tournant en ralentissant l’expansion internationale et en accentuant une tendance au repli régional des festivals et institutions. Malgré cela, la sensibilisation croissante des institutions aux enjeux d’accessibilité constitue un levier de développement.
L’apport des nouvelles technologies et l’intelligence artificielle L’entreprise explore l’intégration des outils de traduction automatique, bien que leur pertinence soit encore discutée dans un contexte artistique exigeant. L’usage d’intelligences artificielles telles que DeepL ou Mistral est envisagé, mais la nécessité de corrections humaines reste prépondérante, notamment pour préserver la qualité du surtitrage.
Relation avec les institutions et modèle économique L’approche de l’entreprise repose sur une collaboration étroite avec les institutions culturelles, en adaptant ses solutions aux contraintes budgétaires et techniques de chaque structure. L’objectif est d’offrir des services sur mesure, plutôt que d’imposer une technologie standardisée.
Expérience utilisateur et accessibilité Les retours des spectateurs sur les lunettes connectées montrent un intérêt pour cette innovation, mais également des contraintes ergonomiques (poids, confort). L’entreprise cherche à améliorer ces dispositifs grâce à des ajustements techniques et en intégrant les retours des usagers. Un travail de concertation avec des experts en accessibilité et des associations spécialisées permet d’affiner ces solutions.
Perspectives et développement international Bien que le cœur d’activité reste le spectacle vivant, des réflexions sont en cours pour élargir les champs d’application, notamment dans d’autres secteurs culturels. Cependant, des contraintes de concurrence et de spécificité du marché rendent cette diversification complexe. L’entreprise reste ouverte aux collaborations, notamment avec des acteurs internationaux, pour répondre aux particularités linguistiques et culturelles de chaque projet.
Conclusion L’entretien a permis d’exposer les dynamiques actuelles du surtitrage dans le spectacle vivant, entre tradition et innovation technologique. L’entreprise interrogée se positionne comme un acteur engagé dans l’accessibilité culturelle, tout en maintenant une exigence qualitative forte. Les défis restent nombreux, notamment en termes d’ergonomie, d’intégration des nouvelles technologies et de financement des solutions inclusives. Cependant, les perspectives d’évolution, portées par une sensibilisation croissante des institutions et des publics, ouvrent la voie à de nouvelles opportunités.
Depuis l’irruption de TikTok dans le paysage numérique mondial, les vidéos courtes au format vertical (9:16) ont profondément remodelé les usages, les esthétiques et les récits sur les réseaux sociaux. Pensé nativement pour le smartphone, ce format a séduit par sa simplicité, sa rapidité de consommation et son potentiel viral, avant d’être adopté par l’ensemble des grandes plateformes.
Bien avant TikTok, Vine ou Musical.ly avaient déjà expérimenté la verticalité. Mais aujourd’hui, c’est une véritable normalisation du format vertical qui s’impose : Instagram a lancé ses Reels, YouTube ses Shorts, Facebook ses vidéos verticales autoplay. Ce glissement stratégique, centré sur la vidéo mobile, n’a pas toujours été bien accueilli. Instagram, notamment, a été critiqué dès 2022 pour avoir modifié son algorithme au détriment des contenus photo, et la controverse persiste en 2025 avec l’apparition du format vertical sur les grilles de profil, une rupture symbolique dans une plateforme historiquement attachée au carré.
Cependant, réduire cette évolution à une simple logique algorithmique ou de design serait insuffisant. Le format vertical transforme en profondeur la fabrique des images, impose une esthétique propre, et fait émerger de nouvelles formes narratives, souvent brèves, remixables, et standardisées. L’enjeu est alors d’interroger les conséquences de cette mutation : le format vertical facilite-t-il une plus grande créativité ou participe-t-il à son homogénéisation ?
Le smartphone comme studio : produire est à portée de main
Le fait que le format vertical se soit imposé comme standard sur l’ensemble des plateformes n’a rien d’un hasard. Si le format horizontal dominait historiquement l’univers audiovisuel, du cinéma à la télévision, c’est bien le vertical qui s’impose aujourd’hui comme le plus adapté à l’usage mobile. En effet, 94 % des utilisateurs tiennent leur téléphone à la verticale, et plus de 75 % du contenu vidéo est désormais consommé sur mobile.
Au-delà des usages de consommation, le smartphone a facilité une réappropriation massive de la création d’image. Aujourd’hui, toute personne possédant un smartphone peut filmer, monter, publier — en solo et en mobilité. Cette démocratisation technique a redéfini les codes de la production visuelle. Les cadrages sont désormais rapprochés, les plans face caméra et le contenu est pensé pour le scroll. L’image devient spontanée, personnelle, immédiate.
Unsplash
Une logique visuelle influencée par les plateformes
La logique du format vertical a aussi profondément affecté le champ publicitaire. Les marques s’alignent sur les codes des contenus “organiques”, produits par les utilisateurs, pour toucher une audience plus réceptive à l’authenticité qu’à la mise en scène. D’après une étude relayée par Embryo, les vidéos verticales augmentent le taux de mémorisation de la marque jusqu’à 90 %, contre 69 % pour les vidéos horizontales. C’est dans cette dynamique que certaines marques ont adapté leur stratégie sur les réseaux sociaux.
C’est le cas par exemple de la marque Jacquemus qui, en partenariat avec Apple, a enregistré et diffusé un défilé et une série de vidéos filmées exclusivement à l’iPhone, adoptant pleinement l’esthétique sociale. Si dans leur cas c’est surtout le format et la captation qui sont natifs aux réseaux sociaux, on peut voir de plus en plus de contenu publicitaire qui reprend les codes des réseaux et s’affranchit des logiques publicitaires traditionnelles.
En plus d’être plus engageant, ce type de contenu est aussi moins cher à produire, ce qui n’est pas négligeable lorsqu’on parle de campagnes globales, particulièrement dans un monde où l’on n’a jamais produit autant d’images. D’après Buffer et Animoto, non seulement les contenus moins léchés et plus « DIY » coutent moins cher, mais performent mieux sur les réseaux.
Buffer
CapCut, Edits – quand l’outil devient stratégique
La diffusion du format vertical est indissociable du développement d’outils de montage accessibles. L’exemple de CapCut, édité par ByteDance (TikTok), est emblématique : avec plus de 200 millions d’utilisateurs actifs par mois, il offre une panoplie de filtres, transitions et effets préformatés pour accompagner la production rapide de vidéos engageantes. Grâce à ce genre d’outils, tout le monde peut devenir créateur de contenu. On a pu s’apercevoir de l’importance de ces derniers en début d’année, lors de l’interdiction temporaire de TikTok aux États-Unis. Propriété de ByteDance, l’application CapCut a également été interdite, révélant la dépendance de nombreux créateurs à cet outil, même en dehors de TikTok.
Dans ce contexte, Meta a annoncé le lancement d’Instagram Edits, une application intégrée de montage destinée à concurrencer CapCut. Il s’agit pour Instagram de retenir ses créateurs en leur fournissant des outils natifs, tout en maîtrisant davantage le cycle de création. Cette “guerre des outils” reflète l’importance stratégique de la fabrique des images dans ces économies contemporaines.
Une esthétique propre au format vertical
La généralisation du format vertical s’accompagne de nouvelles pratiques gestuelles et visuelles. Tournées à bout de bras, les vidéos ont un cadrage resserré et une nouvelle composition de l’image s’impose. Le regard direct à la caméra crée une proximité inédite avec le spectateur. Le montage sur mobile favorise des techniques spécifiques : jump cuts, transitions manuelles (main sur l’objectif, rotation, etc.), textes incrustés, musiques virales.
Ces éléments sont devenus des signes esthétiques largement reconnaissables. Ils permettent à chacun de produire des contenus au rendu homogène, rapidement identifiables et partageables dans un flux de vidéos quasi-ininterrompu.
La facilité technique favorise une temporalité de production accélérée. Filmer, monter, publier se fait dans une même séquence, souvent depuis un seul espace : le smartphone. Le contenu est pensé pour le scroll, pour un visionnage court, rapide, fluide. L’immédiateté remplace la planification, et le montage devient un geste quotidien plus qu’un processus éditorial.
Standardisation algorithmique et contraintes créatives
Si la création semble aujourd’hui à portée de main, elle s’inscrit aussi dans une logique algorithmique qui conditionne sa diffusion. Les plateformes favorisent les contenus qui retiennent l’attention ou génèrent des interactions. En effet, les vidéos verticales génèrent jusqu’à 2 à 3 fois plus d’engagement que les vidéos horizontales sur des plateformes comme Instagram (Buffer). Cela pousse les créateurs à reproduire les “recettes” gagnantes : même format, même rythme, mêmes musiques ou effets visuels.
Cette dynamique crée une forme d’homogénéisation des contenus : la viralité devient un enjeu de conformité. Les formats audiovisuels populaires sont reproduits en masse ; les variations sont souvent superficielles. Au-delà des trends temporaires, de nombreux formats ou concepts sont très rapidement exportés et reproduits dès qu’ils sont identifiés comme « efficaces ». Il en résulte un paradoxe : jamais la création n’a été aussi accessible, et pourtant les contenus tendent à se ressembler de plus en plus.
Une tension entre codes dominants et tentatives de singularisation
Cette tension entre standardisation et créativité est au cœur des débats contemporains sur les formats courts. D’un côté, les codes dominants assurent la visibilité. De l’autre, ils peuvent limiter l’inventivité. Certains créateurs choisissent de contourner ou de détourner ces normes. L’esthétique lo-fi, par exemple, propose une alternative visuelle plus brute, revendiquant une forme d’authenticité dans l’imperfection.
Des marques comme Burberry ont misé sur cette stratégie, en produisant des contenus volontairement décalés : image instable, narration sans effets, rendu minimaliste. D’autres expérimentent avec des formats plus lents, des effets inattendus, ou une narration plus fragmentée. Bien que pas forcément virales ou adoptées globalement, les campagnes innovantes et créatives qui détournent les codes des réseaux sociaux ressortent tout de même du lot, probablement parce qu’il est plus facile de se distinguer dans un flux homogène. Ces pratiques restent minoritaires, mais elles rappellent que l’espace créatif subsiste, même dans un environnement hautement normé.
Quel avenir pour la création verticale ?
Avec un tel rythme de production et une forte normalisation des formats, on peut légitimement s’interroger sur la manière dont l’intelligence artificielle contribuera à la pérennité de ce type de récit. À une époque où les agences de communication et de publicité promeuvent des stratégies fondées sur un flux continu de contenus, l’IA apparaît comme un allié incontournable pour soutenir un tel volume de production.
Reste à savoir si, entre les codes standardisés des réseaux sociaux et le fonctionnement de l’IA — largement basé sur l’imitation et la réutilisation de contenus existants —, il sera encore possible de produire des formes véritablement créatives et innovantes dans les années à venir, ou si l’on assistera à une forme de recyclage infini des mêmes formats, effets et récits.
Une chose est certaine : le format vertical n’est ni un simple support technique, ni un vecteur neutre. Il véhicule des logiques culturelles, économiques et esthétiques qu’il convient d’interroger dans leurs effets à long terme sur la création contemporaine.
Dans quelles mesures les chambres d’écho des médias d’extrême droite participent au déplacement de la fenêtre d’Overton ?
Le 28 janvier dernier, le ministre de la Justice, Gérald Darmanin était l’invité de Pascal Praud sur la chaine CNews pour évoquer les solutions qu’il souhaitait mettre en place pour lutter contre la délinquance. A cette occasion, le présentateur de l’émission controversé l’heure des pros, pose à son invité la question suivante :« Est-ce que vous avez pensé à rouvrir les bagnes ? ». Bien que ces propos puissent sembler particulièrement choquants voir hors du domaine de l’entendable ils participent à un mécanisme bien connu des sciences politiques : celui de déplacer la fenêtre d’Overton. La fenêtre d’Overton définit le périmètre de ce qui peut être dit au sein d’une société, c’est-à-dire les idées qui sont jugées acceptables par une population. A l’extérieure de cette fenêtre, se trouvent les idées radicales rejetées par la majorité d’une population. A l’image de la société, la fenêtre d’Overton n’est pas figée, elle correspond au cadre du dicible dans une société donnée à une époque précise. C’est ainsi qu’elle se déplace au gré de l’évolution des normes et des valeurs au cours d’un processus lent mais certains acteurs du monde médiatique et numérique œuvrent à déplacer cette fenêtre.
Chambres d’écho et bulles de filtres : de quoi parle-t-on ?
Dans ce processus, les chambres d‘échos et en particulier celles des sphères de l’extrême droite sont régulièrement pointées du doigts mais nous pouvons nous interroger sur leur réel impact dans le déplacement de la fenêtre d’Overton. Les chambres d’échos médiatiques désignent, une situation dans laquelle l’information, les idées, ou les croyances sont amplifiées ou renforcées par la communication et la répétition dans un système défini. Ce phénomène repose sur l’amplification : plus une infirmation est partagée, plus elle semble crédible et ceci qu’elle soit avérée ou totalement erronée. Les chambres d’échos sont souvent associées aux bulles de filtres qui sont un concept développé par Eli Pariser dans son ouvrage The Filter Bubble publié en 2011. Ce phénomène représente selon lui « l’univers personnel d’informations » qui nous est proposé par des filtres personnalisés sur les réseaux sociaux, mais également des moteurs de recherche. En d’autres termes, la personnalisation des contenus sur les réseaux sociaux au moyen des algorithmes, principe inhérent de ces plateformes, qui a pour but de maximiser l’engagement des utilisateurs limiterait l’exposition à des opinions divergentes et donc renforceraient le mécanisme des chambres d’échos.
Néanmoins de nombreuses études relativisent leur importance et notamment celles de Fletcher et al. intitulé How Many People Live in Politcally Partisan Online News Echo Chambers in Différent Countries concluant qu’en réalité seulement 5% des internautes se retrouvent réellement dans des écosystèmes médiatiques partisans fermés.
En réalité, les algorithmes des réseaux sociaux ne peuvent pas expliquer à eux seuls le déplacement de la fenêtre d’Overton car ils ne peuvent pas être complètement décorrélés des préférences des individus qui ont toujours existées et ce bien avant l’arrivée des réseaux sociaux. Ce que nous expose Alex Bruns dans « Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem »est que l’homophilie se donne à voir depuis longtemps dans les sociétés et n’est pas une nouveauté liée au monde numérique. Les individus ont toujours préféré être exposés à des contenus résonnant avec leur système de valeur et leurs idéologies, les réseaux ont juste permis de massifier l’accès à des contenus préférentiels. Finalement comme nous le dit Dominique Cardon « la bulle c’est nous qui la créons » en choisissant nos amis, nos sources et nos médias.
Bien que l’impact réel des bulles de filtres soit remis en cause par de nombreuses études, le phénomène des chambres d’échos dans les sphères d’extrême droite n’est pas complètement à mettre de côté pour autant. En effet, en analysant le fonctionnement des algorithmes des réseaux sociaux, nous voyons que les contenus qui suscitent le plus d’interactions sont ceux que l’algorithme va davantage mettre en avant.
C’est ainsi que les contenus les plus clivants et les tweets choquants sont ceux qui suscite le plus d’interactions que ce soit de likes et de partage d’utilisateurs d’accord ou de débats dans les commentaires entre utilisateurs qui ne partagent pas les propos avancés. Ceci contribue alors à la mise en avant sur la plateforme de déclarations racistes, sexistes, homophobe, antisémites et islamophobes faisant partie des thèmes préférentiels de l’extrême droite. Ses contenus relayés massivement et s’appuyant souvent sur des mauvaises informations ou des fausses informations finissent par rendre audibles des idées jusqu’ici impensables et donc contribuent à déplacer la fenêtre d’Overton. Ce mécanisme pourrait même se voir amplifier dans les prochains mois avec la bascule en train de s’opérer sur les utilisateurs de X.
Twitter sous Elon Musk : un laboratoire algorithmique pour l’extrême droite mondiale.
Depuis son rachat par Elon Musk en octobre 2022, Twitter (rebaptisé X) a connu une transformation radicale de ses politiques de modérations, de ses algorithmes de recommandation et de son positionnement idéologique. Celui qui s’autoproclame « défenseur absolu de la liberté d’expression » – qualificatif lui permettant de faire la promotion de discours anti-démocratiques et en opposition avec les principes essentiels du droit international – a mis fin à de nombreux mécanismes de régulations internes. Parmi eux nous pouvons citer la suspension du conseil de sécurité, le licenciement des équipes chargées de la modération de contenus haineux ou encore la réactivation de nombreux comptes précédemment bannis pour incitation à la haine, désinformation ou propos violents (Donald Trump, Andrew Tate, …).
Ceci a entrainé une désertion massive de personnalités modérées, progressistes ou journalistiques, dénonçant l’augmentation des discours de haine et le manque de sécurité pour les utilisateurs vulnérables, laissant alors la plateforme entre les mains de l’extrême droite. Désormais des figures comme Jordan Peterson, Tucker Carlson ou encore Éric Zemmour ont pignon sur rue et la visibilité de leurs contributions est démultipliée par les logiques algorithmiques. Ce phénomène est accentué par des stratégies d’astroturfing : des campagnes coordonnées de désinformation menées par des comptes automatisés ou semi-automatisés, qui se chargent de relayer massivement certains contenus pour leur donner l’illusion d’une popularité organique. Les techniques sont diverses : création de faux comptes dédiés au retweet intensif, diffusion de tweets prêts à l’emploi sur des groupes Telegram ou Discord ou encore l’achat de likes ou de retweet manipulant la perception du débat. Dans ce contexte, X est devenu un écosystème favorable à la propagation des idées d’extrême droite qui ne sont pas seulement tolérées, mais parfois récompensées par une exposition accrue. L’effet de chambre d’écho s’en trouve renforcé : les utilisateurs interagissent de plus en plus entre eux dans des réseaux idéologiquement homogènes, où les discours de haine sont validés, partagés et banalisés. Ce rééquilibrage idéologique de la plateforme, combiné à sa logique d’amplification algorithmique, participe ainsi à un déplacement concret de la fenêtre d’Overton : ce qui était hier perçu comme inacceptable ou marginal s’installe aujourd’hui dans le débat public comme une opinion « controversée mais légitime ».
CNews et la « stratégie Bannon »
La chaine d’information en continu relaie régulièrement un discours longtemps resté à la marge : les bienfaits de la colonisation, la remise en cause du droit du sol ou encore l’ensauvagement des jeunes de banlieues. Mais ce qui en fait une arme redoutablement efficace n’est pas tant la diffusion linéaire de ce genre de propos que la viralisation de ses séquences sur les réseaux sociaux et surtout sur X. Des extraits polémiques deviennent des mèmes, repris parfois par des comptes anonymes mais massivement suivis. On assiste ainsi à une boucle : les idées extrêmes sont lancées à l’antenne, amplifiées par les réseaux sociaux, intégrées dans le top de tendances twitter, reprises par des médias traditionnels… puis validées comme débat légitime. Cette volontée d’inonder l’espace public a été théorisé par un ex-conseiller de Donald Trump, Steve Bannon, par la maxime suivante : « Flood the zone with shit ». Cette phrase sert à présenter une stratégie de chaos informationnel ou l’espace public est saturéde contenus radicaux ou confus, afin de rendre audibles des idées jusqu’ici impensables. Cette stratégie, basée sur la répétition et l’outrance, s’exporte et trouve un terrain fertile sur les réseaux sociaux. C’est très certainement cela qui a inspiré Donald Trump lorsqu’il a déclaré lors du débat contre Kamala Harris que les migrants mangeaient des chiens et des chats.
In Fine qu’en est-il ?
L’effet cumulatif de ces dynamiques – chambres d’écho, amplification algorithmique, astroturfing, légitimation médiatique – contribue bel et bien à rendre certaines idées plus visibles, plus acceptables, voire mainstream. Le glissement du débat sur les retraites, l’immigration ou la sécurité montre que des thématiques jadis cantonnées à l’extrême droite irriguent aujourd’hui le débat politique « classique ». Mais attention aux effets de loupe car l’importance réelle des chambres d’écho est souvent surestimée par les médias traditionnels, qui y voient une menace à leur propre légitimité. Il serait ainsi intéressant de coupler des analyses algorithmiques à d’autres plus sociologique et ce surtout depuis la transformation de X pour mettre à jour les termes de bulles de filtres ou des chambres d’échos en y intégrant d’autres facteurs.
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
Fletcher, R., Cornia, A., Graves, L., & Nielsen, R. K. (2020). How Many People Live in Politically Partisan Online News Echo Chambers in Different Countries?. Reuters Institute.
Portée par l’obsession des chiffres et la puissance des algorithmes, la NBA est devenue le terrain idéal des bookmakers. Entre données ouvertes, marketing personnalisé et paris ultra-segmentés, le joueur est-il encore maître de ses choix ?
“Grosse cote, gros gain, gros respect.”
L’image est flatteuse. Un parieur qui, tel un meneur de jeu sur le parquet, prend ses décisions au millième de seconde. Il scrute les statistiques, analyse les cotes, lit le jeu comme on déchiffre un code. Sur les réseaux sociaux, dans les publicités, cette figure nouvelle s’impose : celle d’un stratège, éclairé par les lumières de la data.
Cette narration bien huilée ne doit rien au hasard. Elle est le fruit d’une mutation profonde du pari sportif à l’ère numérique. Autrefois jeu de hasard à peine déguisé, il s’est mué en un marché ultra-rentable, piloté par des géants discrets mais omniprésents : les opérateurs de paris en ligne, les bookmakers, passés maîtres dans l’art d’exploiter les données.
Et dans ce nouvel échiquier, la NBA occupe une place à part. Plus qu’un simple championnat, la ligue nord-américaine est devenue le laboratoire rêvé de ces acteurs. Parce qu’elle génère une avalanche de chiffres. Parce qu’elle capte une audience jeune, connectée, avide d’analyses et de frissons.
Mais derrière cette illusion de maîtrise, qui tire vraiment les ficelles ? Et si, à force de croire dominer le jeu, les parieurs n’étaient que les figurants d’un scénario écrit par d’autres ?
Qui booste ses gains ?
Une vibration dans la poche, une alerte sur l’écran : « Cotes boostées pour les Sixers ce soir ! » Le geste est devenu banal, presque automatique. Et pourtant, il révèle une transformation profonde. En France, les mises sur les paris sportifs en ligne ont atteint 8,49 milliards d’euros en 2023, en hausse de 2,2 % par rapport à l’année précédente. Le Produit Brut des Jeux (PBJ) – soit la différence entre les mises et les gains reversés aux joueurs – s’est établi à 1,5 milliard d’euros, en progression de 6,4 % selon l’Autorité nationale des jeux (ANJ).
Cette croissance, même sans événement sportif mondial, repose sur une stratégie claire : exploiter les données pour capter, retenir, faire rejouer, même sur des matchs de deuxième division grecque. Et la tendance pourrait se confirmer en 2025, une année sans aucune grande compétition internationale majeure, où la stratégie data-driven des opérateurs sera d’autant plus visible. Le parieur n’est plus un client, c’est un profil. Et chaque profil donne lieu à une infinité de micro-décisions automatisées.
En 2024, les opérateurs ont massivement investi dans le marketing, avec des centaines de millions d’euros consacrés à des stratégies ultra-ciblées. (670 millions d’euros). Chaque euro injecté est optimisé via des modèles prédictifs, pour toucher la bonne personne, au bon moment, avec la bonne alerte. Un ROI positif, automatique, et croissant.
Fan des Lakers ? Vous vibrerez à chaque match… pas seulement pour l’amour du sport, mais parce qu’une alerte viendra vous souffler qu’il est temps de miser. Vibrer pour le jeu, vibrer pour une cote. La frontière s’estompe. Et c’est là que la donnée fait sa loi.
Derrière chaque pari, il y a un chiffre. Derrière chaque chiffre, un algorithme. Le fonctionnement des cotes n’a plus rien d’artisanal. La cote, c’est ce petit chiffre qui semble anodin, mais qui résume toute la mécanique du pari sportif. Elle indique ce que vous gagnerez en cas de victoire, mais elle reflète surtout deux choses : la probabilité qu’un événement se produise… et la marge que s’accorde le bookmaker.
Prenez une cote de 2,00. Elle suggère qu’un événement a 50 % de chances de se produire. Mais dans la réalité, les cotes sont toujours ajustées à la baisse. Pourquoi ? Parce que l’opérateur doit s’assurer de rester bénéficiaire, quelle que soit l’issue. C’est ce qu’on appelle la “marge”. Et cette marge, souvent invisible pour le parieur, est intégrée dans chaque pari.
Prenons un exemple : si Stephen Curry joue contre les Lakers, l’algorithme va croiser ses statistiques passées face à cette équipe, ses performances à domicile ou à l’extérieur, le nombre de jours de repos, la météo s’il y en a une influence, et même l’historique de mises sur ce type de pari. Résultat : une probabilité chiffrée, transformée en cote. Mais surtout, une marge intégrée. Car il ne s’agit pas seulement d’estimer la chance qu’un événement se produise. Il s’agit de s’assurer que, quel que soit l’issue, la maison gagne.
Et si un grand nombre de joueurs se ruent sur une cote, celle-ci est aussitôt ajustée. Non pas parce que l’événement est plus probable, mais parce que le risque devient plus grand pour l’opérateur. C’est un mécanisme de régulation instantanée, géré par des algorithmes qui tournent sans pause. La moindre anomalie de mise, la plus petite variation de volume, déclenche une cascade de recalibrages. Rien n’est laissé au hasard.
Le joueur, lui, croit flairer une opportunité. Il pense avoir repéré une faille, anticipé une logique. Mais il joue sur un terrain modélisé, dans un système dont il ne maîtrise ni les règles, ni les rouages. Il parie avec ses intuitions. L’algorithme, lui, parie avec ses données.
C’est ici que la NBA prend toute sa dimension. Car s’il existe un championnat qui transforme chaque match en mine d’or statistique, c’est bien celui-là. Depuis des années, la ligue nord-américaine est pionnière dans l’analyse de la performance. Chaque mouvement est scruté, chaque tir localisé, chaque joueur quantifié. Points, rebonds, passes, temps de possession, efficacité par zone, tout est compté. Et tout est public.
Les plateformes comme NBA.com/stats ou Basketball Reference rendent accessibles des bases de données autrefois réservées aux analystes professionnels. Le True Shooting Percentage (TS%), le Player Efficiency Rating (PER), l’Offensive Rating… Autant d’indicateurs que les fans et les parieurs peuvent consulter librement. C’est une révolution tranquille : la data est devenue un bien commun.
Mais cette ouverture n’est pas sans arrière-pensée. Plus les données sont visibles, plus elles créent l’illusion de maîtrise. Le parieur pense dominer l’incertitude grâce à des métriques avancées. En réalité, ces chiffres nourrissent surtout des modèles qui, eux, ajustent les cotes à la microseconde. La transparence alimente la sophistication… au profit des opérateurs.
Et avec cette surabondance d’informations, les possibilités de pari explosent. Le nombre de points marqués dans le premier quart-temps. Le nombre de rebonds défensifs d’un joueur. Le pourcentage de réussite à trois points après une pause de deux jours. Chaque micro-événement devient une ligne de pari. Et chaque ligne, une incitation à miser.
La NBA ne vend pas seulement un spectacle. Elle vend un gisement de données. Les bookmakers, eux, les raffinent. Et les parieurs les consomment, convaincus d’être mieux armés que jamais. Mais plus le jeu devient technique, plus il échappe à ceux qui le pratiquent.
Un exemple marquant illustre cette dérive : en avril 2024, Jontay Porter, joueur des Raptors de Toronto, est exclu à vie de la NBA pour avoir intentionnellement manipulé ses performances dans le but de favoriser certains paris sportifs. Il aurait simulé une blessure et réduit volontairement son temps de jeu pour que les cotes sur ses contre-performances soient validées. L’affaire a mis en lumière les zones grises d’un système où même les joueurs deviennent des leviers d’optimisation.
Du côté des parieurs, le basculement peut aussi être brutal. En témoignent les nombreux récits d’addiction.
Sandro, 27 ans, aujourd’hui suivi dans un centre d’accompagnement à Paris, témoigne :
« Je pariais tous les soirs, ou plutôt toutes les nuits sur la NBA. J’avais l’impression de contrôler, de tout comprendre. J’analysais les cotes, les statistiques, je suivais tous les matchs. Et puis j’ai commencé à perdre. Je rejouais pour me refaire. J’ai menti à mes proches, je me suis endetté… »
Derrière les mécaniques ludiques se cache un système redoutablement efficace de captation de l’attention et de l’argent.
Et pendant que les parieurs analysent, les opérateurs affinent. Le marketing des plateformes de paris ne vend plus un produit : il vend un jeu. Un univers clos où l’on collectionne les badges, où chaque pari gagné débloque un bonus, où chaque clic entretient l’illusion de progresser.
C’est peut-être là l’évolution la plus redoutable du pari sportif : sa gamification. Sur Winamax, sur Betclic, l’interface rappelle celle d’un jeu mobile. On mise comme on cliquerait pour passer un niveau. On en oublie parfois que derrière chaque pari, il y a de l’argent réel.
Les notifications ciblées, les cotes « boostées », les défis quotidiens ou les classements entre amis ne sont pas des accessoires. Ce sont des mécaniques de rétention. Comme dans les jeux vidéo : gratification instantanée, compétition entre joueurs, micro-victoires sans fin. Un pari en appelle un autre. Et on ne ferme plus l’appli.
Et cela fonctionne. Le retour sur investissement est colossal. Grâce à ces moyens, les opérateurs savent précisément combien de mises chaque campagne génère, à quel moment, chez quel type de joueur. Ce n’est plus de la publicité : c’est de l’optimisation comportementale.
Même lorsque la NBA se joue à des milliers de kilomètres, le ciblage est local. La plateforme sait que vous êtes en France, qu’il est 20h30, que vous avez déjà parié trois fois cette semaine. Elle sait, et elle agit.
Le parieur, lui, réagit. Mais à chaque étape, son autonomie se réduit.
Car derrière les chiffres, les écrans, les promesses de gain et les illusions de stratégie, le véritable maître du jeu n’est ni le joueur, ni le parieur.
Une publication de @letheatreavecmarie LS/PetitBulletin
Une révolution numérique au service de la culture
En 2017, près de 2.3 milliards de personnes utilisent les réseaux sociaux. Ces derniers « ont ouvert de nouvelles possibilités pour les institutions culturelles de toucher de nouveaux publics et d’engager les communautés en ligne dans un dialogue constructif et interactif » (Gollain, 2017, 18). Facebook, Instagram, Twitter, Snapchat ou encore Youtube : ces outils ont également transformé la manière dont les institutions culturelles communiquent, permettant de nourrir l’interaction et la communication dans le champ du spectacle vivant.
Dans un environnement où dominent formats courts et immersifs, mais également les collaborations avec des influenceurs, ces institutions se trouvent face à la nécessité de repenser leur stratégie de communication pour toucher un public plus large, plus diversifié, et souvent, plus jeune. Les réseaux sociaux sont « un dispositif à travers duquel circule l’information mais aussi à partir de quoi se forment les comportements, les attitudes, les représentations, les objectifs et les pratiques », (Cardon, 2014, 46). Ils sont un système pouvant être qualifié d’hyper-informatif, où le nombre d’usagers explose, et les publications par seconde se comptent en milliers.
Cependant, comment ces institutions peuvent-elles tirer parti de ces outils numériques tout en préservant leur identité artistique et culturelle ? Sur la ligne de crête entre démocratisation numérique et exigence culturelle au service d’une image de marque, comment tenir l’équilibre ?
Les réseaux sociaux permettent une réinvention de la communication institutionnelle. Instagram, TikTok ou YouTube sont devenus des carrefours incontournables de la culture contemporaine. Les créateurs de contenu, souvent perçus comme des prescripteurs modernes, jouent désormais un rôle central dans la diffusion des spectacles vivants. Ce phénomène souligne l’évolution des modes de recommandation, alors que la prescription culturelle s’éloigne des médias traditionnels au profit de nouveaux canaux numériques, influant désormais sur les choix des spectateurs et leur manière de fréquenter, voire “consommer”, la culture.
L’image de l’institution culturelle : entre prestige et accessibilité
Dans le domaine du spectacle vivant, tradition et modernité sont parfois opposées comme deux pôles antagonistes, en phase avec la polarisation actuelle du débat public. Pourtant, certaines institutions parviennent à rapprocher, sinon réconcilier, ces deux dimensions. L’Opéra national de Paris en est un exemple marquant. Thibault Prioul, responsable des réseaux sociaux du navire amiral de l’art lyrique et chorégraphique, met en avant l’importance de rendre l’opéra accessible, sans pour autant sacrifier la qualité artistique. Il considère que les réseaux sociaux jouent un rôle essentiel dans la démocratisation de l’opéra, permettant de rapprocher cet art du public (attirant traditionnellement un public sociologiquement aisé et vieillissant) tout en préservant son attractivité. Cette démarche s’inscrit parfaitement dans la logique des « biens culturels » définis par Karpik (2007), c’est-à-dire des biens d’expérience dont la valeur ne peut être pleinement saisie qu’après avoir été “consommés”. Les influenceurs, par leur capacité à recommander ces œuvres, deviennent des médiateurs qui rendent ces biens culturels plus accessibles. Par conséquent, de nombreuses institutions s’associent à des créateurs de contenu émergents pour ouvrir leurs portes à de nouveaux publics, souvent plus jeunes et moins familiers des formats traditionnels.
L’essor des collaborations entre institutions et créateurs de contenu
Les collaborations entre institutions culturelles et créateurs de contenu se multiplient, et il s’agit désormais d’un levier incontournable pour toucher de nouveaux spectateurs. L’exemple de la Fondation Louis Vuitton, qui a collaboré avec la chorégraphe Josépha Madoki, illustre parfaitement cette tendance. Sa chorégraphie, devenue virale sur TikTok en Chine, a permis à la Fondation de capter un public plus large et de s’inscrire dans une démarche plus inclusive.
Thibault Prioul, responsable des réseaux sociaux de l’Opéra de Paris. Crédits photo : @NewsTankCulture
Si les institutions culturelles s’associent évidemment à des macro-influenceurs, dans une logique de maximisation de leur visibilité, il existe également des “nano-influenceurs”, à l’audience inférieure à 10 000 abonnés. Ce choix stratégique repose sur la conviction que ces nano-influenceurs, en raison de leur proximité avec leur communauté, sont perçus comme plus authentiques et influents. Thibault Prioul le souligne en indiquant que cette proximité favorise une relation plus personnelle et plus engageante avec les spectateurs. Bien que leur audience soit plus petite, leur influence sur les décisions culturelles est significative. Cette dynamique rejoint les travaux de Dutheil-Pessin et Ribac (2018), qui soulignent l’importance de la prescription culturelle informelle, capable de redéfinir les comportements des publics. Ces collaborations étant le plus souvent rémunérées, et les plus gros profils captés par les institutions économiquement plus solides, ces profils plus “approchables” sont également un moyen d’ouverture pour les plus petits établissements.
Pour une typologie des influenceurs en France : la culture à la peine
En France, les influenceurs se classent en plusieurs catégories selon la taille de leur audience. Les micro-influenceurs (moins de 15 000 abonnés), les middle-influenceurs (15 000 à 100 000), les macro-influenceurs (100 000 à 500 000), les top influenceurs (500 000 à 1 million) et les célébrités (plus d’un million) illustrent cette diversité. L’âge moyen des créateurs de contenu est de 34 ans, la majorité d’entre eux ayant entre 19 et 35 ans. Un quart des influenceurs exercent cette activité à temps plein, et les profils comptabilisant plus de 100 000 abonnés peuvent générer des revenus à hauteur de plus de 50 000 € par an. Cependant, la culture y demeure une niche, puisque seulement 10 % des influenceurs s’y consacrent (Reech, 2024).
Ce phénomène est particulièrement visible sur des plateformes comme TikTok, où des créateurs comme Mathis Grosos (alias Dramathis) ont su capter l’attention d’un public jeune et dynamique. Grâce à ses analyses théâtrales empreintes d’humour, Mathis parvient à rapprocher le théâtre des publics non spectateurs des salles, prouvant par là le rôle de ces influenceurs comme prescripteurs de culture, à la manière des critiques ou journalistes traditionnels, mais avec une approche plus engageante et personnelle. En effet, face à une fréquentation en baisse et à la concurrence des divertissements numériques, les théâtres se sont investis dans l’occupation des réseaux sociaux pour renouveler leur audience. Le théâtre souffre du moindre équipement du secteur en termes de prescription, par rapport à d’autres institutions culturelles (Pasquier, 2012) : la sortie au théâtre est en effet une pratique peu répandue dans la population française. En 2018, seuls 21% des Français se sont rendus à une pièce de théâtre, et 4% d’entre eux seulement ont réalisé cette sortie seul(e). (Lombardo et Wolff, 2020). Dès lors, comment déclencher l’envie de se rendre au théâtre ?
L’impact des influenceurs culturels sur les publics
Les influenceurs spécialisés dans la culture jouent un rôle clé dans la démocratisation du spectacle vivant. Ces créateurs de contenu agissent en tant que médiateurs culturels, rendant l’art plus accessible et élargissant ainsi le public. Marie Ballarini (2023) souligne que les influenceurs, par leur ton humoristique et décontracté, réussissent à désacraliser l’art, attirant ainsi des publics moins familiers avec les institutions culturelles. Leur manière unique d’aborder et de décrire les œuvres influence profondément la perception de l’art et encourage leur audience à y participer.
Capture d’écran du profil Instagram de Mathis Grosos, alias @Dramathis
Avec ses 40 000 abonnés sur Instagram (sans compter Tiktok), Mathis Grosos a utilisé sa passion pour le théâtre comme un véritable outil de médiation culturelle. Dans une vidéo publiée en collaboration avec le Théâtre National de la Colline, Mathis commence par évoquer son enfance et son imaginaire d’avoir un ami imaginaire, une stratégie qui capte immédiatement l’attention du spectateur. Il introduit progressivement des éléments du spectacle Golem sans en dévoiler immédiatement le titre. À mi-vidéo, il révèle son partenariat avec le théâtre et explique en détail le spectacle, abordant ses thèmes et les émotions suscitées en lui. Il termine en donnant des informations pratiques comme les dates et lieux de représentation. Cette approche, à la fois personnelle (un ton accessible et décomplexé) et engageante (incarnation du propos par une personnalité publique), démontre comment les créateurs de contenu peuvent façonner la prescription d’un spectacle, et potentiellement influencer les comportements de consommation culturelles de leur public.
Les réseaux sociaux : démocratisation, accesssibilité et avenir du spectacle vivant ?
Pour Thibault Prioul, l’avenir du spectacle vivant passe indéniablement par les réseaux sociaux. « Le public devient un prescripteur essentiel », affirme-t-il, soulignant que la dynamique des spectateurs ayant la possibilité de partager leur expérience sur ces plateformes change la manière dont la culture est diffusée. Le public devient ainsi un ambassadeur de la culture, renforçant l’authenticité des institutions et leur relation avec leurs spectateurs. Ce phénomène de prescription décentralisée et informelle rend l’accès à la culture plus démocratique. Le public, en tant que “prescripteur”, reprend ainsi le rôle traditionnel des critiques et des institutions culturelles, tout en créant un “bouche à oreille” numérique. Cette nouvelle dynamique de prescription culturelle s’opère à travers une interaction directe, immédiate et plus accessible. Un des enjeux majeurs de cette stratégie numérique est de réduire les barrières d’accès au spectacle vivant, qu’elles soient sociales, économiques, symboliques ou culturelles.
Une étude menée par TMN Lab (2015) montre que cette démarche permet de réduire les obstacles sociaux et économiques à l’entrée dans le spectacle vivant, facilitant ainsi l’accès à une plus grande diversité de publics. Ce changement dans les comportements de consommation culturelle traduit un véritable progrès dans l’inclusivité du spectacle vivant, avec un impact positif sur la variété des publics qui y accèdent.
Une stratégie limitée
Malgré ses nombreux avantages, la stratégie des réseaux sociaux et des influenceurs présente également plusieurs limites. L’un des principaux obstacles reste l’impact des algorithmes qui modifient régulièrement la visibilité des contenus. Les institutions culturelles doivent s’adapter constamment à ces évolutions pour rester visibles et atteindre de nouveaux publics. De plus, l’audience des réseaux sociaux est souvent fragmentée et volatile. La viralité d’un contenu ne garantit pas une fréquentation à long terme des événements, ce qui soulève la question de la conversion de l’intérêt numérique en participation réelle. Selon Pasquier (2015), ce passage reste un défi majeur, car la fidélisation des spectateurs est plus difficile à atteindre sur ces plateformes numériques.
En outre, les formats courts et immersifs utilisés sur les réseaux sociaux peuvent produire des contenus éphémères, rapidement remplacés par de nouvelles tendances. Ce phénomène peut rendre difficile la capitalisation sur des contenus culturels à long terme. Les institutions se retrouvent souvent à adopter une stratégie de communication plus immédiate, parfois au détriment d’une réflexion plus profonde sur la pérennité des messages culturels. De plus, la traçabilité des retombées économiques de cette stratégie demeure incertaine. Comme le souligne Mickael Palvin (Le Monde, 2018), si le nombre de vues et de commentaires est un indicateur d’intérêt, il ne permet pas de mesurer précisément les conversions en termes de ventes de billets ou d’augmentation de la fréquentation.
Chartois Inès, de Feydeau Cordélia, Maugars Justine et Roquet Alice
Sources :
Ballarini, M. (2023). La création des contenus culturels sur les médias sociaux : entre médiation et communication, https://hal.science/hal-04085845
Selon le Baromètre de la confiance politique, publié en février 2025 par Sciences Po et OpinionWay, 45 % des Français se disent méfiants à l’égard de leur état d’esprit politique actuel (source). Un chiffre préoccupant, d’autant plus que la confiance reste un pilier fondamental de nos sociétés modernes : elle est au cœur du fonctionnement de la monnaie, de la justice, ou encore des institutions démocratiques.
Cette crise de confiance s’exprime aussi fortement sur les réseaux sociaux. L’exemple le plus frappant est sans doute le rachat de Twitter par Elon Musk, qui a entraîné de profonds bouleversements dans le fonctionnement de la plateforme. La décision la plus controversée a été celle de mettre fin à la régulation telle qu’elle existait auparavant, ouvrant ainsi la voie à un nouveau modèle de gouvernance des contenus.
Ce changement de paradigme n’est pas resté isolé. Il a inspiré d’autres géants du numérique, comme Meta (maison mère de Facebook, Instagram, etc.), à repenser leurs propres mécanismes de modération. C’est dans ce contexte qu’est née l’initiative des Community Notes, une tentative de régulation participative visant à évaluer les publications entre utilisateurs, à la manière d’un jugement collectif.
1. Le fonctionnement de l’algorithme des Community Notes de X
Le système des Community Notes, développé par la plateforme X (anciennement Twitter), constitue une innovation majeure dans le domaine de la modération communautaire. Son objectif est de faire émerger des annotations jugées utiles par des utilisateurs aux opinions diverses, afin d’apporter du contexte aux publications susceptibles de prêter à confusion (source). Ce modèle repose sur une combinaison d’évaluations humaines et d’algorithmes inspirés des systèmes de recommandation, notamment la matrix factorization.
Un algorithme fondé sur l’utilité perçue
Chaque note rédigée par un contributeur est soumise à l’évaluation d’autres participants, qui peuvent la juger « utile », « quelque peu utile » ou « inutile », correspondant respectivement à des scores numériques de 1.0, 0.5 et 0.0. Ces évaluations alimentent une matrice d’interactions, que l’algorithme utilise pour prédire la pertinence des notes selon les profils des évaluateurs.
L’équation principale du modèle est la suivante :
r̂un = μ + iu + in + fu ⋅ fn
où :
r̂un est la note prédite entre l’utilisateur u et la note n,
μ est une constante globale,
iu et in sont les biais de l’utilisateur et de la note,
fu et fn sont leurs vecteurs de facteurs latents.
C’est la valeur in — appelée intercepte de la note — qui détermine son utilité perçue globalement. Une note est classée :
Helpful (utile) si in > 0.40
Not Helpful (inutile) si in < -0.05 - 0.8 × |fn|
Needs More Ratings si aucun critère n’est rempli
Une validation inter-perspectives
Pour qu’une note soit validée comme Helpful, elle doit être jugée utile par au moins cinq utilisateurs de perspectives opposées (selon leurs facteurs latents). Cette contrainte garantit une forme de validation croisée entre points de vue divergents, réduisant ainsi les effets de chambre d’écho ou de manipulation de groupe.
Fiabilité des contributeurs
Les utilisateurs ne participent pas tous avec le même poids : leurs contributions sont pondérées par des scores de fiabilité, répartis en deux catégories.
Score d’auteur
Ce score est basé sur :
Un ratio pondéré entre le pourcentage de notes devenues Helpful et Not Helpful :
Score = P(Helpful) - 5 × P(Not Helpful)
Une moyenne des scores in des notes précédentes. Pour être éligible, un auteur doit avoir un score supérieur à 0 et une moyenne in > 0.05.
Score d’évaluateur
Ce score évalue la capacité d’un utilisateur à prédire correctement le verdict final d’une note. Il est défini ainsi :
Rater Helpfulness = (s - 10 × h) / t
s : nombre de votes conformes au statut final
h : nombre de votes « Helpful » attribués à des notes abusives
t : total des votes valides
Un évaluateur doit avoir un score ≥ 0.66 pour que ses votes soient pris en compte dans le scoring final.
Mécanismes anti-manipulation
Le système prévoit également des protections contre les abus :
Si une note reçoit de nombreux signalements négatifs émanant d’un groupe idéologiquement homogène, elle devra franchir un seuil plus élevé pour être validée.
Un modèle externe détecte les cas de harcèlement ou d’abus. Les auteurs soutenant une note jugée abusive peuvent être pénalisés.
Un mécanisme de stabilisation fige le statut d’une note deux semaines après sa publication, pour éviter les fluctuations liées à de nouvelles évaluations marginales.
Ce système hybride et algorithmique incarne une nouvelle approche de la modération : à la fois participative, scientifique et transparente, il cherche à équilibrer pluralité d’opinions, qualité de l’information, et lutte contre la désinformation à grande échelle.
2. La blockchain comme alternative trustless : le cas du Proof of Stake
Comme nous l’avons vu dans la partie précédente, le système des Community Notes, bien qu’élaboré et transparent dans ses objectifs, reste fondamentalement fermé. Toute la logique de validation tourne autour de son propre algorithme, de sa communauté restreinte de contributeurs, et d’un score calculé à partir de modèles internes. Or, en parcourant le code source du projet, il semble clair qu’il n’existe aucun lien direct entre les notes et les conséquences concrètes sur la plateforme (visibilité réduite d’un tweet, modération automatique, etc.). Le système reste donc circulaire, sans articulation forte avec le reste de l’infrastructure sociale de X.
Pour compenser cette absence de lien « réel » avec le monde extérieur, un mécanisme algorithmique complexe a été mis en place pour tenter de simuler une forme de vérité collective — mais comme toute simulation, il présente des limites, et des échecs sont possibles (biais structurels, effets de groupe, manipulation douce…).
Face à ce dilemme — où placer la confiance ? et surtout, est-elle réellement nécessaire ? — un autre modèle, radicalement différent, a vu le jour : la blockchain, et plus précisément ses systèmes de consensus trustless, qui permettent à des millions d’individus anonymes d’interagir sans jamais avoir à se faire confiance.
Le consensus sans confiance : une logique inversée
Contrairement à Community Notes, qui repose sur la réputation, les évaluations croisées et des scores de fiabilité, les blockchains publiques s’appuient sur un système anti-confiance (source). Autrement dit, elles partent du principe que personne n’est fiable par défaut, et que la sécurité du système doit émerger malgré cela. C’est l’essence même d’un système trustless.
Parmi les mécanismes de consensus utilisés en blockchain, les deux plus connus sont : le Proof of Work (PoW) et le Proof of Stake (PoS). Concentrerons sur le PoS, un modèle particulièrement intéressant pour penser la validation collective dans un contexte décentralisé. Dans un réseau en Proof of Stake, ce ne sont plus des machines qui « minent », mais des individus (ou nœuds) qui mettent en jeu leurs jetons (crypto-monnaies) pour participer à la validation des blocs de données. Ainsi, les garanties de sécurité ne viennent pas de la confiance dans l’individu, mais du fait que triche est sanctionnée et que le système est distribué. C’est donc un mécanisme d’incitation inverse : on ne présume pas la bonne foi des participants, on rend la triche coûteuse.
Une leçon pour les systèmes sociaux ?
La comparaison avec Community Notes soulève une question de fond : pourquoi essayons-nous encore de reconstruire des modèles centralisés (avec scores, réputation, vérification croisée, etc.) alors que des architectures décentralisées et anti-confiance ont prouvé leur efficacité à très grande échelle ?
3. Et si on réinventait la modération sociale avec le slashing ?
Finalement, face à la montée de la post-vérité, il devient crucial de sortir des systèmes uniquement basés sur la correction « après coup », sans conséquences réelles pour les auteurs des contenus trompeurs. Aujourd’hui, lorsqu’un tweet est annoté par une Community Note, il reste visible, partageable, et son auteur n’est que très rarement inquiété, même lorsque la publication a eu un large impact. Or, dans d’autres systèmes — comme la blockchain — on ne se contente pas de signaler une erreur : on la sanctionne économiquement. C’est tout l’intérêt du mécanisme de slashing dans les protocoles Proof of Stake : lorsqu’un acteur agit contre l’intérêt du réseau, une partie de sa mise est supprimée. C’est une manière directe de faire payer la triche, sans avoir besoin de faire confiance à un modérateur humain. Un modèle de slashing social : punir les comptes et redistribuer la valeur.
Ce mécanisme pourrait prendre plusieurs formes. Imaginons un système où, lorsqu’un tweet est jugé problématique par la communauté (via une Community Note validée), plusieurs conséquences automatiques sont déclenchées :
Shadow ban progressif : si un compte accumule des publications corrigées par la communauté, sa visibilité peut être réduite automatiquement, jusqu’à une suspension partielle de ses fonctions (commentaires, posts, etc.). Cela introduit un vrai risque réputationnel et algorithmique, comme pour un validateur blockchain fautif.
Slashing économique : si le tweet était monétisé (revenus publicitaires, vues sponsorisées, etc.), alors sa rémunération serait retenue ou annulée, et redistribuée aux contributeurs de la Community Note qui a permis de rétablir la vérité. Ainsi, la valeur générée par un contenu faux ou trompeur serait reversée à ceux qui ont rétabli le contexte, créant une incitation forte à participer à la correction collective.
De la viralité à la responsabilité, ce modèle inverserait la logique actuelle : aujourd’hui, la viralité précède la vérité, et la correction arrive souvent trop tard. En intégrant un système de sanctions et de redistribution, la plateforme introduirait une économie de la vérification, où chaque publication engage l’auteur de manière plus directe. En reprenant les principes du slashing, mais appliqués au champ social et informationnel, on ouvrirait la voie à une modération post-virale, dissuasive et redistributive. Non pas pour censurer, mais pour rendre coûteuse la désinformation, et rentable la contribution à une information collective plus saine.
Alors que les plateformes telles que Netflix et Spotify ont transformé les industries du cinéma et de la musique en popularisant l’accès à la demande, il convient de se demander si l’art est en train de suivre une trajectoire similaire. L’essor du numérique a favorisé l’émergence de nouvelles formes de diffusion, notamment avec des plateformes proposant la location d’œuvres numériques. Ce modèle, qui repose sur une monétisation de l’expérience artistique dématérialisée, remet en question les logiques traditionnelles du marché de l’art, historiquement fondé sur l’achat et la collection. Dans ce contexte, les start-ups culturelles et les nouvelles technologies jouent un rôle clé en redéfinissant les modes d’accès à l’art et en introduisant des modèles hybrides combinant expériences physiques et numériques. Mais cette approche peut-elle s’imposer durablement face aux pratiques établies du marché de l’art ? Cet article interroge la viabilité du modèle de la location d’art numérique en explorant ses fondements économiques, les acteurs qui le structurent et les défis qu’il soulève. Assistons-nous à une véritable révolution dans la consommation de l’art ou à une tendance passagère, influencée par les logiques du streaming appliquées aux industries culturelles ?
I. Location d’œuvres numériques : vers une plateformisation du marché de l’art ?
Le modèle économique de la location d’œuvres d’art numérique s’appuie sur une logique d’accès plutôt que de propriété. Les plateformes de location d’art numérique connectent les artistes, qui fournissent les œuvres et les particuliers et entreprises, qui les louent. Elles facilitent la mise en relation directe entre ces deux groupes en offrant différents services intégrés. Ce modèle tire parti des externalités de réseau : plus il y a d’artistes proposant leurs œuvres, plus la plateforme est attractive pour les locataires, et inversement. Cette approche, si elle modifie la perception de la valeur artistique, permet une récurrence des revenus pour les artistes et les plateformes, qui peuvent monétiser les œuvres sur la durée au lieu de se limiter à une transaction unique (Sopi, Schneider & vom Brocke, 2023).
L’adoption de technologies blockchain et de smart contracts est un facteur clé de succès pour les plateforme de location d’œuvre d’art numérique. En effet, elles facilitent l’authentification des œuvres et le suivi des transactions. Ces outils permettent aux artistes de percevoir des commissions sur chaque location et sur les reventes ultérieures, comme le montre le modèle NFT-rental étudié par Sopi, Schneider et vom Brocke en 2023. Ce système réduit les coûts liés à l’intermédiation et renforce la traçabilité des échanges, tout en garantissant une certaine rareté numérique qui peut être monétisée.
La viabilité de ce modèle dépend également de la structure des coûts des plateformes de location d’art numérique. Le développement et la maintenance des plateformes, les frais de transaction sur la blockchain et les coûts de stockage sécurisé des fichiers numériques sont autant d’éléments qui influencent la rentabilité (Thiburce, 2022). La gestion des droits d’auteur et des licences constitue aussi un enjeu majeur, car les cadres juridiques actuels restent flous sur les modalités précises de location des biens numériques.
En définitive, la location d’art numérique semble offrir une alternative viable aux modèles traditionnels de vente, en s’appuyant sur des mécanismes technologiques innovants et des modèles d’affaires de plateformes. Toutefois, son adoption massive nécessitera une structuration plus claire du marché et une acceptation généralisée des modèles d’abonnement et de location dans le secteur artistique d’après le guide HACNUM des aides à la création en environnement numérique 2022-2023.
II. Qui façonne le marché de la location d’art numérique ? Plongée au cœur d’un nouvel écosystème en pleine expansion.
Longtemps considéré comme complexe et peu accessible, l’art numérique s’impose aujourd’hui progressivement comme un marché à part entière grâce à la montée en puissance du digital et l’évolution des modes de consommation culturelle. Cette nouvelle opportunité de marché n’a pas échappé à de nouveaux acteurs, près à façonner ce secteur en pleine mutation, au carrefour de l’innovation technologique et du marché de l’art. Ces startups, plateformes spécialisées et galeries virtuelles repensent la manière dont l’art est consommé et remettent en question la notion traditionnelle de possession et d’exposition. Avec une logique d’usage plutôt que de possession, plusieurs plateformes se démarquent ainsi par leurs approches et leur positionnement sur ce marché encore en construction.
L’organisme Artpointpar exemple repose sur la mise à disposition d’écrans et de dispositifs numériques permettant d’afficher des œuvres de manière temporaire et renouvelable. Ce modèle d’art novateur séduit les entreprises cherchant à enrichir leurs espaces de travail, hôtels, ou galeries commerciales avec un art novateur et technologique.
De son côté, Sedition Art joue la carte de la collection numérique en mettant à disposition des œuvres en édition limitée, offrant ainsi aux amateurs et collectionneurs un modèle plus proche du marché de l’art traditionnel puisqu’avec ce modèle, chaque œuvre est associée à un certificat d’authenticité numérique (se rapprochant ainsi du concept traditionnel de certification d’une oeuvre). En jouant sur la rareté et la notion de propriété numérique, Sedition Arts’inscrit dans la continuité du marché de l’art classique, où la valeur d’une œuvre est liée à son caractère exclusif mais y apporte cette innovation d’art numérique.
L’organismeNiio Artest ce qu’on pourrait appeler une forme de « Netflix de l’art ». Niio Artmise sur un modèle de streaming où l’accès aux œuvres se fait via un abonnement, sans nécessité de propriété. À l’instar des plateformes de streaming vidéo, Niio Artpropose une rotation régulière des œuvres, permettant aux abonnés de découvrir constamment de nouvelles créations et de suivre les tendances artistiques actuelles.
À l’inverse du modèle technologique basé sur la vente unique, le système d’abonnement favorise une diffusion plus large des œuvres et assure une rémunération continue aux artistes. Mais la dématérialisation ne remettrait-elle pas en cause la notion d’unicité et de rareté, fondamentales dans l’économie du marché de l’art ? Pourtant, cette appropriation d’un nouveau paradigme par des start-ups innovantes est-elle viable à long terme ?
Crédit : Growtika – Licence Unsplash
III. Une révolution ou une simple tendance ?
Le changement de médium sur lequel s’appuie l’art numérique offre des opportunités nouvelles, qui démultiplient les possibilités d’exposition.
D’abord, dématérialisé, l’art se partage donc plus facilement et devient plus accessible, donnant lieu à de nouvelles formes de « consommation artistique » dans tous les espaces. L’art s’exporte ainsi au-delà des frontières muséales pour se révéler dans sa dimension expérientielle, permettant ainsi le développement d’un modèle économique plus flexible. C’est bien la nature même de l’œuvre numérique qui rend possible sa duplication à l’infini, s’affranchissant des contraintes traditionnellement liées à l’œuvre d’art (transport, protection, unicité du support et donc disponibilité temporelle limitée…). Une œuvre numérique peut ainsi être exposée simultanément à plusieurs endroits, ce qui facilite nombre d’aspects logistiques, mais nécessite également de repenser le statut de l’œuvre d’art, dont la valeur ne peut plus résider dans l’unicité de son objet (Moulin 2003)
Pourtant, si le numérique s’accompagne parfois de la gratuité du fait de cette facilité de partage, la location peut cependant rétablir un équilibre en rémunérant les artistes, leur permettant de vivre de leur art. Or, ce modèle économique n’y parvient pas nécessairement pour le moment. En particulier, ce changement de paradigme implique le passage d’une logique de possession à une logique de consommation, ce qui nécessite de repenser la question de l’unicité. La location peut certes permettre de nouvelles sources de revenus pour les artistes – au même titre qu’un musée peut se rémunérer en prêtant des œuvres matérielles pour des expositions. Cependant, nombre de collectionneur.euses restent attaché.es au support matériel de l’œuvre d’art, ce qui a d’ailleurs mené au développement des NFT. Ces certificats de propriété numérique permettent donc de « contourner » les limites de l’art numérique pour l’inscrire dans les pratiques du marché de l’art plus « traditionnel », ce qui montre une réticence du marché à un réel changement de long terme. Il ne s’agirait alors pas d’une révolution, mais simplement d’un basculement de moyen technique, s’inscrivant dans la même logique existante de capitalisation accrue de l’art.
Enfin, l’intermédiation induite par les plateformes peut être dangereuse pour les artistes numériques : si elles créent un tremplin leur apportant une visibilité certaine, les artistes peuvent cependant devenir dépendants de ces acteurs clés qui font la loi du marché de l’art numérique, les forçant à en adopter les codes et donc, influençant la création émergente (Gielen, 2009).
Crédit : Tim Oun – Licence Unsplash
Conclusion
L’essor de la location d’art numérique témoigne d’une mutation des modèles économiques du marché de l’art, portée par la dématérialisation et les innovations technologiques. Si ces nouvelles pratiques offrent des opportunités en matière d’accessibilité et de diffusion des œuvres, leur pérennité reste incertaine. D’un côté, elles s’inscrivent dans une logique de désintermédiation propre au numérique, mais paradoxalement, elles réintroduisent une nouvelle forme d’intermédiation via les plateformes, centralisant l’accès aux œuvres et imposant leurs règles aux artistes.
Cette structuration du marché peut entrer en contradiction avec les aspirations initiales de nombreux artistes du numérique, qui cherchaient à s’émanciper du système traditionnel. Face à cette dynamique, deux tendances se dessinent : une adoption progressive de ces modèles par le marché de l’art, et en parallèle, une potentielle volonté de contournement par les artistes, comme l’a illustré l’essor des NFT.
L’enjeu majeur réside dans la capacité de ces plateformes à s’adapter aux attentes du marché et à garantir une juste rémunération des artistes. À terme, ces modèles transformeront-ils durablement notre rapport à l’art, ou ne seront-ils qu’uneétape transitoire avant une nouvelle redéfinition des pratiques culturelles ?
KLING Héloïse, MARY-SAVI Pyrène, CHASSAGNE Angèle, PETIT Joseph
Student Master MOC
Bibliographie
Gielen, Pascal. The Murmuring of the Artistic Multitude: Global Art, Memory and Post-Fordism. Valiz, 2009.
HACNUM. Guide des aides à la création en environnement numérique 2022-2023. Réseau national des arts hybrides et des cultures numériques, 2022.
Moulin, Raymonde. Le Marché de l’art. Mondialisation et nouvelles technologies. Flammarion, 2003.
Sopi, Kreshnik, Schneider, Christian, et vom Brocke, Jan. The Rise of NFT Rental: A New Paradigm in Digital Asset Monetization. Journal of Digital Economy, 2023.
Thiburce, Martin. L’économie de l’art numérique : enjeux et perspectives. Presses Universitaires de France, 2022.
Sitographie
https://www.artpoint.fr/fr – Plateforme d’art numérique proposant des œuvres d’art digital en édition limitée.
https://www.seditionart.com/ – Galerie en ligne dédiée aux œuvres d’art numériques de grands artistes contemporains.
https://www.niio.com/site/ – Plateforme de diffusion et de collection d’art digital pour les amateurs et professionnels de l’art.
Dans l’imaginaire collectif, un hacker est un génie solitaire, tapant frénétiquement du code pour forcer des systèmes impénétrables. Mais cette perception nourris par les films Hollywoodien reflète-t-elle vraiment la réalité des cyberattaques aujourd’hui ?
Le facteur humain au cœur des cyber-menaces En observant les statistiques des cyber-menaces ciblant les utilisateurs, on est bien loin du hacker hollywoodien : pas de code tapé à vitesse éclair, de malware inconnu, ni de failles ultra sophistiquées. Pour utiliser une analogie, la menace vient rarement d’un intrus qui force l’entrée, mais souvent de l’utilisateur qui lui ouvre sa porte. Cela se vérifie empiriquement. Selon un rapport de Gen Digital1, la première menace sur les réseaux sociaux est constituée par les publicités malveillantes, ou « malvertising »
Le Malvertising
La société Avira résume2 : « Prenez un cybercriminel, une publicité en ligne et une pincée de malware. Mélangez. » le code malveillant, contient souvent un keylogger qui enregistre les frappes pour voler vos données. Ces campagnes représentent 27 % des attaques détectées fin 2024. Le malware est souvent basique et disponible librement en ligne, par exemple sur GitHub pour le keylogger. Pas besoin de piratage, un simple clic en trop et vos données sont en danger.
Les fausses marketplaces
La deuxième menace (23 %) concerne les fausses boutiques en ligne. Promues via des bots, comptes piratés ou publicités, elles proposent des produits à prix cassés, sur des sites imitant parfaitement des enseignes réelles. L’utilisateur clique entre ses identifiants ou coordonnées bancaires et… ne reçoit jamais rien. Ses données sont revendues ou réutilisées. Selon Nord Security, les informations de carte bancaire se monnayent en moyenne à 7 $ l’unité3. Nul besoin de piratage, il suffit de convaincre.
Le phishing
Représentant 18 % des attaques, le phishing est la 3ème attaque la plus populaire sur les réseaux sociaux. Cybermalveillance.gouv. le définit comme un « mode opératoire consistant à dérober des informations personnelles […] en usurpant l’identité d’un tiers de confiance ». Sur les réseaux, cela prend la forme de messages privés envoyés depuis des comptes volés (parfois ceux d’un ami), de faux supports, ou de liens « urgents » incitant à vérifier son compte. Il ne s’agit pas d’un exploit informatique, mais d’une attaque sociale.
Souvent un même objectif : le credential harvesting
Qu’il s’agisse d’une publicité piégée, d’une fausse boutique ou d’un message de phishing, le schéma est souvent le même : pousser l’utilisateur à entrer ses identifiants sur une page frauduleuse. Ce procédé, appelé credential harvesting, vise à collecter des accès légitimes pour les réutiliser ou les vendre 5. Ces attaques sont encore plus dangereuses, si combinées entre elles. Par exemple, un compte volé via phishing peut ensuite servir à diffuser du malvertising ou promouvoir une fausse boutique de manière crédible.
Toutes ces techniques visent en priorité Facebook, qui concentre à lui seul 56 % des cybermenaces sociales, loin devant YouTube, 26 % et X 7 % 1
Pourquoi l’utilisateur comme cible et pas la machine ?
Si sur les réseaux sociaux, ce sont souvent les utilisateurs eux-mêmes qui sont attaqués, cela s’explique par une double dynamique. D’abord, les attaques techniques deviennent plus difficiles grâce au progrès des outils de sécurité, de l’autre, ces plateformes facilitent naturellement l’ingénierie sociale.
L’ingénierie sociale ou social engineering , soit les techniques visant à manipuler des individus pour les pousser à divulguer des informations confidentielles ou à adopter un comportement compromettant leur sécurité 6, ne cherche pas à casser un système, mais à contourner ses protections en s’appuyant sur le facteur humain.
Et c’est précisément ce que favorisent les réseaux sociaux. Il est logique de voir Facebook concentré 56 % des cybermenaces. Sa structure entre espace privé et espace public, ses groupes ouverts, son moteur de recherche interne et ses profils partiellement accessibles facilitent et multiplient les interactions, y compris avec des inconnus. Plus l’utilisateur est connecté, plus il est vulnérable. Chaque publication, commentaire ou ajout de contact augmente la surface exploitable par les attaquants, comme le rappelle Cybermalveillance.gouv 7
L’erreur humaine au sein même des médias sociaux
Ce ne sont pas seulement les utilisateurs qui ouvrent la porte aux cybercriminels. Les plateformes sociales elles-mêmes restent vulnérables aux failles humaines.
Le cas Twitter : Prendre le contrôle sans une ligne de code
Graham Ivan Clark, alias “Open”, n’est pas un spécialiste en cybersécurité. Pourtant à 15 ans, il s’intéresse au sim swapping et au social engineering, lui permettant sur Twitter de voler et revendre des pseudos rares. En bref, un cyber-délinquant opportuniste, mais sans expertise en code, en malware ou en réseau.
Il est dit que c’est dans le jeu Minecraft qu’il aurait fait ses armes, où il filmait ses exploits de scammer, et ses stratagèmes de manipulation pour piéger, voler, et abuser de la confiance des joueurs. C’est sur le jeu qu’il développe ses premiers réflexes d’usurpation, et de persuasion.
En juillet 2020, il apprend que 1 500 employés de Twitter disposent d’habilitations administrateur. Open y voit 1 500 potentiels occasions de devenir riche, sans pare-feu à franchir, ou de mot de passe à forcer.
Le 15 juillet 2020, il passe à l’action. Il identifie ses cibles sur LinkedIn, souscrit à un abonnement premium pour récupérer leurs coordonnées, puis les appelle un par un. À chaque fois, même scénario : se faire passer pour le support technique, invoquer une urgence, et rediriger l’employé vers une page d’authentification clonée. Le site, copie conforme du portail VPN de Twitter, est équipé d’un keylogger qui enregistre les identifiants en temps réel 8
L’opération reprend exactement les logiques décrites en première partie : une fausse interface, une usurpation d’identité, un discours crédible, et une victime mise sous pression, qui finit rapidement par céder au credential harvesting.
En moins de 48 heures, Open obtient ces accès, il prend le contrôle de 130 comptes certifiés de célébrité, publie une arnaque au Bitcoin, désactive la double authentification, et détourne plus de 120 000 dollars. En bref, comment pirater Twitter, sans coder une ligne. 9
Un cas isolé ?
Par ailleurs, le cas de Twitter n’est pas isolé. En 2019, Facebook a vu les données de plus de 267 millions de comptes exposées publiquement en ligne. Aucune intrusion, aucun piratage sophistiqué, l’origine de la fuite tient à une simple erreur d’accès, sur un serveur tiers, laissant les données accessibles sans aucune authentification particulière. Par un simple outil de scraping, des millions de noms, identifiants et numéros de téléphone ont ainsi été collecté, preuve qu’un manque de rigueur peut suffire à provoquer une fuite massive d’informations.
Mais alors, le hacker hollywoodien, ça n’existe pas ?
Ce type de piratage existe, mais il ne concerne ni Instagram, ni vos messages privés sur X. Ces attaques très techniques visent des cibles stratégiques : installations nucléaires,, infrastructures critiques ou militaire, et sont menées par des groupes spécialisés, souvent liés à des États.
L’exemple le plus célèbre est Stuxnet, un malware d’une complexité inédite, conçu pour saboter les centrifugeuses nucléaires iraniennes. Découvert en 2010, il aurait été développé par les États-Unis et Israël. Il exploitait plusieurs failles zero day pour infiltrer et saboter des systèmes, notamment en faisant surchauffer les infrastructures nucléaires.
Ces failles zero day, soit des vulnérabilités encore inconnues des éditeurs sont au cœur du piratage ultra-technique. Elles permettent des intrusions sans erreur humaine, simplement parce que le logiciel contient une faiblesse inconnues de (presque) tous. Elles sont rares, précieuses, et revendues à prix d’or. Selon le CSIS, elles ne représentent qu’environ 3 % des vecteurs d’intrusion 10
Comment ne pas être le maillon faible?
Pour conclure notre article, on voit que les représentations médiatiques nous ont laissé penser que la cybersécurité ne nous concerne pas. Si l’on se fait pirater, c’est qu’un génie de l’ombre a frappé, et on n’y peut rien… Pourtant, comme nous l’avons vu, presque systématiquement, les attaques commencent par une erreur humaine, utilisateur ou employé. C’est pourquoi nous tenions à vous rappeler quelques pratiques simples, mais essentielles afin d’assurer votre sécurité.
1. Utilisez votre sens critique Vous attendiez vraiment cet appel du support ? Est-ce normal que votre ami veuille vous vendre des cryptos ? Cette promo ne paraît-elle pas un peu trop belle pour être vraie ?
2. Vérifiez le certificat du site web Avant de cliquer, passez votre souris sur le lien : si l’URL ne commence pas par “https”, il n’est pas sécurisé. Sur la page, vérifiez que le cadenas s’affiche bien dans la barre d’adresse.
Les certificats étant délivré par des organismes indépendants, si le site possède ce cadenas/certificat, il est presque impossible que ce soit une tentative de phishing, de malvertising ou une fausse marketplace.
3. Personne ne vous demandera vos identifiants Ni le support officiel, ni votre banque, ni votre plateforme. Si quelqu’un vous les réclame, c’est une arnaque. Point.
4. Enfin activez la double authentification
Activez la double authentification sur vos réseaux comme sur vos applications bancaires. Si vous êtes victimes de phishing ou de credential harvesting, vous serez à la fois informé et protégé.
“Je ne cherche pas à faire du prosélytisme, je veux juste partager la bonne nouvelle”, déclare la youtubeuse So Andy dans sa dernière vidéo sur son baptême évangélique. Pourtant, la créatrice de contenu lifestyle a fait vivement réagir sa communauté suite à l’annonce de sa conversion. Ses fans s’interrogent : Andy glamourise-t-elle des dérives sectaires ? En cause : le mouvement évangélique est surveillé de près par la Miviludes, l’organisation chargée du suivi et de l’analyse des phénomènes de culte en France.
En 2021, cette dernière a reçu 4 020 saisines, soit une hausse de 86% en 5 ans. Dans son dernier rapport, elle pointe du doigt l’émergence de “gourous 2.0”, dont l’ascension a grandement été facilitée par la crise sanitaire. Avec la santé comme préoccupation principale et Internet comme outil majeur de socialisation, bon nombre de groupes marginalisés se sont formés durant cette période, parfois qualifiés de dérives sectaires. En exploitant les peurs liées à la santé, des gourous ont profité de ce contexte pour partager des “recettes miracles” ou des théories complotistes, ce qui a mené à un rebond des phénomènes sectaires en France.
C’est pourquoi les autorités et les associations préfèrent parler de “dérive sectaire”, qualifiée par Michel Monroy et Anne Fournier de “construction d’une allégeance inconditionnelle au sein d’un isolat culturel autoréférent, à caractère expansif dans différents domaines de la vie individuelle”. Autrement dit, il s’agit d’une emprise totale exercée par un groupe fermé, qui ne reconnaît que ses propres croyances et s’immisce progressivement dans tous les aspects de la vie de ses membres.
Aujourd’hui, les dérives sectaires ne concernent plus seulement la spiritualité. Elles peuvent être présentes dans le développement personnel, les cryptomonnaies, ou encore le coaching, déplaçant la croyance vers des sphères plus concrètes. Les dérives sectaires en ligne peuvent aussi paraître moins menaçantes, car elles ne passent pas par des groupes physiques. Autrefois cantonnées à des communautés fermées et physiques, elles se diffusent désormais à grande échelle sous des formes mobiles, changeantes, et impalpables.
UN FONCTIONNEMENT PROPICE AUX DÉRIVES
Réseaux sociaux et dérives sectaires partagent un point commun : l’influence. Si tous les utilisateurs de réseaux sociaux ne rejoignent pas des groupes sectaires, le fonctionnement de ces plateformes s’est avéré être un terrain particulièrement fertile pour l’embrigadement. L’algorithme de recommandation y joue le rôle de prosélyte, en exploitant divers mécanismes déjà bien connus des sectes traditionnelles.
Le biais de confirmation est l’une des premières techniques citées par le Dr. Steven Hassan, un auteur spécialisé dans le domaine des cultes. À mesure qu’il passe du temps sur la plateforme, l’utilisateur obtient un feed personnalisé, ne voyant plus que des contenus renforçant ses croyances. Les discours tenus deviennent alors de plus en plus radicaux, sans que l’individu ne s’en rende compte. Un avantage considérable pour les gourous, qui profitent de cette bulle de filtre pour partager des récits et des vérités partielles, alignées sur leur doctrine. Les algorithmes amplifient aussi la diffusion de ce contenu, car il est susceptible de créer un fort engagement. À cela s’ajoute l’absence d’intermédiaire entre l’émetteur du message et l’utilisateur, ce qui renforce l’impact du contenu.
Certaines Églises considérées comme ayant des dérives sectaires par la Miviludes en profitent pour diffuser leur idéologie. L’Église de Scientologie a récemment lancé une campagne de promotion “Bienvenue en Scientologie” sur Facebook, Instagram et X. Face aux nombreux signalements auprès de la Miviludes, le mouvement s’est vite défendu : “Nous voulons apporter des réponses sur ce qu’est notre religion et qui nous sommes.”
Capture d’écran d’une publicité sponsorisée de l’église de scientologie sur Instagram
Les réseaux sociaux deviennent ainsi des outils privilégiés pour diffuser des idéologies radicales. Il s’agit in fine d’un processus typique des dérives sectaires : un endoctrinement fait de manière incrémentale, introduisant graduellement des idées fausses et radicales.
LES INFLUENCEURS CHARISMATIQUES, UN LEVIER D’EMBRIGADEMENT EN LIGNE
À la faveur de ce contexte, de nouveaux acteurs ont émergé : les gourous 2.0. Plus discrets, maîtrisant le web et les processus de manipulation, ces nouveaux gourous se sont multipliés après la pandémie de Covid-19.
Sur les réseaux sociaux, leur aura ne repose plus uniquement sur leurs qualités personnelles, mais aussi sur l’engagement de leur communauté. C’est ce que démontrent Hayley Cocker et James Cronin dans leur essai “Charismatic authority and the YouTuber: Unpacking the new cults of personality”, en appliquant le concept d’“autorité charismatique” de Max Weber aux acteurs du web. Contrairement aux figures charismatiques traditionnelles, les gourous 2.0 bâtissent leur légitimité via un processus participatif : likes, commentaires et partages deviennent les piliers d’un charisme alimenté en continu par la validation de leur audience. Les gourous 2.0 s’érigent aussi en figures de rupture, rejetant les savoirs établis au profit d’idées qu’ils présentent comme révolutionnaires. Thierry Casasnovas en est un parfait exemple : surnommé “le pape du crudivorisme”, ce youtubeur a fait l’objet de 54 signalements auprès de la Miviludes en 2021. Dans ses vidéos, il nie l’existence des maladies, accuse la médecine de nuire à la santé et encourage ses abonnés à abandonner leurs traitements pour des jus de légumes et des jeûnes prolongés.
Derrière ce discours, l’emprise peut s’avérer réelle : des témoignages font état de graves conséquences physiques et psychologiques chez ses adeptes. Parmi les témoignages reçus par la Miviludes, un homme avance que sa femme « ne veut plus aller voir son médecin traitant qu’elle connaît pourtant très bien” et qu’elle “a perdu 8 kilos à force de jeûner« . Pourtant, malgré sa mise en examen, Thierry Casasnovas continue à prospérer grâce aux revenus générés par YouTube et ses formations en ligne.
Lorsqu’un influenceur devient un repère central dans la vie de ses abonnés, la frontière entre admiration et emprise peut donc vite s’estomper. Cette proximité illusoire peut nourrir une dépendance affective et rendre une communauté particulièrement vulnérable aux dérives. C’est ce que pointe du doigt le cas d’Ophenya, une influenceuse de 24 ans signalée à la justice après les alertes du collectif “Mineurs Éthiques et Réseaux” et de la Miviludes. Majoritairement composée d’adolescentes, sa communauté n’hésite pas à la surnommer “maman” et à la comparer à une grande sœur. Son engagement contre le harcèlement scolaire lui a valu une immense popularité, mais aussi des dérives qui inquiètent.
Ses interactions dépassent le cadre d’une simple relation influenceur-abonné : lives nocturnes, discussions privées prolongées, et pression sociale forte au sein de sa communauté, où ceux qui prennent leurs distances sont mal vus. Ophenya n’hésite pas à intervenir directement dans la vie de ses abonnés, allant même jusqu’à appeler l’école d’une jeune fille harcelée. Elle invite également des mineurs à se confier durant ses live Tik Tok, une pratique pourtant interdite par l’application. Cette idée lui a coûté son compte cumulant plus de 5 millions d’abonnés, qui a été définitivement supprimé pour non-respect des règles à la communauté. Cela ne l’empêche pas de continuer à partager du contenu sur sa page Instagram.
UN CADRE JURIDIQUE EN PLEINE ÉVOLUTION
Face à ces dérives, comment réagir ? Signaler ce type de contenu aux réseaux sociaux est possible, mais en pratique, cela n’a pas beaucoup d’impact. En revanche informer la Miviludes peut être une meilleure option, puisque l’organisme regroupe les signalements des victimes d’un même gourou, pour en amplifier la portée.
Sur le plan juridique, plusieurs infractions peuvent être retenues selon le contexte : exercice illégal de la médecine, mise en danger de la personne ou abus de l’état de sujétion psychologique. Cette dernière infraction a été particulièrement renforcée par la loi du 10 mai 2024, qui prévoit une peine aggravée lorsque l’infraction est commise via un service de communication en ligne ou par tout support numérique. L’objectif est clair : viser les dérives sectaires sur les réseaux sociaux.
Pour autant, malgré les signalements auprès de la Miviludes, les influenceurs mis en cause poursuivent leur activité. L’heure n’est donc pas encore aux sanctions, mais à la compréhension d’un phénomène qui risque de fortement s’intensifier.
Le sport ne se joue plus uniquement sur les terrains. Il se diffuse, se partage, se commente et se détourne en direct sur les réseaux sociaux. Dans ce nouvel écosystème numérique, les diffuseurs historiques sont confrontés à une révolution silencieuse : celle d’une consommation fragmentée, virale et parfois illégale. Alors, si le live streaming sur les plateformes sociales a permis d’élargir l’audience des compétitions sportives, il a dans le même temps donné naissance à une économie parallèle fondée sur le piratage. Ainsi, peut-on dire que les réseaux sociaux, catalyseurs d’engagement sportif, ne sont-ils pas aussi les fossoyeurs des diffuseurs traditionnels ?
Une nouvelle manière de consommer le sport : la viralité comme levier d’engagement
Les réseaux sociaux ont redéfini les contours de l’expérience sportive. Aujourd’hui, suivre un sport ne signifie plus forcément regarder un match en intégralité. La génération Z, friande de contenus courts, interactifs et accessibles, consomme le sport comme elle scrolle son feed Instagram : de manière éclatée mais continue.
Des comptes spécialisés comme Actu Foot pour le football ou La Sueur pour le MMA jouent un rôle clé dans la transformation de la consommation sportive sur les réseaux sociaux. Ces médias publient plus de trois fois par jour en moyenne, y compris en dehors des matchs ou des combats, assurant une présence constante dans le fil d’actualité des fans. Ils relayent les faits marquants, les statistiques, les déclarations, les extraits vidéo et les coulisses, en construisant autour de chaque événement une narration rythmée et émotionnelle.
À l’échelle internationale, MMA Junkie incarne cette même logique dans l’univers du MMA, avec une couverture ultra-réactive des événements UFC et des contenus exclusifs diffusés dès les premières minutes. Ensemble, ces comptes spécialisés transforment le sport en flux narratif continu, en entretenant une tension dramatique et une attente constante, ce qui renforce considérablement l’attractivité du sport auprès d’un public jeune, connecté, et peu enclin à s’en remettre aux seules chaînes télévisées.
Cette logique s’étend aux diffuseurs eux-mêmes. RMC Sport, par exemple, ne se contente plus de retransmettre les matchs : elle produit des formats narratifs, posté sur sa chaîne youtube autour des grandes affiches dans les sports qu’elle diffuse. Ces mini-films, construits comme des épopées émotionnelles renforcent l’attachement au produit sportif.
Enfin, les résumés post-matchs publiés gratuitement sur YouTube par BeIN Sports pour le football ou par Canal+ pour la Formule 1 jouent un rôle stratégique dans l’élargissement de l’audience. En diffusant les meilleurs moments des rencontres quelques minutes après leur diffusion, ces chaînes permettent aux non-abonnés de rester connectés à l’actualité sportive, même sans accès au direct. Pour un public qui ne souhaite pas – ou ne peut pas – payer un abonnement mensuel, ces extraits constituent une porte d’entrée accessible, notamment dans des contextes complexes comme les Grands Prix d’Asie, souvent diffusés à l’aube en France.
Ce format court, rapide à consommer et très partageable sur les réseaux sociaux, maintient l’intérêt même chez les spectateurs les plus occasionnels, en leur permettant de suivre les temps forts, de développer une forme de familiarité avec les compétitions, et, à terme, de susciter une envie de s’abonner pour accéder à l’intégralité du contenu. Ce levier, à mi-chemin entre expérience gratuite et marketing d’engagement, s’inscrit dans un modèle hybride associant contenus accessibles, viralité sociale et offres premium. Un modèle qui permet de fédérer, fidéliser et convertir, mais qui soulève une question essentielle : si l’essentiel est gratuit, quel est encore l’intérêt de l’abonnement ?
Telegram, Twitter et IPTV : l’explosion du piratage sportif
Cette brèche a été exploitée à une échelle inédite par les acteurs du piratage. En 2024, le match entre Le Havre et le PSG a par exemple été suivi illégalement par plus de 200 000 personnes sur Telegram, selon Le Figaro. Ce chiffre illustre une réalité dérangeante : Telegram est devenu une plateforme de streaming illégal à très grande échelle. Les chaînes pirates y diffusent gratuitement, en haute définition, des matchs de Ligue 1, des Grands Prix de Formule 1 ou des combats UFC, parfois à peine quelques secondes après leur lancement officiel.
La messagerie chiffrée rend toute régulation complexe. Contrairement aux sites traditionnels de streaming illégal, plus facilement repérables et bloquables, les chaînes Telegram fonctionnent par invitation, se déplacent d’un lien à l’autre et bénéficient d’une agilité communautaire qui déjoue les blocages. Résultat : malgré les efforts de l’Arcom, notamment via le dispositif DAD (Dispositif d’Actualisation Dynamique), le phénomène reste difficile à enrayer. Selon La Dépêche, le piratage sportif aurait coûté près de 300 millions d’euros à l’économie du sport français en 2025.
Mais le piratage ne repose pas uniquement sur des plateformes clandestines. Il peut également exploiter des failles juridiques ou géographiques, notamment à travers l’usage de VPN.
Unsplash.com / Image libre de droit
Cette saison, la Ligue 1 a été diffusée gratuitement en clair au Brésil, via le site de streaming d’un diffuseur local. En utilisant un simple VPN configuré sur une localisation brésilienne, il était ainsi possible pour n’importe quel internaute français d’accéder légalement, mais de manière détournée, à l’intégralité des matchs gratuitement, contournant de fait les offres payantes proposées sur le territoire français.
Twitter, devenu X, participe également à cette dérive. Lors de grands événements sportifs, certains utilisateurs diffusent illégalement des matchs via Twitter Live, parfois en direct depuis leur écran ou via des flux capturés. Le problème tient à la vitesse de propagation : la viralité propre à X peut propulser un flux pirate devant des centaines de milliers de spectateurs avant même que les modérateurs n’interviennent. Lors du combat Canelo vs Golovkin en 2022, une diffusion pirate sur la plateforme avait ainsi atteint plus de 500 000 vues en direct.
DAZN, Ligue 1 et crise de confiance
Unsplash.com / Image libre de droit
La situation de DAZN illustre parfaitement l’impasse dans laquelle peuvent se retrouver les diffuseurs. Arrivé en France avec les droits de la Ligue 1, DAZN avait fixé un tarif d’abonnement à 39,99 €/mois sans engagement. Très vite, la plateforme a été la cible d’un mouvement de boycott massif sur X, accusée de pratiquer une politique tarifaire déconnectée de la réalité économique des fans.
Résultat : une chute des souscriptions, un recours massif au piratage et une obligation de revoir son modèle. En mars 2025, la plateforme est même allée jusqu’à proposer un pass fin de saison offert pour l’achat d’un menu McDonald’s ou encore un abonnement à 10 € pour les moins de 26 ans.
@DAZN_FR sur X
Mais le mal était fait : selon la LFP, 55 % de l’audience du Classique PSG-OM aurait été réalisée via des canaux illégaux, malgré les offres promotionnelles et le blocage de 340 sites pirates. Au-delà des prix, c’est la qualité de l’expérience utilisateur qui est en cause. Les retours pointent des coupures, un manque de production et d’émissions, une interface peu intuitive et des commentaires absents ou tardifs. Dans ce contexte, le piratage apparaît parfois comme une alternative plus stable… et gratuite.
Une stratégie de reconquête : Twitch et YouTube comme leviers d’attraction
Conscients que l’accès gratuit est devenu une attente, certains diffuseurs prennent les devants. RMC Sport, par exemple, a diffusé gratuitement sur Twitch plusieurs compétitions, dont des combats de l’UFC et le circuit WTT de tennis de table. Cette stratégie vise à susciter l’engagement autour de sports moins médiatisés, avec l’objectif de convertir ensuite cette audience en abonnés ou en consommateurs de contenus premium.
Ce modèle s’inscrit dans une logique freemium : offrir une entrée gratuite de qualité pour attirer, fidéliser et monétiser plus tard. C’est aussi une manière de concurrencer directement les chaînes pirates, sur leur propre terrain : l’accessibilité, la simplicité, l’interactivité.
Le live streaming sportif à l’ère des réseaux sociaux est donc un paradoxe : il est à la fois l’outil le plus puissant pour dynamiser le sport et le facteur le plus menaçant pour son modèle économique. Entre l’essor du piratage sur Telegram, la viralité incontrôlable sur Twitter, la grogne tarifaire face à des plateformes comme DAZN, et la montée des alternatives illégales, les diffuseurs sont contraints à une transformation profonde.
La réponse ne peut être uniquement répressive. Elle doit être stratégique : penser l’offre comme une expérience complète, accessible, fluide et communautaire. Car c’est là que se joue l’avenir du sport : non plus dans la seule retransmission, mais dans la capacité à créer du lien, de la valeur et de la fidélité au sein de communautés ultra-connectées.
TikTok n’est plus seulement l’application de musique et de danse comme l’était Musically avant d’être rachetée en 2017 par ByteDance. La plateforme a désormais plus de 1,7 milliard d’utilisateurs actifs par mois, ce qui la rend un moteur d’influence commercial puissant. 49% des utilisateurs ont déjà acheté un produit après l’avoir vu sur TikTok. Alors, cette plateforme est devenue une vitrine incontournable pour les marques qui souhaitent toucher les consommateurs d’aujourd’hui.
TikTok, terrain de jeu stratégique pour les marques
Au niveau mondial, TikTok a plus de 1,7 milliard d’utilisateurs actifs par mois et en France 15 millions. Son audience est massive mais aussi très engagée car un utilisateur va passer 52 minutes par jour sur l’application et 1h17 pour un utilisateur français. De plus, la plateforme séduit les jeunes car à l’échelle mondiale 63% des utilisateurs ont moins de 24 ans. Cette génération connectée permet à TikTok d’avoir 92% des utilisateurs qui ouvrent l’application a minima une fois par jour. Le taux d’engagement est supérieur à ceux d’Instagram et X peu importe le nombre d’abonnées du créateur. Ainsi, il est devenu impossible aux marques souhaitant se faire connaître ou stimuler leurs ventes d’ignorer TikTok.
Le format singulier du contenu de TikTok est une force pour eux. Les formats sont courts et immersifs, en effet les vidéos verticales font entre 15 secondes et 10 minutes (auparavant 3 minutes) et elles s’enchaînent à l’infini pour rendre l’expérience addictive. Sur TikTok, tout est pensé pour maximiser la créativité spontanée : les utilisateurs ont accès à des musiques tendances, des filtres et des challenges viraux qui sont reproduits ainsi que des chorégraphiques comme dans l’esprit de Musically. Le contenu de TikTok est davantage sans filtre et authentique que sur d’autres plateformes comme Instagram; les utilisateurs peuvent se filmer dans leur chambre sans mise en scène. Ces codes assez uniques obligent les marques à s’adapter pour créer du contenu qui va marcher et plaire aux utilisateurs. De plus, TikTok a un algorithme bien particulier pour l’onglet “Pour Toi” où certaines vidéos peuvent devenir rapidement virales alors qu’elles ne proviennent pas d’une grande marque. C’est-à-dire que pour gagner en visibilité sur l’application, pas besoin d’investir lourdement mais filmer une vidéo créative peut suffire.
Le pouvoir du contenu UGC (User Generated Content)
Sur TikTok, les contenus les plus viraux et les rois de l’influence ne sont souvent pas les services de marketing des marques mais plutôt des simples utilisateurs. L’application promeut en abondance du contenu généré par les utilisateurs (UGC) comme des démonstrations de produits, des avis, des astuces. Ces contenus ont tendance à davantage plaire aux internautes que des contenus créés directement par les marques. En effet, les utilisateurs préfèrent faire confiance à des personnes comme eux, ces utilisateurs font 3 fois plus confiance à du contenu UGC que du contenu de marques. Bien que cette tendance à préférer plutôt les contenus UGC que ceux des marques existe sur toutes les plateformes, sur TikTok elle est bien plus répandue. Les utilisateurs de TikTok sont 58% plus enclins à faire confiance au contenu UGC de TikTok que sur d’autres plateformes car l’application valorise l’authenticité ainsi une vidéo tournée par un personne lambda dans sa chambre aura plus de chances de devenir virale qu’un spot publicitaire d’une marque. TikTok met en avant les contenus avec lesquels les communautés interagissent le plus. Alors il n’est pas étonnant que 43% des utilisateurs de la génération Z utilisent TikTok comme moteur de recherche plutôt que Google pour s’informer sur un produit. Ces utilisateurs cherchent à avoir des retours honnêtes de personnes l’ayant essayé. Ce sentiment de proximité influe énormément sur les décisions d’achats, particulièrement chez les jeunes générations.
Le hashtag “TikTok made me buy it” a accumulé plus de 60 milliards de vues, sous ce hashtag les internautes partagent leur trouvaille acheté à la suite de visionnages de vidéos TikTok sur ce produit. Une simple vidéo peut permettre à une petite entreprise d’être en rupture de stock. Ces moments de buzz ont commencé à apparaître avec la pandémie de Covid-19 en 2020, après le confinement certains restaurants en difficulté se sont vus être complet après certaines vidéos de leurs clients. Ces buzz se font pour tous les domaines de produits, par exemple le BookTok a permis de propulser les ventes de livres. En 2021, une américaine publie une vidéo en pleurs après la lecture du livre “Le chant d’Achille” de Madeline Miller, cette vidéo provoque de nombreuses réactions que ce soit en commentaires ou par d’autres personnes qui partagent leur avis. Ces réactions ont influencé les ventes de ce livre puisque par la suite en France les ventes de ce livre ont été multipliées par dix. Les contenus UGC agissent comme des recommandations sociales puissantes, du bouche à oreille numérique. Ainsi, les marques doivent revoir leur stratégie et au lieu de faire elles-mêmes leur contenu, envoyer leurs produits à des internautes pour créer de l’engouement.
L’évolution du marketing d’influence
Le marketing d’influence est différent sur TikTok par rapport aux autres plateformes, par exemple sur Instagram l’influence est associée aux célébrités mais sur TikTok un créateur peut devenir viral du jour au lendemain. Sur l’application, une nouvelle catégorie d’influenceurs est née : les micro-influenceurs qui sont parfois spécialisés dans un domaine : le sport, la mode, la cuisine, ils entretiennent une relation de proximité avec leur communauté. Ces influenceurs sont vus comme des personnes lambdas comme tout le monde et inspirent davantage confiance qu’une célébrité. Leurs recommandations, bien que potentiellement payées aussi, paraissent plus sincères. En effet, le taux d’engagement moyen de ces micro influenceurs est de 17,5%, ce qui est supérieur à des comptes avec des millions d’abonnés.
L’engagement induit alors un taux de conversion élevé puisque un utilisateur va plus acheter un produit recommandé par le micro influenceur qu’il suit tous les jours qu’une célébrité éloignée de son public. Cette célébrité est suivie par plus de monde mais avec un impact moindre. De nombreuses marques ont remarqué ce penchant et réorientent leur budget vers des profils avec moins d’abonnés. L’anecdote de Hyram Yarbro prouve l’impact de micro influenceurs sur la consommation : en 2020 Hyram Yarbro poste des vidéos donnant son avis sincère sur des marques de skincare, notamment la marque CeraVe. Ses vidéos provoquent des ruptures de stock chez CeraVe et ont remis cette marque au goût du jour simplement par des vidéos d’une personne qui a fini avec 7 millions d’abonnés sur TikTok. Des anecdotes comme celle-ci sont nombreuses, ce sont ces utilisateurs qui peuvent devenir des influenceurs clés. Les créateurs ne sont plus des panneaux publicitaires comme sur Instagram mais plutôt des conseillers officieux. Cependant, un créateur qui fait trop de contenus sponsorisés peut perdre son authenticité et son impact sur les ventes.
TikTok Shop et la montée du live shopping
Face à l’influence d’achat, TikTok a décidé de garder une part du gâteau en créant la fonctionnalité TikTok Shop; plus besoin de quitter l’application pour aller sur Internet il est désormais possible d’acheter des produits tout en restant sur l’application. Cette fonctionnalité s’est d’abord développée en Asie, puis aux Etats Unis, progressivement en Europe et arrive en France le 31 mars. TikTok Shop permet que lorsqu’un créateur présente un article dans une vidéo, l’utilisateur peut cliquer sur un lien pour accéder à la fiche de l’article et peut l’acheter directement, le tout sans quitter l’application. L’utilisateur peut aussi simplement regarder ce qui est tendance ou chercher directement un produit. Avant d’ouvrir cette fonctionnalité, TikTok s’est inspiré de son homologue chinois Douyin pour qui la fonctionnalité marche très bien. Cette fonctionnalité renforce l’achat impulsif, lorsqu’on réduit le temps de friction entre découverte et achat le taux de transformation s’accentue. La plateforme prévoit 50 milliards de dollars de ventes mondiales en 2024. De plus, TikTok propose aux petits créateurs de monétiser leurs recommandations, du télé-achat de l’ère des réseaux sociaux.
En quelques années, TikTok a redéfini les comportements d’achat, la plateforme a réussi à créer un écosystème où divertissement et commerce s’entremêlent constamment. Dorénavant, un produit se vend car il suscite une histoire que les utilisateurs souhaitent relayer. Pour les marques TikTok est un réel défi et une opportunité que certaines marques saissent comme CeraVe ou Fenty Beauty en s’adaptant aux codes de l’application. TikTok a réussi à nous donner envie d’acheter sans jamais nous donner l’impression de nous vendre un produit.
Le numérique a profondément transformé l’ensemble des secteurs culturels, et la médiation muséale n’échappe pas à cette évolution. Entre nouvelles opportunités d’engagement, formes inédites de participation et défis technologiques, l’intégration des outils numériques au sein des parcours muséographiques soulève de nombreuses interrogations. S’agit-il de simples supports complémentaires ou de véritables leviers de médiation, capables de renforcer l’interaction avec le public et de reconfigurer l’expérience des visiteur·euse·s ? À travers cette question se dessinent des enjeux à la fois pédagogiques, sensoriels et symboliques, qui viennent interroger en profondeur la manière dont les institutions culturelles conçoivent aujourd’hui leur mission de transmission et de médiation de la culture.
Qu’est-ce que la médiation numérique du point de vue des publics au musée ?
Du point de vue des publics, le numérique produit trois types d’apports distincts mais complémentaires : un apport cognitif, en ce qu’il facilite l’accès à des savoirs contextualisés et parfois complexes ; un apport expérientiel, dans la mesure où il sollicite l’engagement sensoriel et émotionnel du visiteur, transformant la visite en une expérience immersive ou participative ; et enfin, un apport institutionnel, en contribuant à moderniser l’image des musées et à renforcer leur attractivité auprès de nouveaux publics (Sandri cité dans Marie Ballarini, 2023). Ces apports ne sont pas seulement fonctionnels, ils participent aussi à une redéfinition des usages culturels et des attentes vis-à-vis des institutions muséales.
Dans les musées, ces apports prennent forme à travers une diversité de dispositifs numériques in situ, que l’on peut regrouper en deux grandes catégories. Tout d’abord, il y a les outils dits « mobiles » comme les applications mobiles, les audioguides interactifs ou les tablettes individuelles. Ensuite, il y a les dispositifs dits « fixes » — tels que les tables tactiles, les écrans interactifs ou les projections immersives intégrées au parcours muséographique. Cet article se concentre principalement sur cette deuxième catégorie, qui permet une intégration directe dans l’espace de visite et favorise une interactivité collective, transformant potentiellement l’espace muséal en un lieu de dialogue, d’expérimentation et d’apprentissage partagé.
La médiation numérique dans la culture n’est pas une nouveauté
L’utilisation du numérique dans la médiation culturelle est loin d’être une nouveauté. Comme le rappelle Marie Ballarini (2023), l’intégration des outils numériques dans les institutions muséales et patrimoniales accompagne depuis plusieurs décennies un mouvement de professionnalisation des équipes et un tournant gestionnaire et communicationnel. Cette évolution s’est traduite par une multitude de dispositifs : numérisation des collections pour leur conservation et leur analyse, création d’applications ludiques et immersives pour la médiation, et développement de parcours interactifs permettant de personnaliser l’expérience des visiteur·euse·s (Sandri, 2016). On peut notamment citer les expériences de réalité virtuelle comme « En tête à tête avec la Joconde », première incursion du Louvre dans la réalité virtuelle en partenariat avec HTC Vive Arts (Louvre, 2019). Ces innovations manifestent une volonté profonde de renouveler le lien avec le public et de proposer des expériences nouvelles.
La Joconde, sujet principal de l’expérience de réalité virtuelle avec « En tête à tête avec la Joconde » présentée au Musée du Louvre en 2019
Cependant, ces dispositifs ne sont pas sans susciter des critiques. Sandri (2016) souligne qu’ils privilégient souvent la relation entre l’institution et le public, sans véritablement favoriser les échanges entre les visiteur·euse·s eux-mêmes. Cette médiation verticale peut parfois donner l’illusion d’une démocratisation sans remettre en question la structure hiérarchique du savoir culturel. De plus, dans de nombreuses institutions, le numérique est davantage perçu comme une obligation liée aux politiques publiques et aux opportunités de subventions, plutôt qu’une réponse à un besoin pédagogique (Sandri, 2016).
Vers des dispositifs numériques collaboratifs
Si les musées ont su s’approprier certains outils, notamment dans le cadre de propositions immersives, le caractère collaboratif de ces expérimentations reste limité. Seuls quelques dispositifs, à l’image de l’activation récente de l’exposition « Architectures impossibles » au musée des Beaux-Arts de Nancy, propose une dimension participative. Dans ce cas, le musée s’est associé avec le Studio 3DxC et l’association de rétrogaming Pulse-Events pour proposer un dispositif de médiation numérique autour du jeu Minecraft et de cinq oeuvres de l’exposition. Cet outil permettait aux visiteur·euse·s de plonger individuellement ou collectivement dans les environnements et les architectures de ces tableaux, mais également de participer par groupes à des sessions de construction afin de compléter les univers présentés dans le jeu. L’alliance d’un support numérique et d’une activation « humaine » permettait ainsi de développer les échanges entre les joueur·euse·s et de les rendre actif·ves au sein de l’exposition.
Le Musée des Beaux-Arts de Nancy où a été présentée l’exposition « Architectures impossibles » en 2023 / Image libre de droit
Un flou participatif et une inégalité d’usage ?
Si ce type de manifestation reste encore minoritaire, c’est que le secteur culturel, et également la sphère muséale,a longtemps manifesté une certaine méfiance vis-à-vis du numérique, le percevant comme un filtre qui risque de s’interposer entre les artistes et le public. La crainte de substituer le virtuel au vivant est omniprésente. Cette résistance est parfois interprétée comme un « retard » technologique du secteur, mais elle témoigne avant tout d’une vigilance vis-à-vis de la qualité du lien direct, émotionnel et physique qui constitue l’essence même du rapport à l’oeuvre.
Les critiques portent également sur le flou entourant la notion de participation. Sandri (2022) met en garde contre un usage du terme « participatif » qui recouvre des réalités très diverses, de la simple consultation à la véritable co-création. Dans la sphère muséale, cette ambiguïté peut aboutir à des dispositifs superficiels — par exemple, des votes interactifs ou des commentaires sur les réseaux sociaux — qui donnent l’apparence de l’implication sans véritable transformation du rapport à l’oeuvre et aux contenus.
Martial Poirson (cité dans Artcena, 2021) pousse la critique plus loin en évoquant le risque d’une « inégalité d’usage ». Là où les politiques publiques voient dans le numérique un levier d’accessibilité, Poirson y décèle un déplacement des inégalités existantes vers de nouvelles formes d’exclusion numérique. Les publics les plus éloignés culturellement ou socialement restent souvent à l’écart de ces innovations, faute d’outils ou de compétences nécessaires.
Des avis partagés au sein même des institutions
Au sein même des institutions muséales, les professionnel·le·s sont loin d’adopter une position unanime sur l’apport des technologies numériques. Pour certain·e·s, le numérique constitue un outil parmi d’autres au service de la médiation culturelle. Il est perçu comme un levier d’inclusion, capable de rendre le musée plus accessible, moins intimidant et plus attrayant pour des publics éloignés ou peu familiers avec les codes traditionnels de l’institution muséale. En facilitant de nouvelles formes d’interactions — qu’il s’agisse de dispositifs immersifs, de parcours personnalisés, d’applications mobiles ou de visites en réalité augmentée —, le numérique permet de transformer la relation entre le visiteur et l’œuvre. Cette reconfiguration des modalités de l’expérience muséale peut ouvrir la voie à une médiation plus ludique, plus participative, et potentiellement plus engageante pour des publics diversifiés.
D’autres professionnel·le·s, en revanche, expriment des réticences, voire des critiques franches à l’égard de cette évolution. Ils rejoignent notamment les observations formulées par Rinaudo (2019) et Sandri (2016), qui mettent en garde contre les effets d’une technologisation excessive du musée. Selon ces auteurs, le recours intensif aux outils numériques risque de détourner l’attention des visiteurs des fondamentaux de la médiation humaine, en substituant l’interaction avec des dispositifs à celle avec des personnes. Cette critique trouve une résonance particulière dans les milieux où l’identité professionnelle repose fortement sur la qualité du contact direct avec le public — comme chez les médiateur·rice·s culturel·le·s, les conférencier·ère·s ou les animateur·rice·s pédagogiques. Rinaudo (2019) rappelle que certain·e·s médiateur·rice·s considèrent l’omniprésence des technologies numériques comme une remise en question de leur rôle, voire une menace pour leur légitimité professionnelle. Confronté·e·s à des mutations rapides, ils et elles doivent sans cesse s’adapter à de nouveaux outils, souvent sans bénéficier de formations suffisantes ou d’un accompagnement institutionnel à la hauteur de ces changements.
Vers une stratégie consciente et critique ?
Face à ces constats contrastés, l’intégration du numérique dans la médiation muséale ne peut reposer sur une simple logique d’innovation opportuniste ou de fascination technologique. Elle doit s’inscrire dans une stratégie à la fois consciente, critique et cohérente, articulée autour de la mission sociale, éducative et culturelle des institutions muséales. Autrement dit, les dispositifs numériques ne doivent pas être perçus comme des gadgets ou des solutions standardisées, mais comme des moyens complémentaires, susceptibles de renforcer — et non de diluer — le lien entre les artistes, les œuvres, les institutions et leurs publics. Le véritable enjeu consiste à accompagner cette transformation numérique tout en restant attentif à ses effets sur les pratiques professionnelles et les expériences de visite. Il s’agit de penser le numérique non pas comme un substitut à la présence humaine ou à la matérialité des œuvres, mais comme un vecteur d’ouverture, de dialogue, et de création collective, capable de redéfinir les contours du musée du XXIe siècle sans en trahir les fondements.
Lila JAGLIN, Eva DEFOULOY-MOSONI, Noémie BLONDEAU, Bertille FAUVEL
Ballarini, M. & Delestage, C-A. (2023). « Dissonance des objectifs dans la chaîne de production des oeuvres patrimoniales en réalité virtuelle », DOI: 10.3917/res.242.0163.
Sandri, E. (2016). « Les ajustements des professionnels de la médiation au musée face aux enjeux de la culture numérique », Études de communication, https://journals.openedition.org/edc/6557.
TikTok, qui a explosé lors du confinement en 2020, s’est notamment popularisé par ses dance challenge. Ce réseau social a transformé l’industrie musicale au global et une a particulièrement pu profiter de ce phénomène de danses accompagnant les musiques : celle de la K-pop.
En effet, pour ceux qui auraient pu passer à côté de la hallyu, aussi appelée la vague coréenne, le soft-power coréen n’a fait que se diffuser depuis plusieurs années, dû notamment à la popularité grandissante de la K-pop. Cette dernière se définit par des musiques alliant différents genres musicaux, des clips vidéo élaborés et surtout des chorégraphies accompagnant la plupart des chansons. Les artistes de pop coréenne sont appelés “idoles”.
Avec environ 64.9 millions de publications utilisant le #Kpop, TikTok est un des moyens de promotion majeurs de cette industrie.
Le début de cette tendance peut être attribué à l’artiste Zico avec sa chanson Any Song. Se postant avec les solistes féminines Hwasa et Chungha, le #AnySongChallenge est rapidement devenu viral et la chanson obtient même le “perfect-all-kill” pendant 330 heures. En tant que la distinction la plus difficile à obtenir, ce terme signifie qu’une chanson est en première position sur les services de streaming musical coréen les plus importants (Melon, Genie, Bugs!, Vibe, Flo). En 2021, Any Song remporte même la “Trend of the Year” à la cérémonie coréenne Golden Disc Awards, une récompense qui n’avait pas été attribuée depuis 2014.
À la suite de cela, TikTok est devenue la plateforme de prédilection de cette industrie. Désormais, chaque groupe a un compte car étant un canal incontournable non seulement pour la promotion, mais également pour se rapprocher des fans.
Des dance challenges pour les fans…
Actuellement, chaque nouvelle chanson s’accompagne de vidéos TikTok avec les idoles reprenant le moment phare de la chorégraphie, le plus souvent, le refrain. Ils initient le challenge espérant qu’il soit repris par beaucoup et y montrent une réelle implication. Des behind-the-scenes postés par les artistes eux-mêmes les montrent répéter plusieurs fois pour avoir la meilleure prise possible. Par exemple, la vidéo postée par le groupe ILLIT voit différents artistes se succéder pour filmer les Cherish (My Love) et Tick-Tack Challenge qui sont leurs deux nouvelles chansons. Via les collaborations entre groupes, les dance challenge trouvent un autre moyen de devenir viral auprès des fans.
Les collaborations entre idoles
En effet, les dance challenge sont propices aux collaborations entre différents groupes.
Dans une industrie où l’image renvoyée a une place importante, les dance challenge sont un moyen de voir une facette plus amusante et détendue des idoles lorsqu’ils sont avec leurs amis provenant d’autres groupes. Les fans voient leurs groupes favoris interagir et effectuer des chorégraphies qui ne sont pas forcément dans leur registre habituel. Par exemple, le 9 mars dernier, des membres du groupe Twice ont filmé un TikTok avec J-hope du groupe BTS à l’occasion de la nouvelle chanson sortie par ce dernier, Sweet Dreams. Étant une interaction attendue depuis longtemps par les fans des deux groupes, leur réaction ne s’est pas fait attendre sur TikTok.
Les collaborations se retrouvent souvent à être les vidéos les plus virales. C’est le cas pour le groupe féminin Le Sserafim et leur chanson Perfect Night. Pourtant très actives sur TikTok, c’est la collaboration avec Jungkook du groupe BTS qui est leur vidéo la plus populaire avec 7.7M de likes. En effet, en impliquant différentes idoles, les dance challenge permettent de ramener les fans des groupes respectifs et augmenterl’engagement.
TikTok rend la viralité plus facile et le fait d’être remarqué également. Un lien plus informel se crée alors entre les artistes et leurs fans lorsque ces derniers reprennent la danse et avec un sentiment de proximité rendu encore plus fort. En effet, l’industrie de la K-pop est définie par une économie de la célébrité forte. Si la relation parasociale ne résultait que de contenus unilatéralement partagés aux fans par les idoles, TikTok apporte une interaction plus directe et réciproque entre ces deux parties.
“K-pop fans form fan clubs, take videos and photos of the idol groups, create fan chants, move in an organized manner, and even make donations in the artist‘s name. This participatory culture resembles TikTok’s nature.”
L’industrie de la K-pop a toujours eu des fans très impliqués et actifs dans leur passion pour la pop coréenne. Notamment, YouTube connaît nombre de groupes de dance cover à travers le monde car les fans ont toujours apprécié reproduire les chorégraphies K-pop. C’est sur YouTube que ce phénomène a émergé, mais c’est TikTok qui leur a donné la plateforme pour se faire remarquer tant par d’autres fans que les groupes eux-mêmes.
En effet, les idoles peuvent être davantage actives dans leurs interactions avec leurs fans à travers des reposts, des likes publics ou encore des commentaires laissés par leur compte. Par exemple, la chanson Like Jennie de l’artiste éponyme est reprise dans plus de 900k publications, dont beaucoup de cover où la plupart des fans taguent son compte dans l’espoir de se faire remarquer et reposter. Lorsque c’est le cas, le compte de l’artiste se retrouve à centraliser les personnes ayant repris ses dance challenge, contribuant à leur viralité. Sur @jennierubyjane aux plus de 17 millions d’abonnés, le repost du TikTok de @jajjangmaki aux 20k abonnés, a contribué à ses 4 millions de vues tandis que le flux de commentaire informant du repost de l’artiste est important. Cela démontre à quel point les comptes repostés sont mis en avant.
Capture d’écran de l’espace commentaire du TikTok de @jajjangmaki
La soliste Lisa a même filmé un TikTok avec l’influenceuse danse Niana Guerrero, aussi fan de K-pop et avec 45.5 millions d’abonnés pour promouvoir sa chanson Fxck Up The World. Avec plus de 8 millions de likes, elle est devenue la septième vidéo la plus populaire du compte. Des collaborations peuvent donc même concerner les fans les plus populaires ; la danse et les danseurs sur TikTok constituent des moyens de promotion à part entière.
… et par les fans
Parfois, certaines dance challenge émergent du côté des fans eux-mêmes. Ils créent leurs propres chorégraphies ou rendent viral des moments de la chanson qui n’ont pas été mis en avant par l’artiste.
Par exemple, la chanson Polaroid Love du groupe Enhypen comptabilise actuellement plus de 320 millions d’écoutes sur Spotify. Bien qu’elle ne soit qu’une b-side (une chanson non principale), elle a été popularisée par la danse créée par @reeeiner qui est devenue tellement virale qu’elle a été reprise par le groupe lui-même.
La viralité sur TikTok est déterminante. Prenons le cas du groupe Kiss Of Life qui, en octobre dernier, sort son album Lose Yourself. La chanson la plus populaire de ce dernier se révèle être la b-side Igloo avec 100 000 écoutes de plus que la title track Get Loud. La raison : la membre Haneul se fait remarquer lors du troisième refrain et cela devient un moment viral rapidement repris par tous. Pourtant, le groupe ne s’attendait pas à ce que cette chanson soit autant appréciée. Les dance challenge initiés par les fans permettent de mettre en avant des chansons indépendamment de la volonté initiale de l’artiste original.
Des dance challenge pour tous
Les dance challenge cherchent à être les plus accessibles possible afin d’être facilement repris et c’est pourquoi les pas sont parfois simplifiés. Le groupe NMIXX ayant récemment sorti Know About Me en a proposé une “version facile” dans un TikTok. En outre, les artistes peuvent même offrir un tutoriel de la chorégraphie comme l’a fait J-hope pour sa chanson Mona Lisa.
Les dance challenge peuvent également atteindre des non-fans et d’autres idoles sans que cela donne lieu à une collaboration. C’est le cas de la chanson Like Jennie mentionnée précédemment qui a été reprise par plusieurs groupes populaires tels qu’Enhypen ou Le Sserafim, qui y avaient été incités par leurs fans au vu de la popularité du challenge.
Nous avons donc des dance challenge pour tout niveaux : lorsqu’ils proviennent des idoles, ils se veulent accessibles tandis que des moments de chorégraphies devenant involontairement viraux peuvent se révéler plus compliqués. Par conséquent, il devient dans l’intérêt de toutes les parties concernées qu’un maximum de personnes reprenne la chorégraphie afin de lui donner un caractère viral. Cela permet non seulement de populariser la chanson des artistes, mais également les dance cover des fans, rendant alors le fait d’être remarqué plus facile. Un cercle vertueux s’installe donc grâce à l’algorithme TIkTok.
Ainsi, TikTok est devenu le réseau social propice à la K-pop pour promouvoir les nouvelles chansons sorties. Les dance challenge favorisent l’engagement des fans lorsqu’ils y participent, et qu’ils soient initiés par les idoles ou les fans, la viralité est l’objectif commun, car la visibilité offerte bénéficie à tous. Reprenant un élément majeur de la K-pop que sont ses chorégraphies, les dance challenge font désormais partie intégrante de la campagne marketing des musiques de cette industrie.
Les réseaux sociaux grand public ont été conçus à l’origine comme des espaces d’échange conviviaux et bienveillants, fidèles à la vision de Tim Berners-Lee, cofondateur du Web, pour rapprocher les individus entre eux afin qu’ils interagissent. On peut dire que cela a été un succès, mais depuis quelque temps, une invitée s’est incrustée dans ces réseaux sociaux : l’Intelligence Artificielle, pour le meilleur et pour le pire. Aujourd’hui, il semble que nous nous orientons davantage vers le pire, au détriment des interactions humaines authentiques.
Certaines voix alertent du danger que courent les réseaux sociaux grand public, mais il ne s’agit pas, ici, de jeter l’opprobre sur l’IA, car de nombreuses applications l’utilisant à bon escient sont devenues incontournables.
Quand l’IA devient moteur des réseaux sociaux
Pour faire face à un déclin annoncé, et dans leur lutte pour conserver ou développer leur potentiel attractif auprès des « consommateurs », par la génération de contenus et la sollicitation d’engagement, les principaux acteurs des réseaux sociaux grand public comme Facebook, Instagram, X, TikTok, etc. ont adapté leur modèle économique en ce sens et ont développé des solutions basées sur l’intégration de l’IA dans leurs produits phares. En effet, les applications d’IA évoluent à une vitesse fulgurante, et dans un marché où l’innovation permanente est la règle, particulièrement dans le numérique, il ne reste qu’une seule option : innover !
Des bots à la place des humains, la grande illusion de Meta
Prenons l’exemple de la société Meta. Après l’échec du Métavers, Mark Zuckerberg a décidé de recentrer ses efforts sur son AI Studio, une plateforme permettant aux utilisateurs de créer leurs propres chatbots. Ce qui est particulièrement surprenant, c’est l’objectif futur de Meta : intégrer ces chatbots IA en tant qu’utilisateurs à part entière sur Facebook et Instagram. Ces avatars autonomes auront des profils, pourront publier du contenu et interagir avec les utilisateurs en imitant le ton et les expressions de leur créateur. Comme l’a déclaré Connor Hayes, vice-président de Meta chargé des produits d’IA générative, dans une interview au Financial Times :
« Nous nous attendons à ce que ces [chabots] IA existent réellement, au fil du temps, sur nos plateformes, un peu de la même manière que les comptes. Ils auront des biographies et des photos de profil et pourront générer et partager du contenu alimenté par l’IA sur la plateforme… c’est là que nous voyons tout cela aller ».
L’ère du contenu artificiel : une attractivité biaisée
Comme l’objectif de ces plateformes est d’attirer les jeunes, un public crucial pour leur survie, cette initiative soulève quand même des questions, et parmi celles-ci : comment un réseau social peuplé de bots plutôt que d’humains peut-il réellement séduire les utilisateurs avec du contenu généré artificiellement et des interactions automatisées ? Si Instagram et Facebook finissent par être dominés par des robots IA interagissant principalement entre eux, il est probable que les utilisateurs humains cherchent à quitter ces plateformes pour trouver des interactions plus authentiques. Ainsi, cette initiative pourrait avoir l’effet inverse de celui recherché.
L’IA qui s’auto-alimente, vers un futur fait de faux ?
Quelle allure aura le contenu ? On aboutira au phénomène appelé « modèle collapse » avec la production de résultats de plus en plus absurdes, ou encore au principe de « chambre d’écho » ou de « biais de confirmation« , renforçant certaines croyances sans ouverture sur d’autres perspectives. Les fausses informations tourneront en boucle, érodant ainsi la confiance dans l’information elle-même et dans le pire des cas, cela pourrait conduire à une méfiance totale à l’égard de tout. S’il n’est pas mis au point un bon équilibre entre auto-réutilisation et diversité des données, alors il est inéluctable que l’IA (et le réseau social qui l’intègre) ne finisse enfermée dans son propre écosystème appauvri, tout cela accompagné de la fuite des utilisateurs.
Parallèlement à la potentielle dégradation du contenu par la prolifération de bots IA, les réseaux sociaux grand public sont confrontés à un autre problème. En effet, actuellement, Facebook est envahi par des images et des textes « low-cost » générés par IA. Cela porte un nom : l’AI Slop.
« Slop » en anglais signifie « saloperie » ou « trucs mal faits ». L’AI slop décrit donc du contenu généré par IA qui est bâclé, trompeur, incohérent et sans valeur. Le « slop » devient la nouvelle pollution numérique qui envahit le web : un flot incessant de contenus médiocres générés par l’IA, qui compromet la qualité et l’authenticité. Initialement, cette tendance à voir apparaître du contenu de mauvaise qualité généré par des spammeurs utilisant de l’IA était déjà le premier signe « d’enshitification » (« emmerdification » en français) par TikTok avec son sludge content, devenu courant sur la plateforme à partir de 2022, reflétant l’évolution des stratégies pour attirer et retenir l’attention des internautes. Puis Facebook lui a emboîté le pas. Ce concept d’« emmerdification » a été théorisé en fin 2022 par le journaliste Cory Doctorow, pour évoquer le déclin systémique des principaux réseaux sociaux grand public et la stratégie qu’ont ces derniers pour y faire face, notamment en intégrant l’IA à leurs plateformes.
Image générée par l’IA de « Shrimp Jesus » (Facebook, 2024)
Sommes-nous en train d’assister à la « merdification » des réseaux sociaux, où le contenu humain est progressivement remplacé par des simulations ?
Ces IA Slop sont souvent conçues, d’une part, pour maximiser l’engagement basé sur les bons sentiments et la compassion (bébés, animaux, religion etc.). Ces contenus attirent un public plus âgé et conservateur et cette évolution profite à des créateurs anonymes qui peuvent monétiser leurs pages. De plus, l’engagement de ce public est amplifié par des bots automatisés, qui interagissent massivement avec ces publications. Par ailleurs, certaines pages potentiellement frauduleuses exploitent également des images générées par l’IA Slop, mettant en scène des designs visuellement attractifs pour attirer l’attention. De même, certaines pages générées par l’IA Slop sont conçues pour capter l’attention des internautes et les rediriger, via des liens, vers des sites externes au réseau social, probablement dans le but de générer des revenus publicitaires. À mesure que les IA gagnent en performance, il devient de plus en plus difficile de distinguer le contenu réel du contenu synthétique en ligne, ce qui soulève inévitablement la question de la confiance dans ces médias.
Mais alors, que se passerait-il si l’IA produisait seule, à grande échelle ? On assisterait à une boucle de rétroaction musicale : des morceaux d’ambiance générés automatiquement, sans rémunérer de créateurs, alimenteraient les playlists, reléguant les artistes humains dans l’ombre. Ces mêmes morceaux serviraient ensuite de données pour affiner encore davantage la production, perpétuant ainsi le cycle. Ce processus s’apparente à une forme « d’auto-cannibalisation » de la musique populaire : en privilégiant ses propres morceaux générés par IA, Spotify façonne les habitudes d’écoute de ses utilisateurs, ce qui risque d’appauvrir la diversité et la qualité musicale.
Vers un Internet fantôme
Cette artificialisation des productions numériques s’explique en partie par le changement de modèle économique des plateformes. La production à la pelle de contenus engageants, leur partage automatisé et donc le recours à de l’IA, est encouragé. Josh Yoshija Walter, professeur à l’université de Berne et auteur de l’article Artificial influencers and the dead internet theory, déclare :
« […] à ce stade, la création de contenus comme les influenceurs artificiels n’est pas totalement automatisée, mais je pense qu’elle le sera bientôt. ».
La théorie de l’Internet mort, apparue dans les années 2010, vue comme théorie du complot, puis reprise en 2021, paraît de plus en plus conforme à la réalité et d’autant plus crédible que les bots IA s’abonnent et interagissent entre eux pour gonfler leur nombre d’abonnés et gagner en légitimité auprès de vrais humains dans le but de les influencer. Pour Josh Yoshija Walter :
« On peut craindre que l’humain consacre de plus en plus son temps, son énergie, ses émotions à des choses fausses ».
Si rien n’est fait pour authentifier les IA et encadrer leurs usages, la mort de l’Internet pourrait bien advenir.