Shadowz : Le triomphe de l’éditorialisation humaine face au règne de l’algorithme

@Campagne Ulule pour Shadowz

La « guerre du streaming » n’est pas seulement celle des prix ou des exclusivités, c’est une guerre pour notre attention. Dans cet écosystème informationnel saturé, le paradoxe n’est plus l’accès au contenu, mais la capacité à choisir.

Nous faisons tous l’expérience de « l’embarras du choix », cette fatigue décisionnelle analysée par le psychologue Barry Schwartz en 2004 comme le « paradoxe de l’abondance » : trop de choix mène à la paralysie et à l’insatisfaction. Face à un catalogue algorithmique de 10 000 titres, l’utilisateur se sent perdu. C’est dans cette brèche que s’engouffrent les plateformes de niche. C’est le cas de Shadowz, la plateforme française de SVOD entièrement dédiée au cinéma de genre et d’horreur, lancée en 2020.

Comment une « petite » plateforme thématique peut-elle non seulement exister, mais prospérer dans cet écosystème hyper-concurrentiel ? Cet article postule que le succès de Shadowz repose sur une stratégie délibérée d’hyper-éditorialisation. En substituant la curation humaine à l’algorithme opaque, Shadowz ne vend pas seulement des films : elle vend un point de vue, une expertise et un sentiment d’appartenance. Elle oppose à l’automatisation de la découverte un modèle communautaire et éditorialisé.

Le pari de la complémentarité

Contrairement à un nouvel entrant qui chercherait à détrôner les leaders, Shadowz s’est positionné d’emblée comme un complément. Son identité s’est construite sur un ADN précis : « fait par des passionnés, pour des passionnés ». Cette affirmation n’est pas un simple slogan marketing, elle est le fondement de son lancement. Née d’une campagne de financement participatif sur Ulule qui a atteint plus de 300% de son objectif, la plateforme a validé son concept et prouvé l’existence d’une demande communautaire avant même d’écrire sa première ligne de code. Ce n’est pas un capital-risque qui a financé une idée, c’est une communauté qui a plébiscité un projet.

Cette passion est structurée par une expertise technique et sectorielle. Shadowz est portée par VOD Factory, une société spécialisée dans la création de plateformes SVOD en marque blanche. Ses fondateurs, dont Christophe Minelle, et son responsable éditorial, Aurélien Zimmermann, ne sont pas seulement des cinéphiles ; ils sont des professionnels de la distribution numérique. Ils allient la culture du genre à la maîtrise de la « platform economy ».
Cette double compétence leur permet de déployer une stratégie précise. D’une part, un modèle économique pensé pour le « multi-abonnement » : un prix bas (4,99 €/mois) qui ne force pas l’utilisateur à choisir entre Netflix et eux. D’autre part, un catalogue qui ne vise pas l’exhaustivité, mais la pertinence. Avec environ 500 titres disponibles à la fin de l’année 2024, la valeur de Shadowz réside dans ce que les autres n’ont pas : des classiques introuvables, des pépites de festivals et des raretés oubliées.

Plus important encore, Shadowz a opéré un pivot stratégique en devenant elle-même distributrice. En acquérant les droits français de films inédits (les « Shadowz Exclu »), la plateforme sort de son rôle de simple diffuseur pour devenir éditrice. Cette intégration verticale, bien que modeste, est cruciale. Elle se prolonge hors ligne, avec la co-édition de Blu-ray et l’organisation de projections événementielles. Shadowz ne se contente pas de streamer des films ; elle les fait exister, leur donne une vie physique et sociale, et participe à la préservation d’un patrimoine cinématographique de niche.

@Shadowz

La stratégie éditoriale : miser sur la Long Tail

La stratégie de catalogue de Shadowz est une application directe, et paradoxalement plus fidèle que ses concurrents, de la théorie de la  Long Tail (Anderson, 2006).

Chris Anderson postule qu’à l’ère numérique, les coûts de stockage et de distribution quasi nuls permettent aux entreprises de générer un revenu substantiel non plus seulement avec les « hits » , mais en vendant de petites quantités d’un très grand nombre d’articles de niche. Si Netflix, à l’époque de la location de DVD, fut l’exemple phare d’Anderson, son modèle SVOD actuel a largement abandonné cette logique. Pour retenir 200 millions d’abonnés, Netflix doit désormais produire des programmes globaux tels que Stranger Things, qui agissent comme des produits d’appel et des différenciateurs massifs. La Long Tail des vieux films, coûteuse en droits de licence fragmentés, est devenue secondaire. Shadowz prend le contre-pied radical : son modèle économique n’existe que dans la Long Tail du cinéma de genre. Dans un monde où « tout est disponible » (théoriquement), la valeur n’est plus l’accès, mais le filtre. L’infinité de la Long Tail est anxiogène ; Shadowz propose d’en être le curateur de confiance. La nouvelle rareté n’est pas le contenu, c’est le temps et la confiance.

« L’idée n’est pas d’avoir 5000 films, mais d’avoir une sélection qui a du sens. […] On se plaît à confectionner un édito poussé qui parlera aux fans de genre. »  – Aurélien Zimmermann

Cette curation transforme la plateforme en « éditeur » au sens noble du terme. L’équipe éditoriale ne se contente pas d’agréger du contenu ; elle le sélectionne, le contextualise et le défend. Elle crée une ligne éditoriale claire, chose que les plateformes généralistes, dépendantes d’accords de licence globaux et d’algorithmes cherchant le plus petit dénominateur commun, ne peuvent ou ne veulent plus faire (Gillespie, 2018). C’est une économie de la qualité contre une économie de la quantité.

Le système de recommandation : L’anti-algorithme

C’est sur le terrain de la recommandation que la rupture est la plus flagrante. Le système de Shadowz est une réfutation directe du modèle de la « boîte noire » algorithmique.

Les plateformes dominantes utilisent des algorithmes de recommandation sophistiqués dont l’objectif premier est la rétention : prédire ce que l’utilisateur est susceptible d’aimer pour maximiser le temps passé sur la plateforme. Ce faisant, elles risquent de créer ce qu’Eli Pariser a nommé la « Bulle de Filtre ». L’algorithme n’est pas passif ; il est actif. Il n’optimise pas pour la découverte ou l’enrichissement culturel, mais pour la satisfaction immédiate et la minimisation des désabonnements.Shadowz oppose à ce modèle opaque un système de recommandation humain, transparent et multi-couches. Comme l’analyse T. Gillespie dans Custodians of the Internet, les plateformes ne sont jamais neutres : elles façonnent activement ce que nous voyons. Shadowz assume ce rôle de « gardien » de manière explicite. Le système de recommandation de Shadowz s’articule d’abord autour d’une taxonomie détaillée qui sert d’outil de navigation principal. Il faut oublier les catégories génériques comme « Horreur » ou « Thriller » ; les films sont classés par sous-genres ultra-précis, allant du « Giallo » au « Folk Horror », en passant par le « Body Horror », le « Rape & Revenge » ou même les « Nouveaux Extrémismes Français ». Cette classification dépasse la simple métadonnée pour devenir un véritable outil pédagogique. Elle n’est pas seulement un tag, elle est une langue partagée avec la communauté, un lexique qui guide l’utilisateur, lui apprend le vocabulaire spécifique du genre et l’invite à explorer des filiations cinématographiques (Zimmermann, 2022). Cette approche est complétée par l’incarnation de la recommandation. Plutôt que de proposer la formule algorithmique « Parce que vous avez regardé… », Shadowz offre des « Cartes Blanches ». La recommandation n’est plus un calcul, elle est confiée à des personnalités identifiées : des réalisateurs comme le duo Bustillo & Maury, des critiques de Mad Movies, ou des vidéastes reconnus tel Le Fossoyeur de Films. La confiance n’est plus accordée à un code opaque, mais à une expertise humaine reconnue par la communauté. Enfin, ce système est enveloppé dans un contexte éditorial riche. Chaque film est accompagné de fiches détaillées, de textes explicatifs et d’anecdotes, tandis que la newsletter et les réseaux sociaux ne poussent pas des suggestions personnalisées, mais des « coups de cœur » éditoriaux, toujours argumentés, s’apparentant à des micro-critiques.

@Shadowz

En agissant ainsi, Shadowz brise la bulle de filtre. L’objectif n’est pas la rétention à tout prix, mais la sérendipité : la découverte heureuse et fortuite de ce que l’on ne cherchait pas. L’algorithme de recommandation classique est, par définition, l’ennemi de la sérendipité. Il est conçu pour optimiser un chemin, pour prédire un comportement et éliminer l’accident. La curation humaine, à l’inverse, réintroduit ces imprévus fertiles. Les titres mis en avant par Shadowz peuvent sembler totalement décorrélés de l’historique de visionnage de l’utilisateur. C’est précisément cette rupture qui crée la découverte. En n’étant pas entièrement personnalisée, la page d’accueil permet à l’utilisateur de tomber sur une collection historique, une thématique (« Horreur et Politique ») ou un film dont il n’a jamais entendu parler. Shadowz fait le pari de l’intelligence et de la curiosité de son public. 

Vers un écosystème de niche ?

Shadowz est la preuve de la viabilité d’un modèle de SVOD alternatif dans un marché que l’on croyait saturé. Sa réussite s’explique par son refus stratégique du modèle algorithmique dominant, au profit d’une hyper-éditorialisation qui place l’expertise humaine au centre de la proposition de valeur. En exploitant intelligemment l’idée de la Long Tail et en substituant la curation incarnée à la « Bulle de Filtre », la plateforme ne se contente pas de divertir une niche : elle l’anime, l’éduque et la fédère. 

L’avenir de la SVOD n’appartiendra peut-être pas à un unique vainqueur, mais à une constellation de plateformes spécialisées, comme MUBI pour le cinéma d’auteur ou Tënk pour le documentaire. Ces acteurs, en préférant la pertinence d’une communauté à la largeur d’une audience, encouragent le développement de la curiosité culturelle.

Dimitri SCHEM

Sources :

  • Anderson, C. (2006). The Long Tail: Why the Future of Business Is Selling Less of More. Hyperion.

Et si Twitter slashait la désinformation ?

Selon le Baromètre de la confiance politique, publié en février 2025 par Sciences Po et OpinionWay, 45 % des Français se disent méfiants à l’égard de leur état d’esprit politique actuel (source). Un chiffre préoccupant, d’autant plus que la confiance reste un pilier fondamental de nos sociétés modernes : elle est au cœur du fonctionnement de la monnaie, de la justice, ou encore des institutions démocratiques.

Cette crise de confiance s’exprime aussi fortement sur les réseaux sociaux. L’exemple le plus frappant est sans doute le rachat de Twitter par Elon Musk, qui a entraîné de profonds bouleversements dans le fonctionnement de la plateforme. La décision la plus controversée a été celle de mettre fin à la régulation telle qu’elle existait auparavant, ouvrant ainsi la voie à un nouveau modèle de gouvernance des contenus.

Ce changement de paradigme n’est pas resté isolé. Il a inspiré d’autres géants du numérique, comme Meta (maison mère de Facebook, Instagram, etc.), à repenser leurs propres mécanismes de modération. C’est dans ce contexte qu’est née l’initiative des Community Notes, une tentative de régulation participative visant à évaluer les publications entre utilisateurs, à la manière d’un jugement collectif.

1. Le fonctionnement de l’algorithme des Community Notes de X

Le système des Community Notes, développé par la plateforme X (anciennement Twitter), constitue une innovation majeure dans le domaine de la modération communautaire. Son objectif est de faire émerger des annotations jugées utiles par des utilisateurs aux opinions diverses, afin d’apporter du contexte aux publications susceptibles de prêter à confusion (source). Ce modèle repose sur une combinaison d’évaluations humaines et d’algorithmes inspirés des systèmes de recommandation, notamment la matrix factorization.

Un algorithme fondé sur l’utilité perçue

Chaque note rédigée par un contributeur est soumise à l’évaluation d’autres participants, qui peuvent la juger « utile », « quelque peu utile » ou « inutile », correspondant respectivement à des scores numériques de 1.0, 0.5 et 0.0. Ces évaluations alimentent une matrice d’interactions, que l’algorithme utilise pour prédire la pertinence des notes selon les profils des évaluateurs.

L’équation principale du modèle est la suivante :

un = μ + iu + in + fu ⋅ fn

où :

  • un est la note prédite entre l’utilisateur u et la note n,
  • μ est une constante globale,
  • iu et in sont les biais de l’utilisateur et de la note,
  • fu et fn sont leurs vecteurs de facteurs latents.

C’est la valeur in — appelée intercepte de la note — qui détermine son utilité perçue globalement. Une note est classée :

  • Helpful (utile) si in > 0.40
  • Not Helpful (inutile) si in < -0.05 - 0.8 × |fn|
  • Needs More Ratings si aucun critère n’est rempli

Une validation inter-perspectives

Pour qu’une note soit validée comme Helpful, elle doit être jugée utile par au moins cinq utilisateurs de perspectives opposées (selon leurs facteurs latents). Cette contrainte garantit une forme de validation croisée entre points de vue divergents, réduisant ainsi les effets de chambre d’écho ou de manipulation de groupe.

Fiabilité des contributeurs

Les utilisateurs ne participent pas tous avec le même poids : leurs contributions sont pondérées par des scores de fiabilité, répartis en deux catégories.

Score d’auteur

Ce score est basé sur :

  • Un ratio pondéré entre le pourcentage de notes devenues Helpful et Not Helpful :
Score = P(Helpful) - 5 × P(Not Helpful)
  • Une moyenne des scores in des notes précédentes.
    Pour être éligible, un auteur doit avoir un score supérieur à 0 et une moyenne in > 0.05.

Score d’évaluateur

Ce score évalue la capacité d’un utilisateur à prédire correctement le verdict final d’une note. Il est défini ainsi :

Rater Helpfulness = (s - 10 × h) / t
  • s : nombre de votes conformes au statut final
  • h : nombre de votes « Helpful » attribués à des notes abusives
  • t : total des votes valides

Un évaluateur doit avoir un score ≥ 0.66 pour que ses votes soient pris en compte dans le scoring final.

Mécanismes anti-manipulation

Le système prévoit également des protections contre les abus :

  • Si une note reçoit de nombreux signalements négatifs émanant d’un groupe idéologiquement homogène, elle devra franchir un seuil plus élevé pour être validée.
  • Un modèle externe détecte les cas de harcèlement ou d’abus. Les auteurs soutenant une note jugée abusive peuvent être pénalisés.
  • Un mécanisme de stabilisation fige le statut d’une note deux semaines après sa publication, pour éviter les fluctuations liées à de nouvelles évaluations marginales.

Ce système hybride et algorithmique incarne une nouvelle approche de la modération : à la fois participative, scientifique et transparente, il cherche à équilibrer pluralité d’opinions, qualité de l’information, et lutte contre la désinformation à grande échelle.

2. La blockchain comme alternative trustless : le cas du Proof of Stake

Comme nous l’avons vu dans la partie précédente, le système des Community Notes, bien qu’élaboré et transparent dans ses objectifs, reste fondamentalement fermé. Toute la logique de validation tourne autour de son propre algorithme, de sa communauté restreinte de contributeurs, et d’un score calculé à partir de modèles internes. Or, en parcourant le code source du projet, il semble clair qu’il n’existe aucun lien direct entre les notes et les conséquences concrètes sur la plateforme (visibilité réduite d’un tweet, modération automatique, etc.). Le système reste donc circulaire, sans articulation forte avec le reste de l’infrastructure sociale de X.

Pour compenser cette absence de lien « réel » avec le monde extérieur, un mécanisme algorithmique complexe a été mis en place pour tenter de simuler une forme de vérité collective — mais comme toute simulation, il présente des limites, et des échecs sont possibles (biais structurels, effets de groupe, manipulation douce…).

Face à ce dilemme — où placer la confiance ? et surtout, est-elle réellement nécessaire ? — un autre modèle, radicalement différent, a vu le jour : la blockchain, et plus précisément ses systèmes de consensus trustless, qui permettent à des millions d’individus anonymes d’interagir sans jamais avoir à se faire confiance.

Le consensus sans confiance : une logique inversée

Contrairement à Community Notes, qui repose sur la réputation, les évaluations croisées et des scores de fiabilité, les blockchains publiques s’appuient sur un système anti-confiance (source). Autrement dit, elles partent du principe que personne n’est fiable par défaut, et que la sécurité du système doit émerger malgré cela. C’est l’essence même d’un système trustless.

Parmi les mécanismes de consensus utilisés en blockchain, les deux plus connus sont : le Proof of Work (PoW) et le Proof of Stake (PoS). Concentrerons sur le PoS, un modèle particulièrement intéressant pour penser la validation collective dans un contexte décentralisé. Dans un réseau en Proof of Stake, ce ne sont plus des machines qui « minent », mais des individus (ou nœuds) qui mettent en jeu leurs jetons (crypto-monnaies) pour participer à la validation des blocs de données. Ainsi, les garanties de sécurité ne viennent pas de la confiance dans l’individu, mais du fait que triche est sanctionnée et que le système est distribué. C’est donc un mécanisme d’incitation inverse : on ne présume pas la bonne foi des participants, on rend la triche coûteuse.

Une leçon pour les systèmes sociaux ?

La comparaison avec Community Notes soulève une question de fond : pourquoi essayons-nous encore de reconstruire des modèles centralisés (avec scores, réputation, vérification croisée, etc.) alors que des architectures décentralisées et anti-confiance ont prouvé leur efficacité à très grande échelle ?

3. Et si on réinventait la modération sociale avec le slashing ?

Finalement, face à la montée de la post-vérité, il devient crucial de sortir des systèmes uniquement basés sur la correction « après coup », sans conséquences réelles pour les auteurs des contenus trompeurs. Aujourd’hui, lorsqu’un tweet est annoté par une Community Note, il reste visible, partageable, et son auteur n’est que très rarement inquiété, même lorsque la publication a eu un large impact. Or, dans d’autres systèmes — comme la blockchain — on ne se contente pas de signaler une erreur : on la sanctionne économiquement. C’est tout l’intérêt du mécanisme de slashing dans les protocoles Proof of Stake : lorsqu’un acteur agit contre l’intérêt du réseau, une partie de sa mise est supprimée. C’est une manière directe de faire payer la triche, sans avoir besoin de faire confiance à un modérateur humain. Un modèle de slashing social : punir les comptes et redistribuer la valeur.

Ce mécanisme pourrait prendre plusieurs formes. Imaginons un système où, lorsqu’un tweet est jugé problématique par la communauté (via une Community Note validée), plusieurs conséquences automatiques sont déclenchées :

  • Shadow ban progressif : si un compte accumule des publications corrigées par la communauté, sa visibilité peut être réduite automatiquement, jusqu’à une suspension partielle de ses fonctions (commentaires, posts, etc.). Cela introduit un vrai risque réputationnel et algorithmique, comme pour un validateur blockchain fautif.
  • Slashing économique : si le tweet était monétisé (revenus publicitaires, vues sponsorisées, etc.), alors sa rémunération serait retenue ou annulée, et redistribuée aux contributeurs de la Community Note qui a permis de rétablir la vérité. Ainsi, la valeur générée par un contenu faux ou trompeur serait reversée à ceux qui ont rétabli le contexte, créant une incitation forte à participer à la correction collective.

De la viralité à la responsabilité, ce modèle inverserait la logique actuelle : aujourd’hui, la viralité précède la vérité, et la correction arrive souvent trop tard. En intégrant un système de sanctions et de redistribution, la plateforme introduirait une économie de la vérification, où chaque publication engage l’auteur de manière plus directe. En reprenant les principes du slashing, mais appliqués au champ social et informationnel, on ouvrirait la voie à une modération post-virale, dissuasive et redistributive. Non pas pour censurer, mais pour rendre coûteuse la désinformation, et rentable la contribution à une information collective plus saine.

Amaury Denny

Sources

Quitter la version mobile