ADS Reddit: “The Era of WE”

Le marketing de groupes auxquels les consommateurs revendiquent d’appartenir

Souvent peu évoqué et mis de côtés par rapport aux réseaux sociaux comme Facebook, Instagram, Twitter et LinkedIn au sein des stratégie de marketing digital, Reddit est un géant du Net, voté en 2017 comme 4eme page web plus visité aux US.  Avec un trafic de 1.29 milliards de visites et 330 millions d’inscrits en Octobre 2019, la page reste un canal très intéressant pour les marques.  Basée sur un concept de pluri-forums gratuit en vision communautaire, Reddit offre un espace de dialogue et discussions directe avec le public.  Au sein de chaque espaces (communément appelés subreddit, identifié par l’identifiant r/nomdusubreddit) les internautes échangent et discutent sur les sujets par le biais de commentaires. Les commentaires sont au centre du model UGC de Reddit, car en fonction des votes que celui-ci reçoit, positifs ou négatifs, sa visibilité s’accroît ou décroît au sein du subreddit. Dans le cas d’un vote positif le post remonte dans le fils (upvoting), au contraire il se perd dans les limbes de la page (downvoting). Pour conclure, une home-page (frontpage) générale pour chaque inscrit, en réunissant tous les contenus suivis (come Twitter)   

Quelle est la valeur ajoutée de Reddit ?

En tant qu’utilisateur, Reddit offre un contenu crée par les utilisateurs qui mixe divertissement et informations. Définit comme un espace d’échange intelligent au sein duquel l’utilisateur peut, poser des questions sur un sujet, répondre et aider d’autre utilisateurs ou s’informer sur l’actualité. La segmentation en subreddit permet de regrouper des personnes qui partagent les même signes, langages et humour. Le site devient donc un espace où s’entraider et s’amuser entre proches en partageant une étique commune (Reddtiquete).

Quelle sont les intérêts d’aller sur Reddit ?

La présence de la marque sur Reddit se traduit en engagement, image de marque, service après-vente (SAV) et notoriété. Au fil du temps ces aspects sont devenus toujours plus importants pour les firmes, en adaptant en conséquence les actions marketing. Ainsi se développent les figures de Community Manager, qui doivent assurer l’image de la marque par différents canaux. Une conversation ouverte et transparente s’instaure sur un sujet quelconque qui peut intéresser le brand en question. Pour répondre à des problématiques, demander un avis, communiquer ou vendre un produit/service. Reddit restes aussi un moyen pour suivre l’actualité d’un certain sujet ou topic en lien avec l’activité de la société.

Quelle est le service publicitaire offert par Reddit ?

La page en question, qui a reçu 300 millions de dollars d’un investissement du géant chinois Tencent, a su s’adapter aux besoins B2B en mettant en place un système enraciné dans l’économie du Net. Le service d’ADS de Reddit est clair et linéaire. En payant une certaine somme, en fonction de la discussion, le message du client accroît en notoriété, sans prendre en compte le classement organique des votes des internautes, en remontant le fil de discussion. Il s’agit donc d’un système de visibilité payante qui rappelle le Paid Search en opposition avec le référencement naturel SEO du champion moderne du web Google. Évidemment les options de revenu du site ne s’arrêtent pas au B2B en s’adressant aussi à l’utilisateur. La plateforme, définit donc en tant que multiface, permet aux utilisateurs de récompenser les utilisateurs pour leur contribution de contenus. Pour faire cela un système de monnaie virtuelle interne (les Coins) peuvent être achetées et données. Cette currency peut être ensuite échangée avec des icônes et de features à l’intérieure du site même. Posséder ces icônes devient donc emblème de l’implication de l’utilisateur. Pour finir, un service de vente d’espace publicitaires pour display est fourni, qui se base sur un ciblage en programmatique très précis. Les données qui permettent telle précision sont, comme sur Facebook, sont des données captées sur le site, basées sur les centres d’intérêts des visiteurs, leurs votes et données third-party.

Quelles sont les stratégies marketing utilisées sur Reddit ?

Les campagnes de marketing à appliquer sur Reddit sont nombreuses et changent en fonction des objectifs, du contexte et de la marque qui l’applique. Concrètement des actions payantes et des actions gratuites peuvent êtres misent en places par les firmes. Comme avec Google le payant s’impose pour une vision court terme et le référencement pour une vision long terme. Mais dans tous les cas une règle s’impose, c’est à dire maintenir une discussion horizontale avec l’utilisateur. L’idée de mettre en avant des arguments d’authenticité et parité permet d’être accepté par l’internaute. Voici quatre exemples d’action marketing sans recourir à des solutions payantes assez communs parmi les nombreux :

  • Organiser des AMA : Ask me Anything, il s’agit d’une FAQ cachée qui permet à la marque de répondre aux questions des utilisateurs et les rendre publiques. En faisant ainsi la marque peut fixer des réponses standards qui peuvent intéresser plusieurs clients et communiquer une présence et une image de marque. 
  • Fixer des Calendriers : C’est un système qui se refait à un outil de Reddit qui fixe un compte à rebours et envoie un push-up (notifications) à toute la communauté. Cela permet de créer le sentiment de hype (attente) pour les inscrits en vue d’un lancement d’une offre, un événement ou une communication.
  • Mettre en place un Contest : Lancer un défi aux utilisateurs en échange de récompense pour recueillir des informations, créer de l’engagement et agrandir la communauté.
  • Créer du contenu Viral : Créer du contenu qui est facilement partageable par l’utilisateur sur la plateforme sur d’autre subreddit pour aller toucher les membres d’autres communautés.

Le concept de communauté est donc au centre des nouvelles campagnes de digital marketing qui s’oppose en manière directe à la fragmentation des réseaux sociaux où la publicité était vu comme un élément dérageant la navigation. Au contraire avec Reddit la publicité doit être accepté par l’internaute.

 “As the social media landscape continues to fragment and people look for authentic connections based on shared interests, we’re proud that Reddit offers a place for users to find community. “Jack Koch Global Head of Marketing Sciences Reddit

THIERRY TURCO
MTM 226 DAUPHINE

Les deepfakes joueront-ils les trouble-fêtes dans les élections américaines ?

L’émergence et le perfectionnement des deepfakes suscitent de vives inquiétudes dans les sphères politico-médiatiques sans qu’aucune mesure concrète n’ait encore été prise. La déclaration de Monika Bickert, vice-présidente de la gestion des politiques mondiales chez Facebook, pourrait marquer un tournant décisif dans l’appréhension de ce phénomène, une menace réelle pour le groupe lui-même.

Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Des messages étonnants, suspects et dangereux appelés deepfakes.

Pour la première fois, le géant américain se positionne réellement et annonce des mesures concrètes pour encadrer ce qui pourrait être une réelle bombe à retardement à l’approche des élections présidentielles américaines.

Une technologie demain à la portée de tous

Apparu à l’automne 2017, le terme de deepfake désigne des vidéos truquées grâce à l’intelligence artificielle permettant d’animer des images au bon gré de l’internaute, en appliquant à n’importe quel visage un comportement humain pour le faire parler et bouger selon son souhait. Contraction de « fake » et de « deep learning », ces trucages se développent grâce aux techniques des GAN, comprenez les Generative Adversarial Networks.

Le principe est simple : deux algorithmes s’entrainent mutuellement. Le premier crée des imitations les plus crédibles possibles, le second tente de détecter le faux dans l’exécution du premier. Les répétitions du programme entraînent l’algorithme et permettent d’améliorer la technique pour obtenir des résultats de plus en plus proches de la réalité. La machine se perfectionne toute seule et les résultats obtenus peuvent être stupéfiants : Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Ces vidéos sont rapidement devenues virales, si bien que l’envie de rendre cette technique accessible à tous s’est imposée.

De nombreuses entreprises se lancent alors à l’assaut d’un marché qui pourrait leur rapporter gros. Des acteurs chinois ont très vite pris les devants dans cette course technologique : l’application Zao par exemple propose d’incruster votre visage dans des films célèbres. Doublicat se spécialise dans l’incrustation de visage dans des GIF. Snapchat et TikTok  comptent bien être de la partie et ont déjà annoncé le développement de fonctionnalités similaires. Parallèlement, le nombre de deepfakes explose : de 8 000 à 14 700 entre fin 2018 et automne 2019. Et ce n’est qu’un début. Cette technique devrait être réellement accessible à tous d’ici 6 mois et cela avec une qualité très satisfaisante.

Une menace bien réelle pour les démocraties

Si pour l’instant, on estime à 96% la part de deepfakes relevant du divertissement et de l’humour, la menace pourrait grandir très vite, notamment s’ils sont utilisés à des fins de communication politique.  Alors que l’élection américaine approche à grand pas, l’affaire Cambridge Analytica reste dans tous les esprits et démontre que les réseaux sociaux sont aujourd’hui un nouveau terrain stratégique pour la propagation voire la manipulation d’idées, supportée par l’accès à des données numériques permettant d’identifier des profils d’utilisateurs. Les réseaux sociaux ont révolutionné la diffusion de l’information, dans sa forme et sa vélocité. Ils impactent notre vision de l’actualité et donc parfois nos opinions personnelles. Le sensationnel dépasse bien souvent le rationnel et les algorithmes de ces machines sociales permettent la mise en avant d’informations peu fiables qui alimentent pourtant nos perceptions de la réalité.  

La menace réside dans le fait que les limites actuelles des deepfakes, technologiques, ne pèsent pas lourd face à cette nouvelle forme de diffusion.  En prêtant attention, un internaute n’aurait pas de mal à distinguer un deepfake d’une vidéo non trafiquée. Pourtant, les utilisateurs des réseaux sociaux se caractérisent par une attention souvent courte. Ils sont désireux de trouver des contenus synthétisés, percutants, consommables partout et instantanément. Pour preuve, le deepfake annonçant l’éradication du sida par Trump, pourtant une campagne de prévention contre le sida, n’a majoritairement pas été visionnée jusqu’à la fin, alors que le démenti apparaissait en conclusion de la vidéo. La fausse information est partagée en un clic, commentée, et l’information se propage. Le démenti aura ainsi beaucoup moins de visibilité et d’impact que la première vague de diffusion.

L’enjeu majeur n’est donc pas de détecter ces vidéos pour les signaler, mais bien d’être capable de les stopper ou de les identifier avant qu’elles ne soient publiées.

Ces craintes pourraient paraître trop alarmistes si les deepfakes n’avaient pas déjà été utilisés de manières fallacieuses dans un contexte politique. En effet, durant les élections législatives britanniques  de 2019, et donc dans un contexte politique tendu, deux faux enregistrements vidéos ont été diffusés sur les réseaux sociaux dans le but de déstabiliser les électeurs. Ces vidéos mettaient en scène les candidats vantant les mérites de leurs opposants. Lorsqu’on connaît l’impact qu’ont eu les fake news dans certains suffrages, tels celui du Brexit,  la réelle menace pour nos démocratie ne relève plus de la science-fiction.  

Des niveaux de sanction très variables selon les pays

Alors, nos gouvernements sont-ils parés pour lutter contre ces dérives ? Alors que la Chine applique depuis le 1 janvier 2020 une loi permettant d’appréhender les créateurs de deepfakes au même titre que des criminels, les instances politiques françaises semblent moins enclines à légiférer sur le sujet.

Le 15 octobre 2019, le secrétariat d’État au numérique publie une réponse officielle aux débats sur la nécessité de s’armer contre l’auteur d’un deepfake fallacieux. Il affirme que le droit français possède déjà le recours permettant de lutter efficacement contre cette menace : la loi relative à la lutte contre la manipulation de l’information, en vigueur depuis le 22 décembre 2018. Elle permet la création d’un référé habilité à stopper en urgence la diffusion d’une fausse information, l’obligation d’une plus grande transparence des sites en période électorale sur l’origine des informations, d’accorder des pouvoirs de régulation accrus au CSA. Ces mesures ne semblent cependant pas suffisantes à la CNIL qui recommande en novembre 2019 un cadre législatif et réglementaire spécifique à la reconnaissance faciale, et donc à la conception de deepfakes : « L’informatique doit être au service de chaque citoyen. […] Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».

Les faiblesses du cadre législatif ne sont pas dénoncées uniquement en France. Aux États-Unis, le groupe de réflexion Future Advocacy, qui réunit de nombreux professionnels, pointe du doigt la préoccupation d’ordre public et la désinvolture de la sphère politique face à ces dangers.

Si la piste interventionniste est abandonnée du côté législatif, l’autre voie, cette fois-ci libéraliste, consisterait à laisser aux plateformes le soin de résoudre le problème. Jusqu’à maintenant, Facebook et les autres acteurs sont protégés par leur statut d’hébergeur, et non d’éditeur, qui les déresponsabilise sur leur contenu.

Cependant, Twitter, Pornhub, Gfycat appliquent déjà depuis peu une politique de modération drastique avec la suppression systématique des deepfakes. L’action de ces acteurs, notamment Pornhub, n’est pas anecdotique lorsqu’on connaît la création répétitive des deepfakes calquant le visage d’actrices renommées sur des vidéos pornographiques pour ensuite diffuser ces vidéos.

En revanche de son côté, Facebook a toujours été extrêmement réticent à sortir de sa neutralité et donc de sa non responsabilité légale. Cependant, la stratégie de communication du géant américain pourrait bien changer, pour éviter un nouveau scandale qui finirait de ternir son image.

Enfin des mesures plus concrètes mais pas forcément suffisantes

Les annonces ont débuté en septembre. Avec le lancement du Deepfake Detection Challenge, Facebook jetait un premier pavé dans la mare et proposait à des entreprises du secteur et à des universitaires de se rassembler le temps du challenge afin de stimuler la recherche et la production d’outils en open source. Le projet a notamment réuni Microsoft, Amazon, le MIT et l’Université de Californie.  Le réseau social avait pour cela investi 10 millions de dollars dans le projet et poursuivi ses investissements dans le laboratoire FAIR. Ce dernier a pour mission de travailler à l’avancement du projet de « désidentification » et l’utilisation de l’IA dans le but d’appliquer un filtre vidéo invisible afin d’empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des deepfakes

En décembre 2019, Facebook annonçait avoir supprimé “un réseau utilisant des photos générées par l’IA pour dissimuler leurs faux comptes. Nos équipes continuent à rechercher de manière proactive les faux comptes et autres comportements inauthentiques coordonnés[1].

Lundi 6 janvier 2020, la lutte du géant américain contre les deepfakes prend une tournure plus concrète avec l’annonce de mesures. En plus d’un partenariat avec le média international Reuters, qui aurait pour objectif d’accompagner les rédactions du monde entier en leur apprenant à identifier les deepfakes grâce à des outils et des formations en ligne, Facebook souhaite agir directement sur les publications.

Le géant propose cette fois-ci de sanctionner les contenus en empêchant la monétisation et en labellisant la vidéo comme une fakenews. Les vidéos concernées devront répondre à ces deux conditions :

  • La vidéo a été modifiée sans que le trucage soit facilement détectable par une personne lambda.
  • La vidéo a employé des techniques d’Intelligence artificielle ou du machine learning.

Cette déclaration n’est pas inopportune puisqu’elle arrive juste avant une nouvelle audition par la chambre des représentants des États-Unis, dans laquelle le réseau social, après son premier passage critiqué, devra se montrer plus convaincant s’il veut parvenir à rassurer l’opinion publique.

Mais alors, quels sont les risques à laisser Facebook comme seul modérateur ? Facebook affirme que cette modération ne s’appliquera pas aux contenus parodiques ou satiriques. Le géant américain devra donc juger le caractère humoristique d’un contenu,  un exercice très subjectif et qui, utilisé à mauvais escient, pourrait s’apparenter à de la censure.  Cependant, ces acteurs puissants semblent être les seuls réellement capables aujourd’hui de développer des techniques et des outils permettant de lutter contre les deepfakes, qui constituent une prouesse technologique indéniable, mais qui, sans encadrement pour en limiter les dérives, pourraient nuire à nos démocraties.

Louise DANIEL

https://www.lci.fr/high-tech/video-deepfake-la-menace-devient-reelle-2143709.html

https://www.latribune.fr/technos-medias/internet/deepfake-la-nouvelle-bete-noire-de-facebook-836553.html

https://portail-ie.fr/analysis/2253/intelligence-artificielle-et-deepfakes-la-naissance-de-nouveaux-risques-strategiques

https://www.actuia.com/actualite/comment-facebook-compte-lutter-contre-les-deepfakes/

www.numerama.com/politique/561713-le-gouvernement-considere-que-la-loi-permet-deja-de-lutter-efficacement-contre-les-deepfakes.html

www.journaldugeek.com/2020/01/14/deepfake-application-devenir-meme/



Le nouveau business des micro-influenceurs

Avec son lancement en 2010, Instagram a rapidement su s’imposer comme levier marketing incontournable pour les annonceurs, notamment grâce à l’amplification du phénomène des influenceurs. En effet, avec la remise en cause des systèmes de publicités actuels, les consommateurs sont de plus en plus nombreux à se tourner vers un marketing d’influence.

Les micro-influenceurs s’imposent comme un levier de communication à ne pas négliger. Ces derniers proposent une communauté de niche et très réactive.

Il s’agit ici de comprendre le phénomène récent des micro-influenceurs et pourquoi ces derniers sont devenus indispensables aux marques.

Qu’est-ce qu’un « Micro-influenceur » et pourquoi les marques se les arrachent ?

Même s’il n’existe pas réellement de définition exacte, le micro-influenceur est déterminé comme un individu comptant seulement une dizaine de milliers d’abonnés dans sa communauté. Il se situe dans la hiérarchie d’influence entre le nano et le macro-influenceur.

Mais pourquoi ces nouvelles « stars » se sont imposées comme un levier incontournable du marketing d’influence courant 2019 ?

Le premier point est que le micro-influenceur est souvent plus « influent » envers ses abonnés de par la taille de sa communauté, et devient donc plus intéressant pour les marques. Ces derniers sont souvent plus spécialisés, ont une proximité plus importante avec leurs abonnés et propose une cible de niche pour les annonceurs, et mécaniquement, l’engagement sera plus important. Pour mieux comprendre cette mécanique, rendez-vous sur l’étude Tank effectuée sur 300 000 comptes Instagram et qui semble mettre en avant la relation inverse existant entre le nombre d’abonné et le taux d’engagement

Ce dernier point est un point essentiel pour bien comprendre le phénomène du micro-influenceur. Plusieurs études récentes ont montré que l’engagement sur les publications des micro-influenceurs étaient largement supérieur à la moyenne sur les réseaux sociaux et ceci grâce à trois aspects :

  • Forte proximité avec sa communauté

Un micro-influenceur se doit d’entretenir une relation authentique avec son audience, de cultiver et diffuser une image de proximité. C’est exactement ce que recherchent les marques aujourd’hui. Grâce à lui, ces dernières peuvent s’immiscer dans l’espace privée des gens sans forcément passer par la publicité agressive classique.   

  • Spécialisation du domaine d’activité

Les micro-influenceurs, de par la fréquence de leur publication, ont la particularité d’avoir un capital confiance très important face à leur communauté. Le jugement du consommateur sera très fortement indexé sur celui de l’influenceur. Ainsi, les marque s’approprient aisément cette crédibilité à travers des partenariats et la promotion directe de leur produit par le micro-influenceur.

  • Une valeur bon marché

Les micro-influenceurs s’avèrent être plus abordables et moins exigeants que les influenceurs classiques. Là ou un gros influenceur peut prendre plusieurs milliers d’euros pour une publication, le micro-influenceur est généralement récompensé de petits cachés bien plus abordables pour les marques.

L’explosion du phénomène

En 2018, les marques ont commencé à revoir leur stratégie marketing d’influence en se tournant vers ces nouveaux acteurs. Très vite, les collaborations se sont avérées concluantes et c’est en 2019 que le véritable boom du micro-influenceur est apparu.

De nombreuses marques se lancent dans les collaborations. Un exemple de campagne a succès est Rimmel. Cette fameuse marque de cosmétique voulait à tout prix se démarquer de la concurrence. Elle a alors trouvé l’ingénieuse idée de contacter des micro-influenceur beauté sur Instagram et leur demander de poster une photo de leur nouveau produit avec le visage a l’envers. Pourquoi ? Tout simplement pour mieux capter l’attention de l’internaute.

Le résultat est immédiat :

  • 3 millions d’audience cumulée sur les réseaux sociaux
  • 75 000 favoris
  • Plus de 1000 commentaires
  • 200 tweets et partages

Quelques chiffres clefs sur les micro-influenceurs:

Une étude de Klear a estimé le prix moyen d’un post instagram (chiffres 2019) :

  • 172$ pour un micro-influenceur
  • 507$ pour un macro-influenceur (de 30 000 a 500 000 abonnés)
  • 2058$ pour une célébrité (plus de 500 000 $)

En 2018 :

  • Les micro-influenceurs ont publiés 84% des messages sponsorisés
  • 80% recommandent des produits ou services au moins une fois par semaine
  • 70% des micro-influenceurs travaillent sur moins de 5 campagnes marketing par an

Limites légales et transparence

Face à cette montée en puissance, de nombreuses limites au système sont apparues. Par exemple, certains micro-influenceurs n’hésites pas à ne pas mentionner lorsqu’il s’agit de partenariats, alors que c’est une obligation. De nombreux problèmes se posent alors : Comment réguler et assurer la transparence de ce système ? De nombreuses tentatives ont émergées mais en vain.

En France, contrairement aux États-Unis, il n’existe pas de loi spécifique pour les collaborations entre marques et influenceurs. L’ARPP (l’autorité de Régulation Professionnelle de la Publicité) a mis en place un certain nombre de règles pour encadrer ces partenariats ainsi qu’un jury déontologique destiné à intervenir en cas de dépôt de plainte d’un consommateur envers un influenceur qui ne respecterait pas les règles de transparence (en cas de partenariat, l’influenceur se doit de le préciser lors de la publication de son post).

Cependant, l’ARPP ne dispose d’aucun pouvoir de sanction et ne se base que sur le principe de dénonciation du « name and shame ».

Aujourd’hui, si une marque ou un influenceur ne respecte pas les règles fixées par l’ARPP, oubliant ainsi le principe de transparence, de lourdes sanctions peuvent être applicables : jusqu’à 300 000 € d’amende et deux ans d’emprisonnement.

EN 2016, la Concurrence, de la Consommation et de la Répression des fraudes (DGCCRF) a lancé une série d’enquêtes afin de s’assurer du respect de ces règles de transparence.

Romain Keime

https://siecledigital.fr/2019/12/16/marques-influenceurs-quel-cadre-legal/
https://www.strategies.fr/blogs-opinions/idees-tribunes/4026389W/le-nouveau-business-des-micro-influenceurs.html
https://weekend.lesechos.fr/mode-et-beaute/actualites/0600890144855-pourquoi-les-marques-parient-sur-les-micro-influenceurs-2253296.php
https://start.lesechos.fr/societe/culture-tendances/a-qui-profite-le-business-des-influenceurs-13367.php
https://www.journalducm.com/micro-influenceurs-levier-indispensable-aux-marques
https://www.definitions-marketing.com/definition/micro-influenceur/
https://www.meltwater.com/fr/blog/chiffres-marketing-influence/
https://www.meltwater.com/fr/blog/comment-gagner-en-impact-grace-aux-micro-influenceurs/
https://blog.klear.com/influencer-pricing-2019/

Pour Facebook, « l’avenir est privé »

Le groupe Facebook souhaite mettre fin à la morosité de ses dernières années et compte progresser vers un modèle beaucoup centralisé.

FACEBOOK, UNE PLATEFORME EN MAUVAISE POSTURE

Ces deux dernières années auront été particulièrement difficiles pour la firme Facebook, passées à essuyer les retombées entraînées par le scandale des data leaks, lors duquel les informations de 87 millions de comptes ont été piratées. Cette très mauvaise presse met depuis deux ans la firme et son PDG sous pression face à une forte détérioration de leur image et de la confiance accordée par leurs utilisateurs. À tel point que le cours de l’action a diminué de 30% depuis mars dernier.

Par ailleurs, de nouveaux entrants sur le marché des plateformes sociales viennent ajouter de l’incertitude à ses horizons stratégiques. Ce sont de nouveaux noms qui apportent un vent de fraîcheur auquel les générations les plus jeunes sont particulièrement réceptives : TikTok en est la manifestation la plus parlante avec ses 1,7 milliards d’utilisateurs mensuels. Par opposition, Facebook apparaît plus vieillissant et se retrouve une nouvelle fois confronté à un concurrent, très populaire auprès de la Gen Z et peut-être plus difficile à tenir à distance que Snapchat.

LES ÉCHANGES PRIVÉS, UN MARCHÉ PROMETTEUR

Mais en dehors de ces difficultés, d’autres signaux indiquent assez clairement des évolutions de marché auxquelles il convient de répondre pour rester en adéquation avec les utilisateurs et leurs modes de consommation. Comme l’a très justement remarqué Mark Zuckerberg, « l’avenir est privé » (Conférence F8, avril 2019). 

Et pour cause, les échanges privés ont pris une part grandissante dans les interactions des individus sur les réseaux sociaux. En effet, ce qu’on appelle le « dark social » constitue une majorité des contenus partagés : il s’élève en 2019 à 63% des flux d’informations échangées, du moins aux États-Unis et en Grande-Bretagne. Il y a donc un désengagement avéré des échanges sur les supports publics, qui traduit un intérêt assez généralisé pour le respect de la vie privée. 

Cette tendance assez marquée pointe un manque à gagner du côté des marques dans leurs stratégie marketing : une grande partie des échanges entre utilisateurs leur échappent manifestement, échanges qui peuvent potentiellement concerner leurs goûts et comportements de consommateurs, comme le précise Chase Buckle, responsable des tendances pour GobalWebIndex : « Alors que les plateformes de médias sociaux publiques remplissent de plus en plus le rôle de sources de consommation de contenu, les plateformes de messagerie privée sont maintenant le lieu où des conversations et des recommandations significatives ont lieu entre pairs qui s’engagent activement les uns avec les autres. Le partage de contenu avec un grand réseau d’amis accumulé au fil des ans peut avoir une portée impressionnante, mais n’est rien comparé à l’environnement des messageries privées, qui est beaucoup plus propice à la confiance dans les recommandations ».

Il y aurait donc un intérêt non négligeable pour les marques qui communiquent via Facebook pour mieux affiner leur stratégie et s’adresser plus directement au consommateur, par des conversations et chatbots par exemple. Logiquement, c’est aussi une occasion pour une plateforme telle que Facebook de s’octroyer une place d’autant plus centrale dans son écosystème vis-à-vis de ces entreprises tierces.

D’UN CHANGEMENT DE PARADIGME À L’INTÉGRATION DES PLATEFORMES

C’est dans cette perspective que Mark Zuckerberg pousse pour un virage stratégique majeur, qui vient remettre en question l’identité même de Facebook. Le 6 mars 2019, il annonçait officiellement vouloir faire progresser Facebook vers l’interaction privée ou en groupes avec deux conséquences majeures : le regroupement de ses trois plateformes principales et le cryptage des conversations privées. Ce revirement s’inscrit dans une dynamique qui se rapproche du modèle de WeChat, la super-application du groupe Tencent qui rassemble une part colossale des achats en ligne et de la vie sociale digitale sur le marché chinois. Il s’agirait donc d’opérer une intégration de ses trois fleurons : Messenger, Instagram et WhatsApp. Bien entendu, ce rapprochement ne vise pas à fondre les trois applications en une seule : Facebook s’oriente vers une centralisation de la vie numérique de ses utilisateurs, certes, mais moins appuyée que dans le cas de WeChat. Les plateformes resteront en effet distinctes les unes des autres dans leur utilisation, en revanche le rapprochement se jouera sur leurs infrastructures respectives qui seront unifiées, ce qui implique de revoir entièrement tout un pan de leurs fonctionnements différents.

L’intérêt d’une telle entreprise réside dans l’agrégation de 2,7 milliards d’individus, qui pourront interagir entre eux d’une application à l’autre, grâce à la mise en place de passerelles pour faciliter la navigation sur l’ensemble des services du groupe. C’est pour le géant des réseaux sociaux un moyen de capter leur engagement dans un écosystème davantage verrouillé, à l’abri de ses concurrents. De cette manière, le groupe pourrait du même coup renforcer le contrôle sur ses filiales, tout en consolidant son emprise sur l’essentiel de la vie sociale digitale de ses utilisateurs. On pourrait y voir une volonté de s’enraciner un peu plus dans leur vie quotidienne à l’instar du Chinois WeChat. Favoriser les interactions privées, c’est-à-dire le trafic sur ses applications, est un terrain d’opportunité crucial pour augmenter ses revenus, notamment avec la publicité. Mais de surcroît, c’est un tremplin pour se diversifier avec le renforcement de services complémentaires et donc de nouveaux revenus (avec une nouvelle forme de e-commerce ou de transaction par exemple).

Les ambitions de Facebook vont-elles donc réellement se concrétiser ? Pas si sûr ! Les relations de Facebook avec ses deux plus grosses filiales s’étaient avérées assez houleuses ces dernières années. WhatsApp et Instagram y voient le danger d’une perte de leur autonomie qui leur était promise lors de leur acquisition, à tel point que leurs fondateurs respectifs ont claqué la porte en 2018. Mais les résistances proviennent également et plus récemment des pouvoirs publics. Le projet ne semble pas être du goût la FTC (Federal Trade Commission), un organe faisant autorité sur la régulation de la concurrence américaine. Celle-ci a émit de sérieuses réserves ces derniers mois quant à ce projet qu’elle perçoit comme anticoncurrentiel.

LA PROMESSE DU CRYPTAGE FACE À LA RÉALITÉ

La deuxième promesse du PDG de Facebook, le cryptage end-to-end, manifeste plutôt sa volonté de tourner la page du scandale des data leaks et assurer le respect de la vie privée dans l’infrastructure de ses services. Le but du cryptage end-to-end, qui consiste à rendre accessible les conversations privées uniquement aux interlocuteurs, serait de garantir un espace sécurisé par défaut et non de manière optionnelle (comme c’est le cas aujourd’hui). C’est bien le principe de privacy by design déjà présent dans l’architecture de WhatsApp qui serait appliqué à Facebook Messenger. Si l’accès aux échanges se réduit aux personnes impliquées dans une conversation, cela signifierait donc que Facebook lui-même n’aurait pas de droit de regard sur ces données, contrairement aux publications publiques. Se pose alors la question de son modèle économique, qui s’est jusqu’ici largement basé sur la collecte et la monétisation de données, et qui s’en trouverait inévitablement bouleversé. Pour l’instant, la firme ne semble pas avoir apporté plus de précisions à ce sujet…

Par ailleurs, le cryptage des échanges privés se heurte encore une fois aux pouvoirs publics (notamment américains) sur le plan de la sécurité, cette fois. De manière assez logique, rendre les conversations totalement hermétiques à toute tentative extérieure expose notre société à un certain nombre de menaces. La désinformation, tout d’abord, qui a marqué l’actualité politique de ces dernières années ne pourrait vraisemblablement plus être modérée et efficacement combattue, puisqu’elle passerait sous les radars. Mais d’autres menaces au moins aussi dangereuses sont à redouter : les contenus haineux ou violents, la propagande terroriste, la pédophilie et plus généralement les activités illicites. Ce sont tous ces comportements qui seraient encouragés à proliférer sur la plateforme, puisque bien moins exposés que sur un fil d’actualité public. Mais pour Facebook, l’enjeu de sécurité concerne aussi les citoyens face à des États, qui pourraient se montrer trop intrusifs, menaçant la liberté d’expression, sous prétexte de lutter contre la criminalité.

Enfin, cette éthique de privacy semble également peu cohérente avec les fortes inquiétudes de la part d’une de ses filiales quant à l’anonymat de ses utilisateurs. En effet, si le cryptage de Messenger permet plus de sécurité sur l’application elle-même, la relier avec WhatsApp fragiliserait lourdement les garanties de cette dernière en la matière. Ses utilisateurs, pour créer un compte, n’ont qu’à fournir un numéro, rien de plus, ni leur adresse, ni même leur nom. À l’inverse, Facebook regroupe de nombreuses informations sur l’identité des personnes y possédant un compte. Si des liens sont établis entre les comptes personnels des utilisateurs sur les deux applications, la garantie d’anonymat sur WhatsApp risque bien d’en être impactée. 

Il apparaît donc clair que passer d’un modèle d’interactions publiques à un environnement privé, ça ne va pas de soi. C’est tout une identité, une infrastructure, un cadré légal et une relation groupe-filiales qui est à revoir. Le parcours de la firme vers cet horizon présente encore de nombreux obstacles venant des pouvoirs publics américains, de son écosystème et plus profondément d’une vraie rupture stratégique, qui viennent apporter beaucoup d’incertitude quant au succès de la démarche.

Hugo Salameh

Références

Wall Street Journal : https://www.wsj.com/articles/ftc-weighs-seeking-injunction-against-facebook-over-how-its-apps-interact-11576178055

New York Times : https://www.nytimes.com/2019/01/25/technology/facebook-instagram-whatsapp-messenger.html

Washington Post : https://www.washingtonpost.com/technology/2019/03/06/facebooks-mark-zuckerberg-says-hell-reorient-company-towards-encryption-privacy/

Forbes : https://www.forbes.com/sites/zakdoffman/2019/10/06/is-facebooks-new-encryption-fight-hiding-a-ruthless-secret-agenda/#268770c75699

Les Échos : https://www.lesechos.fr/tech-medias/hightech/facebook-envisage-un-messenger-100-crypte-1145953

La Réclame : https://lareclame.fr/tendances-digitales-2020-224558

La Réclame : https://lareclame.fr/wearesocial-globalwebindex-darksocial-216777

Slate : https://korii.slate.fr/tech/place-publique-salon-prive-recentrage-zuckerberg-revolution-facebook

Les millenials, cible définitivement perdue par les médias télévisuels français?

Alors que les 15-34 ans désertent de plus en plus la télévision, la consommant désormais moins de 2 heures par jour en 2018 (vs. 2h26 en 2017), les médias français ont été obligés de revoir leur stratégie marketing pour s’adapter aux nouveaux modes de consommation des millenials. En ligne de mire: le réseau social chinois Tik Tok. Présent dans 155 pays, avec 625 millions d’utilisateurs mensuels actifs dont 41% de moins de 25 ans, il revendique également 4 millions d’utilisateurs en France qui ont uploadés pas moins de 270 millions de vidéos sur l’année 2018-2019. 

Des débuts difficiles sur le réseau pour les médias traditionnels 

Différent de Snapchat ou Instagram qui sont aussi prisés par les jeunes, le but de Tik Tok est de publier de courtes vidéos (comme Vine l’a fait quelques années auparavant), de playbacks de chansons ou d’extraits de films, avec un montage dynamique. Il est possible de rajouter des effets et des filtres. Le succès de cette application a d’abord commencé en Asie où elle est née, grâce aux reprises des chorégraphies de K-pop. 

Au vu du succès de cette application qui a racheté son concurrent Musical.y en 2017, les grands groupes français ont tenté d’investir Tik Tok pour créer du contenu sur la plateforme. L’enjeu pour ces médias est de reprendre les codes de l’ADN de Tik Tok: un contenu énergique, propice au partage et au buzz sur fond musical. Les chaînes anglo-saxonnes ont été les premières à  utiliser l’application pour faire la promotion de leurs programmes via des challenges. A ce titre, NBC a lancé un challenge de danse pour promouvoir son programme Wolrd of Dance, et a cumulé 110 millions de vues en 24H. En revanche en France, si les médias digitaux comme Konbini ont compris l’éditorialisation des vidéos, les débuts des médias télévisuels français sont timides.

Seul le groupe NRJ en France a repris cette idée en adaptant ses campagnes marketing. Il a par exemple proposé aux utilisateurs de reproduire une chorégraphie du groupe Aome en tagguant NRJ afin de gagner un voyage. A contrario, des chaînes comme TF1 ou M6 ne font pas de contenu original et teasent leurs programmes (The Voice, Koh-lanta, Qui veut être mon associé…) via des vidéos que l’on retrouve sur les autres réseaux. Néanmoins en postant régulièrement, ces médias ont vu leur communauté grimper en un peu plus de 6 mois: +98% our TF1, +98% pour NRJ et + 2052% pour TFX grâce à ses programmes de télé-réalité, regardés majoritairement par les 15-25 ans. 

Des formats publicitaires spéciaux pour faire grandir son audience

Au delà de la création de contenu encore marginale pour les médias français, Tik Tok propose des formats publicitaires qui pourraient attirer ces derniers afin d’agrandir leur communauté et la portée de leurs publications. On trouve le « hashtag challenge », utilisé par NRJ qui est promu pendant 6 jours et permet de créer un effet boule de neige et atteindre des influenceurs avec de nombreux followers, mais également d’autres formats:

Le « in feed », qui va au sein du fil utilisateur, va l’inciter à télécharger une application (par exemple My TF1) ou bien diriger celui-ci vers un profil.  Cela serait alors un « fanbase booster » pour les chaînes, dont la notoriété pourrait être accrue plus facilement. De même, le « splash page », est une vidéo qui peut être lancée au moment de l’ouverture de l’application. Investir dans cers formats pourrait être bénéfique, puisque Tik Tok a annoncé vouloir massifier les campagnes et monétiser les audiences des influenceurs. A noter qu’au dernier trimestre de 2019, le réseau a enregistré 50 millions de dollars de revenus (soit +310% entre 2018 et 2019). 

Arrivée de la plateforme Quibi: opportunité ou menace? 

Un nouvel acteur pourrait donner du fil à retordre aux groupes français : Quibi. Cette plateforme de streaming dédiée au millenials va proposer des contenus originaux de flux et de fictions courts (10 minutes), uniquement sur mobile à partir d’avril 2020 pour un abonnement fixé à 5$ avec publicité. Si elle sera d’abord lancée outre-Atlantique, l’application devrait arriver en France quelques mois après. Avec 1 milliard de dollars levés, les créateurs ont déjà pu compter  entre autres sur Steven Spielberg pour écrire une nouvelle série d’horreur. Aux USA, Quibi a séduit les networks américains comme NBC qui produira du contenu d’information pour la plateforme. En France, l’arrivée de Quibi est à double tranchant: si le succès est au rendez vous, la plateforme pourra contribuer à l’abandon de la télévision linéaire par les jeunes. En revanche, elle peut être une opportunité pour les médias télévisuels d’investir sur un nouveau support en créant un contenu original adapté à l’audience de Quibi. Néanmoins, les groupes TF1, France TV et M6 vont se heurter aux investissements qu’ils ont fait pour Salto… 

En conclusion, les médias télévisuels français semblent ne pas saisir les opportunités qui s’offrent à eux pour capter l’audience des moins de 25 ans. Alors que Tik Tok pourrait être un support de promotion de leurs programmes grâce aux millions d’utilisateurs, la plupart des groupes se contentent de reprendre des vidéos éditées sur leurs autres réseaux sociaux comme Snapchat ou Instagram, ce qui limite l’originalité et le potentiel de partage. L’arrivée de nouveaux acteurs comme Quibi montrent que les investisseurs sont prêts à miser gros pour toucher la cible jeune, mais les médias télévisuels semblent dépassés par les effets de tendances et les nouveaux usages des millenials. 

Emma Dauvin

Brand Safety : Comment garantir un environnement approprié et adapté aux marques ?

Alors que les polémiques atteignant les images des marques sur internet sont de plus en plus nombreuses, la problématique du Brand Safety prend de l’ampleur.

Le brand safety : un enjeu majeur à l’heure du bad buzz sur internet

On le sait, l’image de marque est aujourd’hui au cœur des préoccupations des entreprises. Présenter une image positive, en accord avec des valeurs prédéfinies, est ainsi devenue une condition sine qua non pour espérer voir sa marque prospérer, dans un contexte où l’opinion publique ne pardonne et n’oublie rien (peuvent par exemple en témoigner les dirigeants du Slip Français, récemment entachés par une violente polémique autour du blackface réalisé par certains de leurs employés).  

Evidemment, l’écosystème digital ne fait pas exception à ce besoin qu’ont les marques de protéger au mieux leur image, et les éditeurs se doivent donc de garantir un environnement adapté et approprié aux valeurs des annonceurs avec qui ils traitent. Néanmoins, à l’heure où l’achat et la programmation d’espaces publicitaires sont automatisés à 100%, les ratés existent et sont même plus nombreux qu’il n’y paraît : Il y a quelques semaines, plusieurs marques ont par exemple été épinglées pour avoir diffusé des publicités sur des vidéos Youtube prônant la désinformation climatique.[1] Si les marques concernées (L’oréal, Samsung ou encore Danone, pour n’en citer que quelques-unes) se sont excusées et la polémique n’a pas éclatée, ce n’est pas la première fois que la plateforme Youtube est pointée du doigt pour mauvaise gestion de ses espaces publicitaires.

Le brand safety – en français sécurité de marque – devient alors un enjeu majeur pour les acteurs du web : ce concept émet l’idée qu’il est aujourd’hui primordial pour un éditeur de s’assurer que la marque d’un annonceur n’apparaît pas dans des environnements qui pourraient présenter un risque pour son image.[2]

Une récente étude réalisée par l’IAB Europe montre ainsi que 77% des décideurs marketing voient le brand safety comme une priorité en 2020, quand seulement 1/3 du panel affirme que le marché a bien œuvré à la sécurité des marques sur la Toile (30,68% d’accord – 5,68% absolument d’accord).[3]

Dans ce contexte, comment les marques peuvent-elles s’assurer que leurs publicités digitales soient diffusées dans un environnement adapté à l’image qu’elles souhaitent transmettre ?

Dans les faits, plusieurs solutions existent, qu’elles soient propres à chaque éditeur ou mises en place à plus grande échelle.

Mise en place d’un label de « Digital Ad Trust » pour sécuriser les marques

Les annonceurs cherchent dans un premier temps à s’assurer du sérieux de leurs partenaires publicitaires. Certains éléments concrets délivrés par des organismes agréés peuvent les aider à identifier les éditeurs les plus responsables: c’est notamment le cas du label « digital ad trust ».

Lancé par le SRI, l’UDECAM, le GESTE, l’Union des Marques, l’ARPP et l’IAB France, le label « digital ad trust » est « destiné à évaluer et valoriser la qualité des sites qui s’engagent dans des pratiques publicitaires responsables, à travers 5 objectifs-clés :

• Garantir la brand safety : assurer aux marques la sécurité des environnements dans lesquels elles apparaissent,

• Optimiser la visibilité de la publicité en ligne

• Lutter contre la fraude

• Améliorer l’expérience utilisateur (UX), et maîtriser le nombre d’objets publicitaires par page

• Mieux informer les internautes en matière de protection des données personnelles »

Ce label, d’initiative française, est à l’heure où cet article est écrit attribué à 137 sites et/ou pureplayers français (20 minutes, MyTF1, Le Figaro, FNAC, Konbini, ou encore MYCanal, entre autres).  

Des outils digitaux à disposition des marques

L’émergence des problématiques de brand safety a également entraîné dans son sillage la création de nombreuses start-up spécialisées dans le contrôle de la qualité média.

Adledge, société fondée en 2008, présente une expertise dans la bonne gestion des campagnes annonceurs. Concrètement, Adlege analyse différents points de la page web sur laquelle la publicité est diffusée, pour déterminer le contexte de délivrance du message. L’annonceur peut également suivre sa campagne de manière objective, Adledge proposant des outils de mesure des KPIs pertinents.

Adloox, SA française, qui réalise du pré-bid à la conversion. Leur outil automatisé permet l’analyse de chaque emplacement publicitaire pour rassurer l’annonceur quant à la bonne délivrance de son message. L’algorithme analyse également tous les éléments de la page afin de déterminer son contenu, et ainsi de garantir le brand safety de la marque.

IAS (Integral Ad Science), entreprise américaine spécialisée dans la protection des différents acteurs intervenant dans l’écosystème de la programmatique. Pour garantir le brand safety des annonceurs, IAS propose -entre autres- une solution d’analyse sémantique très complète (analyse de l’URL, du texte, des mots-clés, et des liens entrants et sortants) des sites accueillants les publicités.

On le voit, les entreprises accompagnant les annonceurs dans leurs campagnes digitales sont légions, et s’associer à certaines d’entre elles semble être une solution efficace pour contrôler son image digitale.

Des solutions inhérentes à chaque plateforme

Qu’en est-il du côté des « géants du web » ? Ceux-ci ont très tôt compris l’importance de préserver l’image de marque de leurs annonceurs.

Le groupe Facebook, par exemple, explique sur une page dédiée prendre la problématique de brand safety très au serieux : près de 35 000 personnes sont ainsi employées par l’entreprise à la protection et à la sécurité, et se chargent de modérer les contenus publiés sur les diverses entités du groupe (Facebook, Instagram & Whatsapp). Par ailleurs, le groupe affirme « collaborer avec des partenaires du secteur pour partager des connaissances, établir des consensus et faire en sorte que toutes les plates-formes en ligne soient plus sûres pour les entreprises ». Depuis peu, le géant permet également aux annonceurs de faire appel à des entreprises tierces pour gérer le brand safety des campagnes diffusées sur la plateforme.[4]

Du côté de Snapchat, la modération des contenus est un sujet central, et sa réalisation est majoritairement effectuée de manière automatisée, via des algorithmes. L’entreprise est par ailleurs très attentive à l’environnement dans lequel les publicités de ses annonceurs apparaissent : les stories supportant des publicités sont ainsi vérifiées et modérées par une équipe dédiée. [5] De plus, le groupe s’est récemment associé à IAS (voir plus haut). Ce partenariat a pour ambition « d’offrir aux annonceurs une plus grande transparence et une meilleure mesure des photos et vidéos en mobile in-app sur Snapchat ». [6]    L’outil IAS fournira ainsi aux marques certains KPIs relatifs au brand safety, tels que le pourcentage de vues frauduleuses, le nombre et la part d’impressions visibles, ou encore le pourcentage de publicités vidéos vues dans leur intégralité.[7]  

Plus récemment, c’est l’application TikTok qui a pris certaines mesures pour conserver le brand safety de ses annonceurs : selon des informations du Financial Times Reports, le groupe travaille ainsi sur la mise en place d’un flux de contenus spécialement sélectionnés pour leur originalité et/ou popularité, et autour desquels les publicités annonceurs seraient diffusées. Ce feed serait contrôlé par des modérateurs dédiés, ce qui permettrait de garantir la pertinence des contenus.


On le voit, les éditeurs ont bien conscience de l’importance de proposer un environnement sain et adapté à leurs annonceurs. Le web étant une nébuleuse de contenus impossible à contrôler, il était nécessaire de voir émerger des solutions pour préserver les marques et leurs images. C’est aujourd’hui chose faite, pour le plus grand plaisir des annonceurs qui se montrent de plus en plus exigeants dans le choix de leurs partenaires publicitaires.

Daniéla UZAN


[1] https://www.theguardian.com/technology/2020/jan/16/youtube-ads-of-100-top-brands-fund-climate-misinformation-study

[2] https://www.definitions-marketing.com/definition/brand-safety/

[3] https://www.cbnews.fr/etudes/image-brand-safety-sera-prioritaire-2020-iab-europe-48866

[4] http://ad-exchange.fr/brand-safety-facebook-certifie-deux-acteurs-de-mesure-tiers-44344/

[5] https://support.snapchat.com/en-US/a/brand-safety

[6] https://www.journaldunet.com/ebusiness/publicite/1197097-brand-safety-les-solutions-passees-au-crible/

[7] https://www.offremedia.com/integral-ad-science-retenu-par-snapchat-pour-la-mesure-de-la-qualite-media

Mesurer l’audience à la radio

Un jeu d’équilibriste entre exactitude et exhaustivité

Les résultats d’écoute de la radio ont été publié le 14 janvier 2019 et ils étonnent ! France Inter réalise à nouveau un record d’audience et le groupe Radio France progresse dans l’ensemble alors que la grève sévit dans la Maison Ronde et que de nombreux programmes sont annulés. C’est l’occasion pour la concurrence et divers commentateurs de remettre en cause la « 126 000 Radio » de Médiamétrie, mesure publiée quatre fois par an et qui fait référence sur le marché. Ainsi François Pesenti, ancien directeur général de RMC Sport invite l’institut à moderniser sa mesure créée en 1986. Didier Maïsto, président de Sud Radio en dénonçait en mai dernier les méthodes : « Cette mesure est contestable et contestée. Même sa méthodologie est opaque. À notre demande et en appliquant les mêmes règles, IFOP n’est pas arrivé au même résultat, nous créditant de 3,5 fois plus d’auditeurs ». Réclamant 23 millions de dommages et intérêts, le média voit pourtant sa requête refusée devant la Cour d’Appel de Paris le 8 janvier.

Twitter – 14/01/2020 – Compte de François Pesenti – https://twitter.com/FrancoisPesenti

Pour les autres, la sortie de la « 126 000 » est l’occasion de communiquer en masse sur les chiffres qui leurs sont les plus favorables. Il faut dire que l’enjeu est de taille et que les résultats sont scrutés par les annonceurs afin d’optimiser l’efficacité des publicités qui constituent le revenu principal des radios (à l’exception de Radio France). Il n’est alors pas rare de découvrir deux « 1ere radio de France » : RTL et France Inter qui communiquent selon deux indicateurs différents, la part d’audience pour l’une, l’audience cumulée pour l’autre.

Article France Culture – 24/01/2020 – Crédits : RTL, France Inter https://www.franceculture.fr/medias/audiences-radio-pourquoi-les-stations-se-proclament-toutes-premiere-radio-de-france

Ces batailles trompeuses ne viennent pas éclaircir le débat. Comment Médiamétrie mesure-t-elle l’audience radio ? Tient-elle compte de l’évolution des pratiques liées au numérique ? Quelques explications donc sur la méthode de cette mesure maîtresse et pourtant fustigée après une visite du centre d’appel de l’institut à Amiens.


LA « 126 000 RADIO » QU’EST-CE QUE C’EST ?

Aujourd’hui la « 126 000 Radio » c’est 400 interviews réalisées chaque jour par plus de 90 enquêteurs sur un panel représentatif de la population française de plus de 13 ans afin de détailler la consommation radiophonique quotidienne des Français. C’est aussi une quinzaine de minutes passées au téléphone à essayer de se souvenir des programmes, par quart d’heure, écoutés dans la journée. L’enquête est massive et rodée mais elle aussi déclarative, fastidieuse et nécessairement imparfaite. Il est aujourd’hui de plus en plus difficile de joindre les gens sur leur téléphone fixe ; Médiamétrie appelle maintenant des numéros portables mais garder un panel suffisant et représentatif est un défi quotidien pour l’institut. Pour les cibles plus précises (tranche d’âge, région, ville) et les plus petites antennes, les mesures fluctuent beaucoup d’une vague à une autre car la population test peut être insuffisante. Médiamétrie alerte ses clients et souligne l’importance des intervalles de confiance ou de la significativité des écarts. Les différentes radios sont donc invitées à être prudentes sur l’interprétation des chiffres et les usages qui en sont fait.  

L’ampleur et la régularité de la référence « 126 000 » en fait cependant une mesure robuste. Malgré les critiques aucun autre acteur ne vient réellement concurrencer l’institut dont « le capital est détenu par trois groupes distincts : les télévisions, les radios et les centrales d’achat des annonceurs ». Ceci ne plait pas à tous et certains dénoncent un petit monde clos de médias et annonceurs qui approuvent la mesure tant qu’elle leur est favorable.  

VERS UNE MESURE PLUS EXHAUSTIVE ?

Depuis quelques années, la mesure de l’audience radio tend à évoluer. Des tests réalisés en 2013, 2016 et 2018 ont annoncé progressivement l’arrivée d’une nouvelle mesure : l’audimétrie individuelle portée (AIP).  Déjà utilisée pour la mesure de l’audience à la télévision, la technique consiste à intégrer une marque inaudible et identifiante dans le signal audio d’une station. Un capteur, porté par l’auditeur, est alors capable de reconnaître la station ainsi que la date et l’heure de diffusion du programme. L’AIP devait être déployée en France à la rentrée 2019 mais rien ne s’est finalement passé. De nombreuses difficultés et interrogations viennent remettre en cause l’efficacité de cette nouvelle méthode qui fait débat.

« Cette technologie pourrait révolutionner la mesure d’audience de la radio, en passant à un mode de calcul de l’audience passif, automatique, à la minute près, sans marge d’erreur » affirme Agathe Beaujon, journaliste chez Challenge dans un article de novembre 2019. D’autres interrogent l’intérêt de mesurer les écoutes passives, celles qui se font dans les supermarchés ou dans un taxi alors que la personne n’est pas attentive au fond sonore. Ils revendiquent une mesure de l’écoute qualitative qui valoriserait davantage le travail des rédactions. Par ailleurs, l’AIP risquerait de dévoiler une audience plus fractionnée, avec des durées d’écoutes plus faibles qui pourraient casser les prix des spots publicitaires (fixés sur l’audience au quart d’heure moyen) ; les médias curieux de ce nouvel outil redoutent cependant un retournement de situation qui leur serait défavorable.  

Plus concrètement les obstacles techniques et financiers sont aussi multiples. L’écoute de la radio au casque ne serait pas perçue par l’audimètre et bien qu’un adaptateur soit envisagé il ne conviendrait pas à l’usage du Bluetooth (de plus en plus répandu). Par ailleurs l’ergonomie du boîtier de mesure reste perfectible. Puisque la radio s’écoute tout le temps et partout, l’auditeur devrait transporter avec lui le boîtier dans les différentes pièces de son domicile et lors de ses déplacements. Accroché à la ceinture, autour du cou ou en bracelet : différentes solutions sont envisagées mais toutes sont relativement contraignantes, demandant une implication considérable du panéliste. La mesure de l’audience des matinales, qui se superposent souvent au temps de préparation (réveil, douche, aller et venus entre plusieurs pièces, etc.), serait difficile et risquerait d’être sous-évaluée. Enfin, cette solution technique s’appliquerait à un panel plus réduit que l’enquête de la « 126 000 Radio » et pourrait être problématique pour la mesure de petites audiences de radios indépendantes. Ces dernières rencontreraient une seconde difficulté d’ordre financier : le financement des émetteurs à 4000 euros (conséquent pour un groupe comme Les Indés Radios qui réunit 130 radios thématiques indépendantes, locales ou régionales). Le nouveau service de Médiamétrie serait par ailleurs facturé 15% plus cher que ne l’est la « 126 000 ».

ET LE NUMÉRIQUE DANS TOUT CA ?

Evidemment avec le numérique les habitudes de consommation de la radio ont évolué et le streaming (écoute en live du flux principal d’une radio ou de webradios) ainsi que les podcasts prennent une ampleur considérable. Selon Médiamétrie plus de 25 millions d‘internautes consultent un site ou une application de radio et musique sur ordinateur, smartphone ou tablette. « Cette nouvelle donne questionne les modèles préexistants, aussi bien en termes de mesure de l’audience que de marché publicitaire. Ces enjeux s’appliquent autant aux acteurs historiques de la radio, à savoir les stations présentes sur la bande FM, qu’aux nouveaux venus, qui ont fait le choix du tout numérique et même parfois de la délinéarisation ».

La mesure Internet semble a priori plus simple et évidente. Des outils techniques, des tags placés sur chaque contenu, émission ou webradio permettent de mesurer le trafic des visiteurs des sites et applications et des auditeurs dans leur globalité. Peu coûteuses et automatisées, ces mesures présentent pourtant bien des limites. Les chiffres sont rapidement gonflés par des écoutes fractionnées (arrêt/reprise de l’application, du player ou autre) ou téléchargements intempestifs (automatiques à la sortie d’une émission récurrente sur une plateforme de podcasts par exemple) ou des bots. Il est difficile de mesurer le nombre de visiteurs uniques et l’écoute réelle des auditeurs. De plus, les méthodes de mesures diffèrent d’une station à une autre. Des systèmes de certification comme celui de l’ACPM (Alliance pour les Chiffres de la Presse et des Médias) permettent d’attester les chiffres et de les comparer aux autres. Cependant, toutes les radios ne souscrivent pas à cette certification (RTL par exemple) et on ne peut pas parler de « mesure marché » qui considèrerait l’ensemble des acteurs. Ces certifications sont par ailleurs critiquées pour la légèreté de leurs critères.

Les mesures de ce type permettent d’envisager des volumes (qui plus est considérables) mais elles ne permettent pas de connaître vraiment son audience. Sur les sites de radio, rares sont ceux qui imposent un login comme le font les chaînes de télévision sur 6Play ou MyTF1 par exemple. Cette méthode est très efficace pour collecter de l’information sur les consommateurs et ainsi affiner son offre et surtout cibler la publicité proposée. Pour aller plus loin et proposer une mesure d’audience numérique précise, Médiamétrie a lancé en 2017 la mesure Internet Global. Cette mesure complète la « 126 000 » et fonctionne sur un panel de plus de 30 000 personnes, elle détaille les usages numériques de la radio sur portable, ordinateur ou tablette. C’est une mesure cross-device qui permet de connaître les visiteurs uniques ainsi que diverses informations socio-démographiques sur l’auditoire du digital.  


Finalement, aucune de toutes les solutions évoquées ne semble parfaite. Si le numérique est de plus en plus important et pris en compte, les solutions techniques associées ont bien des limites. Les mesures par panels permettent, elles, de mieux connaître les auditeurs toutes en reposant sur des conventions et des choix qui pourraient être remis en cause. Pourtant, ces mesures sont indispensables au marché dont elles donnent le pouls et ainsi Médiamétrie et les autres instituts d’études orientent chaque jour les stratégies éditoriales et marketing des chaînes.

Estelle Patat


Le renouveau de la publicité audiovisuelle

Le constat est simple : l’audiovisuel se porte mal et les chaînes nécessitent de nouvelles ressources. Les opérateurs historiques sont confrontés à la violence d’une concurrence frontale avec les nouveaux entrants (GAFAN – Google, Amazon, Facebook, Appel, Netflix – et grandes plateformes de SVOD internationale) qui va s’accélérer avec le lancement en 2020 d’offres SVOD d’acteurs américains intégrés verticalement dans la production, tels que Disney, Warner et NBC Universal. Cette concurrence se voit aggravée par le poids d’une régulation complexe et obsolète datant des années 90. Leur modèle économique basé sur la publicité, ressource financière principale du secteur, nécessite une restructuration profonde pour permettre la pérennité des acteurs.

Fragmentation des audiences et marché publicitaire stagnant

Depuis plus de 15 ans, les recettes publicitaires de l’ensemble des chaines françaises sont stables. Les chiffres précisent une faible évolution du chiffre d’affaires passant de 3,2 milliards d’euros en 2005 à 3,3 milliards en 2018. Le problème réside dans la multiplication des acteurs. Pour rappel, les six chaînes historiques ont été confrontées à la concurrence dès 2005 avec le passage à la TNT (télévision numérique terrestre) puis en 2012 avec le HD (haute définition) permettant de comptabiliser aujourd’hui vingt-sept chaînes diffusées sur le réseau hertzien. La prochaine étape consiste en l’UHD (ultra haute définition) qui impliquera, assurément, de nouvelles répercussions. 

Le digital comme facteur principal de la croissance publicitaire plurimédias

Malgré le constat précédent, on observe une croissance globale du marché publicitaire plurimédias et ce en faveur du digital. D’après la 21ème édition de l’Observatoire de l’e-pub du SRI (Syndicat des régies internet), le marché français de la publicité digitale atteint plus de 4,8 milliards d’euros de chiffre d’affaires net sur l’ensemble de l’année 2018, soit une progression de plus de 17% par rapport à 2017. Les projections sont à la hausse pour 2019, pour atteindre près de 6,6 milliards d’euros en 2021, alors que le marché publicitaire audiovisuel n’a pas, a priori, vocation à augmenter. 

Mobilisation gouvernementale pour la modernisation de l’écosystème 

Lors de la présentation des objectifs du projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l’ère numérique en septembre 2019, le Ministre de la culture a indiqué son souhait de « renforcer le dynamisme économique du secteur, en favorisant l’émergence de champions nationaux ». Cet objectif passe, entre autres, par l’assouplissement des règles publicitaires, afin de permettre aux chaînes de télévision de jouer à armes égales dans la concurrence avec les acteurs du numérique. Dans ce sens, la DGMIC (Direction générale des médias et des industries culturelles) a lancé une consultation publique sur l’assouplissement des règles relatives à la publicité télévisée à laquelle les chaînes ont été amenées à répondre en décembre 2019.

Soutien des autorités pour la réforme de la publicité audiovisuelle

Dans son avis du 8 novembre 2019, le Conseil supérieur de l’audiovisuel (CSA) juge impératif d’assurer un haut niveau de financement du secteur audiovisuel français afin d’en assurer la compétitivité et le renouvellement de la création. Il accueille donc favorablement : « Les mesures visant à élargir les ressources financières des éditeurs de service, qu’elles relèvent du pouvoir réglementaire, comme c’est le cas par exemple pour la publicité ciblée, ou de la loi, à l’instar des dispositions du projet de loi relatives à la troisième interruption publicitaire d’une œuvre ou au placement de produits». L’Autorité de la concurrence s’est également prononcée en ce sens dans l’avis du 21 février 2019 : « La réglementation actuelle ne paraît plus adaptée aux conditions du marché, notamment en ce qu’elle empêche les chaînes de télévision de concurrencer efficacement les plateformes de type GAFA, sur plusieurs catégories de publicité ». Dans ce cadre, diverses solutions ont été proposées.

Levée de l’interdiction de la publicité cinéma

L’ouverture de la publicité cinéma est accompagnée d’un double quota à respecter pour les régies de télévision, à hauteur de 50% pour les films européens et de 50% pour ceux d’art et essai. L’objectif pour les chaînes est qu’elles acceptent de promouvoir les films américains de manière encadrée sans que les œuvres européennes ne soit écartées. Sur cette question, le PDG du Groupe M6, Nicolas de Tavernost, s’était prononcé lors de la dernière édition de Médias en Seine : « En l’état actuel des choses, la publicité pour le cinéma va rapporter quasiment zéro et avec des aménagements quelques millions d’euros ». Le décret finalisé précisera les modalités.

Mise en place de la publicité « ciblée »

L’autorisation de la publicité « ciblée » en télévision constitue une avancée significative en termes de rééquilibrage de la concurrence entre média de télévision et l’Internet. Comme l’indiquait l’Autorité de la concurrence dans l’avis précédemment cité : « En ce qui concerne la publicité ciblée, seuls en bénéficient en effet actuellement les acteurs de l’Internet, et avant tout Google et Facebook, qui captent l’essentiel de la croissance très rapide de cette forme de publicité dont l’efficacité est de plus en plus recherchée par les annonceurs ». Aujourd’hui, la question fondamentale réside dans le partage des données personnelles des téléspectateurs, sujet sur lequel le CSA et la CNIL (Commission nationale informatique et liberté) auraient intérêt à collaborer.

Concernant les autres modifications du décret et de la loi

Les autres mesures présentées dans le projet de décret, à savoir la diffusion de spots de téléachat et la suppression des 20 minutes séparant deux coupures successives dans les émissions de flux, contribuent à réduire l’écart de la réglementation française avec les dispositions en matière de publicité de la directive SMA (Service de médias audiovisuels), modifiée en 2018. Elles devraient apporter plus de flexibilité dans la commercialisation de la publicité, notamment plus de souplesse de programmation, et permettront de mieux exposer les annonceurs tout en assurant un plus grand confort aux téléspectateurs.

Impact des recettes générées par les assouplissements 

Les recettes générées par les assouplissements sur les règles s’imposant à la publicité audiovisuelle se feront mécaniquement au bénéfice de la filière de la création, dont le financement pèse avant tout sur la contribution des chaînes. En 2018, elles ont investi 1,2 milliards d’euros au titre de leurs obligations de production d’œuvres audiovisuelles et cinématographiques, auxquels doivent s’ajouter environ 750 millions d’euros qu’elles versent au CNC (Centre national du cinéma et de l’image animée) et aux sociétés d’auteurs. Dès lors, l’enjeu de la réforme des règles en matière de publicité audiovisuelle est fondamental.

Romane Vassal

20 ans de jeux sur mobile…Et maintenant?

120 milliards de dollars de chiffre d’affaires en 2018 soit 13 % de hausse par rapport à 2017 selon bpiFrance, tels sont les résultats de l’industrie mondiale du jeu vidéo[1]. Cependant, ce n’est pas le jeu vidéo dit « traditionnel » reposant sur le marché des consoles et des ordinateurs qui tire le plus cette croissance, mais bien celui qui a longtemps été considéré comme l’exclu de la famille des « gamers » : le jeu mobile. Toujours selon les chiffres de bpiFrance, ce dernier représente 51 % des ventes mondiales en matière de jeu vidéo. Comment en est-on arrivé là ? 

Le téléphone portable et les jeux vidéo, une relation compliquée


Depuis 50 ans, le monde du jeu vidéo n’a de cesse de se renouveler. De la Magnavox Odyssey en 1972 à la PS5 et la Xbox Series X à venir cette année en passant par Stadia, le service de Cloud Gaming proposé depuis peu par Google, l’industrie a totalement mutée et continue de se transformer. Dans ce paysage si innovant porté par les consoles et les ordinateurs, le téléphone portable a su, petit à petit s’imposer comme support de jeu légitime. 

Dès 1997, le jeu Snake est intégré aux Nokia 6110 et connaît un succès immédiat ce qui pousse la firme à proposer en 2003 la N-Gage[2], sorte d’hybride entre un téléphone portable et une console de jeu vidéo. Si cette tentative s’avère être un échec commercial retentissant, elle symbolise la construction compliquée du rapport entre jeu vidéo et téléphones portables. En effet, le jeu mobile s’est particulièrement développé après l’apparition des smartphones dans le sillon que l’iPhone a creusé dès 2007 sans pour autant convaincre la communauté des « gamers » qu’il était une vraie forme de jeu vidéo. En 2009, l’autorisation des achats in app par Apple a favorisé l’émergence des jeux free-to-play dits « casual » pour les joueurs occasionnels. Candy Crush ou Clash of Clans sont deux exemples de ce type de proposition qui repose sur des sessions courtes, fortement addictives ou l’achat in app permet de prolonger l’expérience. Cette forme de jeu vidéo qui a très vite trouvé son public a d’abord été rejetée par la communauté des joueurs classiques. Qualité d’image, Gameplay et temps de jeu limités en était en grande partie la cause.

Une industrie en mutation portée par des investissements et des innovations

Pour autant, comme mentionné, le jeu mobile s’est facilement implanté chez un public qui ne s’essayait pas, ou peu aux jeux plus traditionnels. Alors qu’une distinction pouvait se faire entre les « gamers » et les joueurs « casuals » préférant entre autres les jeux mobiles, ces derniers ont commencé à se diversifier et à proposer de nouvelles expériences pour toucher tous les joueurs. 

Premièrement, des jeux se rapprochant des jeux indépendants sur console et PC ont vu le jour sur les stores des différents OS. On peut par exemple noter l’apparition de Her Story en 2014, un jeu produit par Sam Barlow, créateur venant de l’industrie traditionnelle, qui proposait une toute nouvelle expérience de Gameplay très loin des jeux mobiles « casual » basés sur des sessions courtes et addictives[3]. De même, des médias comme Arte ont investi dans le jeu mobile afin de proposer de nouvelles expériences sur un nouveau support à l’attention de tous. Ils ont ainsi pu participer à la production de Alt-Frequencies[4] ou encore Enterre-moi, mon amour[5] deux jeux engagés s’appuyant sur un Gameplay minimaliste propre au support. 

Deuxièmement, les innovations technologiques sur les smartphones ont participé à la légitimation des jeux sur mobiles, ces derniers étant de plus en plus beaux. On a ainsi vu émerger de nombreux MOBA (Multiplayer Online Battle Arena) ou MMO (Massively Multiplayer Online) s’appuyant sur une qualité technique avec des rendus se rapprochant de ceux sur console. Ces jeux symbolisent la volonté des créateurs de jeux mobile de toucher un public de « gamer » plus classique. Cela se traduit d’ailleurs par des investissements massifs en opération sponsorisées pour de nombreux studios. Par exemple, Plarium, le studio créateur de Raid Shadow Legend a acquis une forte visibilité via les vidéos sponsorisés des Youtubeurs Gaming s’adressant à un public de joueurs. 

Enfin, cette tendance d’attirer les joueurs traditionnels sur le mobile se traduit également par l’apparition de licences historiques sur cette plateforme. Rayman Adventures issu de la franchise Rayman a par exemple été édité par Ubisoft dès 2015. En 2019, c’est Call of Duty franchise de jeu vidéo la plus lucrative de la décennie qui sortait sur portable (devenant ainsi le jeu ayant rassemblé le plus de joueurs sur téléphone dans la même semaine avec plus de 100 millions d’utilisateurs[6]). En la matière, Nintendo a également profité du marché du mobile pour toucher un plus grand nombre d’utilisateurs, proposant une adaptation de jeux à succès tels que Mario Kart. 

Le futur du jeu mobile

Aujourd’hui, l’industrie du jeu mobile se porte à merveille dans le monde. Le chiffre d’affaires du jeu vidéo mondial est majoritairement effectué en Asie qui représente 54,3 milliards de dollars en 2018 ou le free-to-play, surtout sur téléphone, est la norme (80 % des ventes).

En France, selon une étude du Syndicat des Editeurs de Logiciel de Loisir, le jeu mobile a connu la plus forte croissance du secteur du jeu vidéo entre 2017 et 2018 (+22 %)[7]. De plus, les Français interrogés déclarent que les « jeux casual – jeux mobile » sont ceux auxquels ils jouent le plus (tous supports confondus). Ainsi, à l’aube d’une nouvelle décennie, le jeu mobile semble avoir acquis une forme de légitimité auprès d’un public de plus en plus large et ce dernier risque d’avoir un rôle prépondérant dans l’industrie de demain. 

D’abord, il est important de noter que le jeu vidéo est un secteur extrêmement innovant qui s’est toujours appuyé sur les dernières technologies. 2020 étant une année sous le signe du déploiement de la 5G, les mobiles vont pouvoir profiter de cette hausse significative du débit pour encore plus s’inscrire dans le secteur du jeu vidéo. En effet, cette amélioration non négligeable des connexions va favoriser l’émergence de solutions de Cloud Gaming par abonnement. Ces dernières consistent en la possibilité de jouer en streaming, sur un serveur à distance. Cela permet alors de brouiller encore plus la différence entre les supports en matière de jeu vidéo puisque n’importe quel titre peut être consommé sur n’importe quel écran. À la manière de Netflix, Google propose ainsi depuis fin 2019 Stadia, service de Cloud Gaming qui permet de jouer à tous types de jeux (y compris les grosses licences habituellement réservées aux consoles et aux ordinateurs) sur tous les supports, en streaming. Apple propose également, depuis l’automne 2019, Arcade service de gaming par abonnement qui s’appuie sur le nombre croissant de joueurs sur mobile en proposant des expériences de jeux inédites[8]. Microsoft a d’ores et déjà annoncé son service de jeu en streaming pour la nouvelle génération de console et Sony est également en train de peaufiner son offre. Dans ce cadre, nul ne doute que le smartphone va être de plus en plus utilisé dans la pratique du gaming et ce pour tous types de jeux.

Le jeu mobile a connu un début de relation difficile avec les joueurs, mais l’amélioration de la technique sur smartphone ainsi que l’explosion des débits internet semble lui promettre une place centrale dans les habitudes vidéoludiques de demain. 

Palluet Thibault


[1] Le marché mondial des jeux vidéo, 120 milliard de dollars en 2019, 7 juin 2019, https://www.bpifrance.fr/A-la-une/Actualites/Marche-des-Jeux-video-2019-sous-le-signe-de-la-croissance-et-du-mobile-46652

[2] http://www.grospixels.com/site/ngage.php

[3] Her Story est un jeu d’enquête où le joueur doit comprendre ce qu’il s’est passé en écoutant les témoignages (en prise de vue réelle) d’une femme. La seule expérience de Gameplay réside dans la possibilité qu’a le joueur à écrire des mots clés dans l’outil de recherche pour trouver de nouvelles vidéos et ainsi avancer dans son enquête.

[4] Alt-Frequencies est un jeu d’enquête où le joueur doit passer d’une station de radio à une autre pour faire la lumière sur une question de boucle temporelle. Le jeu propose un questionnement du pouvoir des médias mais aussi du rapport du pouvoir aux choix du peuple. 

[5] Enterre-moi, mon amour est un jeu engagé mettant le joueur dans la peau d’un syrien qui suit la migration de sa compagne vers l’Allemagne via les messages qu’elle lui envoie. Le joueur peut ainsi la conseiller sur les options qu’elle a afin de l’aider à survivre et à atteindre son objectif.

[6] Le jeu call of Duty Mobile dépasse le cap des 100 millions de joueurs en une semaine, 8 octobre 2019, Chloé Woitier, https://www.lefigaro.fr/medias/le-jeu-call-of-duty-mobile-depasse-le-cap-des-100-millions-de-joueurs-en-une-semaine-20191008

[7] Bilan du marché français du jeu vidéo 2018, février 2019, Syndicat des Éditeurs de Logiciels de Loisir, https://www.sell.fr/sites/default/files/essentiel-jeu-video/sell_essentiel_du_jeu_video_2019.pdf

[8] https://www.apple.com/fr/apple-arcade/

Jeux vidéo, les nouveaux réseaux sociaux?

C’est désormais établi : les jeux vidéo constituent une forme de média attirant un nombre grandissant d’individus, masculins mais aussi féminins, plutôt jeunes.[1] Le poids de l’industrie vidéoludique n’est pas négligeable : en France, les revenus issus des jeux vidéo et de l’e-sport devraient s’établir à $5.2 Mds d’ici 2023.[2] Ce « boom » du jeu vidéo a été porté en partie par la dématérialisation du jeu et l’apparition de plateformes dédiées rassemblant de plus en plus de monde. Avec les nouveaux acteurs du secteur que sont Twitch, Discord ou encore le phénomène Fortnite, on observe l’émergence du « jeu interactif ». Désormais, il s’agit de jouer, mais aussi de parler, écrire et/ou regarder les autres jouer, le tout en temps réel. Les plateformes de jeux vidéo ont donné naissance à de nouvelles façons de communiquer et parviennent à capter l’attention d’un public élargi, au-delà des « gamers ». Alors que les plateformes sociales « classiques » comme Facebook sont progressivement délaissées par les plus jeunes[3], peut-on considérer les plateformes de jeux vidéo comme les nouveaux réseaux sociaux ?

Le jeu vidéo, stimulateur d’interactions sociales

Les jeux vidéo disposent intrinsèquement d’une composante sociale. Ils génèrent des conversations dans des lieux physiques (cour de récréation, salons dédiés…) comme virtuels (par exemple au sein de forum généralistes ou spécialisés tels que jeuxvideo.com). 
Sur le plan des interactions sociales dans le cadre du jeu, un cap a été passé avec la mise en réseau du monde et l’émergence des jeux multi-joueurs. Des jeux comme World of Warcraft ou Minecraft poussent les joueurs à former des communautés virtuelles car le meilleur moyen de gagner dans ce type de jeu est de coopérer. Ces groupes sociaux se construisent sur la base d’intérêts partagés. Ils sont structurés autour de processus d’échange d’informations et de savoirs. Les joueurs y développent leurs propres langages. 

Parallèlement, on observe le développement d’outils de communication vocale ou textuelle permettant aux joueurs d’interagir.[4] Le chat vocal est privilégié pour la simple raison qu’il est bien plus pratique lorsque l’on a les mains occupées par des manettes. C’est aussi une forme de communication offrant un contact très spontané, plus direct que sur les réseaux sociaux « classiques ». De nombreux jeux intègrent ces outils directement sur leurs interfaces. Les joueurs utilisent aussi des logiciels d’audioconférence généralistes (Skype) ou adaptés aux jeux vidéo (Mumble, TeamSpeak). Dans cette lignée, le cas du logiciel Discord (lancé en 2015) est particulièrement intéressant. Discord se définit lui-même comme un « chat vocal et textuel tout-en-un gratuit, sécurisé, qui fonctionne sur PC et smartphone, et pensé pour les gamers ».[5] Toutefois, avec ses 250 millions d’utilisateurs et 850 millions de messages échangés par jour, Discord a réussi à attirer une population bien plus large. On y trouve désormais des groupes militants et politiques, des créateurs de contenus, mais aussi « des personnes lambda » qui viennent simplement s’y retrouver « pour parler de leur journée de cours ou s’échanger des mèmes ».[6] Ainsi, Discord se positionne comme un service à mi-chemin entre réseau social et chat, et tend à devenir une plateforme mainstream. 

Les constructeurs de consoles et éditeurs de jeux ont accompagné ce mouvement de socialisation en développant des plateformes permettant de faire des achats en ligne et jouer en réseau, mais faisant aussi office de réseau social. Ces services intègrent des fonctionnalités similaires à celles des réseaux sociaux « classiques », comme la possibilité d’ajouter des amis ou une messagerie instantanée. Le Playstation Network de Sony propose ainsi à ses 70 millions d’utilisateurs mensuels une variété de services de communication et de divertissement.[7]

Le live streaming donne naissance à de nouveaux réseaux sociaux

Les internautes passent de plus en plus de temps à regarder d’autres jouer en ligne.[8] Cette tendance est illustrée par la forte croissance du nombre de vidéos consacrées au gaming sur YouTube.[9] La plateforme Twitch s’est imposée comme principal service de streaming de jeux vidéo. Lancée en 2011, elle compterait en moyenne 15 millions de visiteurs par jour et a enregistré 9,36 milliards d’heures de visionnage en 2018 (contre 2,31 pour YouTube Live).[10] Twitch et ses concurrentes (dont Mixer, qui appartient à Microsoft) reposent sur les contenus produits par les utilisateurs. Ce sont des réseaux sociaux : on peut y retrouver ses amis ou d’autres individus partageant des centres d’intérêts similaires, s’abonner à des chaînes de vidéos, discuter avec les autres utilisateurs sur des chats. En 2019, Twitch a même acquis le réseau social Bebo, spécialisé dans l’organisation de tournois d’e-sport.  

Ces plateformes dépendent ainsi des effets de réseau. Par exemple, l’utilité que ses utilisateurs retirent de Twitch dépend du nombre de visionneurs (pour les streamers) et de streamers (pour les visionneurs). On retrouve également des enjeux liés à la notoriété des streamers. Comme sur YouTube, certains sont devenus des stars contribuant énormément à l’attractivité de la plateforme. 
Enfin, il convient de souligner l’intérêt porté par les médias d’information aux services de live streaming de jeux vidéo. Des éditeurs comme BuzzFeed ou The Washington Post développent des contenus sur Twitch pour être « là où les gens regardent des vidéos en ligne ». Cela renforce le sentiment d’une possible substitution entre une plateforme comme Twitch et les réseaux sociaux « classiques ». D’ailleurs, conscient que son retard sur ce créneau pourrait le priver d’une manne publicitaire, Facebook a lancé en 2018 « un programme pour recruter des joueurs professionnels sur sa plateforme vidéo ».[11]

Fortnite : le jeu devenu média social

Ces évolutions vers le jeu vidéo comme une pratique sociale se trouvent parfaitement illustrées à travers le cas de Fortnite, devenu phénomène de société. Selon Epic Game, qui le développe, Fortnite comptait 250 millions de joueurs fin février 2019. Il est intéressant d’observer son impact sur les autres pratiques médiatiques des utilisateurs (dont la majorité a entre 10 et 17 ans). Ses adeptes y consacreraient en effet 21% de leur temps libre. En conséquence, les autres formes de divertissement, notamment l’usage des réseaux sociaux, voient diminuer la part de temps qui leur est allouée.[12] Plusieurs facteurs peuvent expliquer ce succès : la gratuité du jeu, son renouvellement constant, la possibilité d’y jouer sur tous les terminaux ou encore l’ouverture multiplateforme qui permet de jouer avec n’importe qui.  

L’impact de Fortnite sur le temps libre des joueurs

Les interactions sociales sont particulièrement développées dans Fortnite. 44% des joueurs américains considèrent que Fortnite les a aidés à se faire un ami en ligne.[13] Il s’agit typiquement d’un jeu où compte l’aspect coopératif. Le fait « d’ajouter » d’autres joueurs, comme on « ajoute » un ami sur Facebook, permet même d’obtenir des bonus.[14] De plus, les joueurs passent du temps à chercher armes et outils. Ces moments sont autant de temps morts durant lesquels ils discutent. C’est ici que Fortnite révèle son caractère de réseau social. Comme l’explique un joueur, « Fortnite est différent, parce que l’important ne réside même pas dans le fait de jouer : c’est un endroit où nous nous retrouvons tous ensemble ». Fortnite réussi ainsi là où Second Life (monde virtuel lancé dès 2003) a échoué. Il y a beaucoup d’autres choses à faire dans Fortnite que de jouer. Des événements virtuels et exclusifs sont régulièrement organisés au sein même du jeu. En février 2019, plus de 10 millions d’utilisateurs ont par exemple assisté à un concert en direct du DJ Marshmello.[15] Ce genre de propositions contribuent à faire de Fortnite un tiers-lieu, « un lieu de rencontre où les joueurs disposent d’une très grande autonomie pour mener les expériences qu’ils souhaitent ».[17] Ainsi, si le fondateur d’Epic Games considère encore Fortnite avant tout comme un jeu, il semble toutefois évident que ce produit possède le potentiel de devenir quelque chose de bien plus vaste.[18]

L’enjeu de la régulation

Pour finir, se pose la question de la régulation de ces plateformes de jeux vidéo. Comme les autres réseaux sociaux, elles font face à des enjeux spécifiques de monétisation, de modération des contenus problématiques ou encore de gestion des données personnelles. Malgré les belles histoires d’amitiés entre joueurs « qui ne se rencontreraient pas forcément dans la vrai vie », l’univers des jeux vidéo peut se révéler toxique. Par exemple, lorsqu’une « voix féminine se fait entendre, elle s’expose aux insultes et au harcèlement ».[19] D’autre part, dans le cadre du RGPD, « le traitement des données personnelles d’un enfant fondé sur le consentement » n’est pas licite lorsque l’enfant est âgé de moins de 15 ans. Epic Games s’est dédouané de toute responsabilité concernant le contrôle de l’âge des utilisateurs de ses jeux en arguant que celui-ci relève des plateformes d’inscription des joueurs. Le chinois Tencent a choisi une autre solution, en obligeant certains éditeurs à utiliser la reconnaissance faciale pour identifier les joueurs mineurs.[20]  

De manière générale, on sait que le régulateur a bien du mal à s’adapter aux plateformes numériques qui ont atteint une taille considérable en quelques années. Plusieurs textes visent à adapter le cadre juridique à ce nouveau paradigme. À l’aune du développement des plateformes de jeux vidéo et de leur tendance à dépasser les réseaux sociaux « classiques », on ne peut qu’inciter le régulateur à y porter une attention particulière. 

Agathe Charbonnel


[1] https://www.lemonde.fr/m-perso/article/2019/12/20/au-secours-mon-enfant-est-accro-a-fortnite_6023616_4497916.html

[2] https://www.pwc.fr/fr/espace-presse/communiques-de-presse/2019/juillet/medias-et-loisirs-croissance-et-personnalisation-a-horizon-2023.html

[3] https://www.20minutes.fr/high-tech/2588139-20190826-pourquoi-ados-francais-desertent-autant-facebook

[4] https://linc.cnil.fr/fr/jeux-video-voix-et-reseaux-sociaux

[5] https://discordapp.com/

[6] https://www.meta-media.fr/2019/05/14/avec-plus-de-250-millions-dutilisateurs-discord-nest-plus-reserve-quaux-gamers.html

[7] https://www.playstation.com/fr-fr/explore/playstation-network/your-psn/

[8] https://wearesocial.com/fr/blog/2019/01/global-digital-report-2019

[9]  https://blog.pex.com/what-content-dominates-on-youtube-390811c0932d

[10] https://www.lesechos.fr/tech-medias/hightech/streaming-twitch-bat-tous-les-records-961834

[11] https://www.telerama.fr/medias/twitch,-la-plateforme-de-streaming-de-jeux-videos-qui-fait-monter-ladrenaline,n5567303.php

[12] http://www.netimperative.com/2019/06/is-fortnite-becoming-the-next-big-social-network/

[13] https://www.bondcap.com/report/itr19/

[14] http://www.jeuxvideo.com/news/1140462/les-jeux-video-nouveaux-reseaux-sociaux-majeurs.htm

[15] https://www.begeek.fr/le-concert-de-marshmello-sur-fortnite-est-le-plus-gros-evenement-du-jeu-a-ce-jour-308100

[16] https://www.lefigaro.fr/cinema/une-scene-exclusive-de-star-wars-ix-devoilee-sur-fortnite-20191215

[17] https://signauxfaibles.co/2018/12/26/pourquoi-il-faut-serieusement-sinteresser-a-fortnite/

[18] https://www.millenium.org/news/355140.html

[19] https://www.lemonde.fr/m-perso/article/2019/12/22/yannick-rochat-fortnite-est-un-espace-de-liberte-loin-des-parents_6023795_4497916.html

[20] https://linc.cnil.fr/fr/jeux-video-voix-et-reseaux-sociaux

Quelle stratégie marketing pour les artistes en 2020 ?

Si le Business Model de l’artiste est en pleine mutation au niveau des canaux de distribution (nouvelles plateformes de streaming) et des activités clefs (diversification des expériences), la question de business model est interdépendante de la stratégie marketing de l’artiste via la segmentation et relation client.

1. Définir La proposition de valeur de l’artiste

Quelle est la stratégie marketing qui fera que les personnes écouteront lui et pas un autre. Autrement dit, comment l’artiste arrive-t-il à se différencier ?

Tout d’abord, avant même de parler de réseaux sociaux ou autre outil. L’artiste doit comprendre en amont comment il souhaite présenter son projet, pourquoi le public porterait un intérêt à sa musique et de quels éléments voudriez-vous que le public se souvienne ? On parle de stratégie musicale propre à l’artiste.

Pour répondre à ses questions, l’artiste doit faire une introspection sur ce qu’il fait, pour analyser chaque élément qui pourrait plaire à un certain public ou à un autre et déduire par la suite le type de personne que l’on souhaite toucher. Ensuite, l’artiste doit définir sa spécificité, et reconstituer le plus fidèlement son univers autour d’une image de marque.

Une fois cette stratégie musicale bien définie, l’artiste peu enfin définir sa réelle stratégie marketing.

Selon le type d’artiste et ses objectifs, l’artiste doit en général se créer un site web, un profil sur les réseaux sociaux, et une chaîne sur les plateforme vidéo. Il doit ensuite en fonction de sa stratégie musicale choisir sur quels canaux de promotion et de distribution il souhaite retrouver sa musique, et avec quels partenaires il souhaiterait travailler (partenaires numériques ou physiques nécessaires à la construction de la chaîne de valeur de l’artiste).

2. Segmentation client

Une fois la stratégie musicale et marketing définie, l’artiste doit segmenter son public en plusieurs groupes distincts afin de se construire une base fan solide.Pour cela, il va s’appuyer sur le data mining pour l’aider à trouver au mieux la cible qui matchera au mieux avec sa musique.

 Les artistes ont de plus en plus d’outils technologiques pour analyser ces données notamment sur les réseaux sociaux tels que Facebook, Twitter, Instagram qui génèrent des milliards de données chaque jour. L’intérêt pour les artistes de ces différentes métriques est qu’il peut ensuite adapter sa cible, et la peaufiner sur les réseaux sociaux via une campagne promotionnelle digital.

Mais ces réseaux sociaux ne sont pas les seules mines d’or à données potentielles pour les artistes indépendants. D’autres plateformes telles que les plateformes streaming hébergent un certain nombre de données relatives aux comportements du public.

 On trouve notamment Spotify qui collabore avec The Next Big Sound et lui fournit l’ensemble de ses données. En échange, cette dernière récolte et traite, agrège en temps réelles tout un panel de données relatives aux auditeurs avec notamment un classement des titres les plus populaires selon l’âge, la localisation ou le genre. Ces données ensuite corrélées et enrichies par les données relatives aux réseaux sociaux. The Next Big Sound propose ainsi d’optimiser la campagne marketing de l’artiste via un Dashboard qui sera indispensable dans sa prise de décision.

3. Relation client

Après avoir analyser les données et segmenter son public, il peut cibler le ou les segments sur lesquels il souhaite se concentrer. Cette étape va lui permettre d’acquérir de nouveaux fans et de se construire une base fan.Mais ces fans ne sont encore que des prospects. L’enjeux de la relation client va donc être de transformer le prospect en client réel.

Avant tout, l’artiste doit évaluer la valeur de ses fans pour les classer en 3 catégories distinctes énoncé par Kevin Kelly dans 1000 True Fans :

  • Causual fans : Ce sont la partie des fans les moins engagés dans la relation avec l’artiste. Ils vont « liker » la page Facebook sans pour autant porter un très grand intérêt à l’artiste. Ils ne connaissent souvent pas très bien l’artiste, en ont déjà entendu parler, ou connaissent un ou deux titres de l’artiste.
  • Regular fan : Ils représentent une grande partie de la fan base de l’artiste. Ils suivent l’artiste assez régulièrement sur les différents canaux.
  • Super fan : Ils constituent la partie centrale, essentielle pour l’artiste. Ce sont les fans les plus engagés, dévoués pour l’artiste qui cette fois-ci porte véritablement bien l’expression de « fan ».

On comprend ainsi que tout l’enjeux de la relation client pour l’artiste va donc être de maximiser le nombre de super fan et de facto de minimiser le nombre de causual fan.

Pour cela, il faut d’abord que l’artiste engage sa base fan. Il faut que l’artiste inspire le public, lui donne envie d’interagir avec lui, et l’amène à une conversation avec lui. Il est important que le public se sente reconnu dans les actions menées par l’artistes.Pour engager sa base fan, l’artiste a à sa disposition un certain nombre d’outil pour communiquer sans trop de moyens avec notamment le owned ou par la création de contenu (vidéo, clip, post, photo …).

Ensuite, il faut développer la base fan et la fidéliser pour convaincre la cible d’acheter un album, une place de concert ou un merchandising. L’idée ici est de jouer sur les différentes catégories de fan en augmentant la valeur fan en fonction de chacune de ces catégories dans le but de faire passer le fan de prospect à client réel.

Pour les Causual fans, leur disposition à acheter la musique de l’artiste est faible. Ils ont donc encore peu de chance d’acheter la musique de l’artiste. Dans ce cas, l’artiste doit favoriser avec eux l’échange gratuit de contenu, continuer à engager la conversation pour que ces derniers deviennent des regular fan.

En ce qui concerne les Regular fans, l’artiste devra varier son marketing entre la création de contenu (owned media), campagne du publicité payante (paid media) et profiter de la publicité gratuite par les fans eux même (earned media). Dès lors, il faut réfléchir à des tactiques inédites pour fidéliser et monétiser l’activité de l’artiste. Autrement dit, l’artiste doit développer un marketing innovant pour convaincre les regular fans de consommer un produit de l’artiste dans l’espoir qu’ils deviennent à terme des super fan.

Les Super fans sont les fans les plus rentable pour l’artiste car il n’y a plus besoin d’aller vers eux et de payer pour communiquer, ce sont eux qui viennent vers l’artiste. On parle en anglais d’advocacies, ambassadeurs de la marque de l’artiste, qui vont générer un certain nombre de contenus gratuitement pour l’artiste. La fidélisation passe par des récompenses (possibilité de rencontrer l’artiste, avoir des exclusivités sur des musiques, places VIP …) de ces super fans pour leur donner une reconnaissance dans ce qu’ils ont accompli en échange de ce travail gratuit.

Finalement, l’arrivée des réseaux sociaux et du Big Data ont donc considérablement améliorer « le targeting » pour les artistes qui peuvent désormais offrir une relation particulière avec chacun des segments auditeurs.

Elio Stopnicki

Réforme audiovisuelle : la contre-attaque des dinosaures, vraiment ?

« Netflix, Apple TV+ et Amazon Prime aujourd’hui, Disney+, Peacock et HBO Max demain… L’histoire s’accélère alors que la loi a pris du retard », a déclaré le PDG du groupe TF1, Gilles Pélisson. C’est justement dans le but de rattraper ce retard que le projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l’ère numérique, de son intitulé exact, sera très prochainement examiné par l’Assemblée nationale. Il fera alors l’objet d’amendements qui seront source de satisfaction ou de déception pour les acteurs historiques, soucieux de voir les normes juridiques s’adapter et prendre en compte la concurrence impulsée par les nouveaux entrants.  

Franck Riester, présentant certaines mesures phares de la réforme audiovisuelle au micro d’Europe 1, 22 septembre 2019.

Une réforme qui souhaite tirer les conséquences de l’évolution des usages

HBO Max, Disney+, AppleTV+, Amazon Prime, Netflix… Le marché de la SVOD (vidéo à la demande sur abonnement) ne cesse de se développer et d’attirer de nouveaux publics. Aujourd’hui, le Centre national du cinéma (CNC) estime que Netflix est la cinquième chaîne de France en termes d’audiences. Une profonde transformation des habitudes de consommation des contenus audiovisuels est en cours.

Les premiers services de vidéo à la demande sont apparus en 2005 en France. Ils ont ensuite connu un véritable boom en 2014 avec l’arrivée de Netflix sur le territoire national. En 2019, la Motion Picture Association of America (MPAA) estimait le nombre d’abonnés à un service de SVOD à 650 millions. Depuis, ce nombre n’a cessé de croître.

Cette croissance des abonnements s’accompagne d’une baisse générale des audiences télévisuelles sur le direct. Pour s’adapter à ces nouveaux usages, les chaînes de télévision développent de nouveaux projets tels que la plateforme de replay SALTO (commune à M6, France Télévisions et TF1) ainsi que des co-productions avec ces nouveaux acteurs, ce fut notamment le cas entre TF1 et Netflix concernant Le Bazar de la Charité.

Une volonté de rétablir une concurrence plus juste et équitable

Face à ces changements, les acteurs historiques de la télévision en linéaire demandent une adaptation de la législation et de la réglementation afin de rétablir une concurrence équitable entre les différentes parties. En effet, les chaînes estiment que les obligations qui pèsent sur elles devraient également peser sur les plateformes de vidéo à la demande.

Le projet de réforme audiovisuelle était relativement consensuel jusqu’à ces derniers mois. Puis, au fur et à mesure de la rédaction du projet par le Ministère de la Culture, les chaînes (notamment Canal+, TF1, M6 et NextRadio) ont laissé transparaître leurs doutes et insatisfactions. Elles estiment que le projet de loi n’est pas à la hauteur des ambitions initialement affichées, qu’il ne prend pas suffisamment en compte la force de la concurrence qui se joue aujourd’hui dans le paysage médiatique.

Vers un assouplissement des obligations des acteurs historiques

Le projet de loi voudrait alléger les devoirs des chaînes de télévision afin de leur permettre de se maintenir devant leurs concurrents. Notamment, le projet de loi simplifie la production cinématographique en offrant aux chaînes la possibilité de globaliser leur effort au sein d’un même groupe et non pas de le calculer chaîne par chaîne.

Les chaînes se voient également accorder une liberté plus grande quant à l’organisation de leur grille de programmation. En effet, l’encadrement de la grille horaire et journalière de diffusion des films de cinéma est rendue caduque. Il n’y aura plus de jours interdits pour la diffusion de films de cinéma à la télévision.

Le projet de loi a pour objectif de permettre aux acteurs historiques de renforcer leurs recettes publicitaires, lesquelles sont au cœur de leur business model. En effet, le nombre de coupures publicitaires autorisées au cours de la diffusion d’une œuvre cinématographie est porté à trois contre deux auparavant.

La mise en place de nouvelles contraintes sur les épaules des plateformes

Le chapitre I du titre I du projet de loi présente les mesures relatives à la création. Parmi ces mesures figure l’extension des obligations en terme d’investissement dans la production des services établis en France aux services non établis en France mais qui visent le public francais. Cette disposition aurait pour effet, par exemple, de soumettre Netflix à de nouvelles obligations économiques.

Les plateformes en ligne seront désormais soumises à la compétence de l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) qui est la nouvelle autorité de régulation du secteur ; elle est le fruit de la fusion entre le CSA et la HADOPI. Les plateformes se verront donc dans l’obligation de respecter les normes de régulation définies par l’ARCOM.

Des obligations encore trop lourdes sur les épaules des chaînes linéaires

Les acteurs historiques déplorent le fait que le projet de loi ne consacre finalement pas la levée des secteurs interdits de publicité à la télévision alors même que l’Autorité de la concurrence y était initialement favorable.

Ils estiment que ce maintien est injustifié étant donné que les plateformes en ligne ne connaissent aucun secteur interdit de publicité.

L’Autorité de la concurrence a également pointé du doigt l’asymétrie des droits entre les diffuseurs et les plateformes. En effet, lorsqu’elle finance une série (parfois jusqu’à 70%), la chaîne de télévision détient les droits de diffusion sur une période limitée (environ 48 mois) alors même qu’un acteur tel que Netflix peut détenir ces droits sur plusieurs années.

Maxime Saada, le PDG de Canal+, déplorait le fait que Canal+ ait «  sorti la saison 4 du Bureau des légendes, dont nous avons financé 70 % pour un peu plus de 15 millions d’euros, mais nous n’avons déjà plus les droits de la saison 1. Netflix, Amazon ou les autres les récupèrent contre une bouchée de pain. Nous n’avons aucun droit sur la série Versailles, dont nous avons financé plus de la moitié et que nous avons diffusée, et aujourd’hui, aux États-Unis, c’est un contenu estampillé Netflix original ».

Il convient de rappeler que les dispositions présentées dans cet article sont susceptibles d’évoluer, la réforme audiovisuelle n’est pour l’instant qu’au stade de projet avant son adoption définitive par les deux chambres parlementaires. Les chaînes historiques peuvent encore défendre leurs positions lors de cette phase parlementaire.

Loren Fadika

Sources :

http://www.scam.fr/detail/ArticleId/5547/Directive-SMA-un-compromis-favorable-a-la-creation-audiovisuelle
https://www.lepoint.fr/medias/reforme-de-l-audiovisuel-ce-qui-va-changer-pour-les-telespectateurs-01-12-2019-2350683_260.php
https://www.lesechos.fr/idees-debats/editos-analyses/reforme-audiovisuelle-lespoir-decu-des-chaines-privees-1148047

Public television channels vs VOD platforms : how does the competition stand ?

Television is declared as dead by many specialists : general audiences have known a decrease since ten years, and it is getting old. The television viewer’s average age has reached fifty. This is a problem as the targeted young audience is not behind its television anymore. Those market shares are returning to digital medias, which are monopolizing younger’s attention. The diminution of television advertising revenues are a major threat to its ecosystem. It could in fact affect its investments, on which channels have obligation as french companies. But, despite this announcement, the leading historical channels have seem to resist. According to Mediametrie, on 2018, TF1 has kept good audience ratings on every program’s type, France Television has profited from better audiences, and Arte’s prime time have beaten records. In fact, if the audience on linear program is decreasing, the global audience on every screen is increasing. Therefore, the issue to historical actors channels is to adapt to the new ways of watching television. Subscriptions to streaming services are growing steadily. But some figures are still putting in question the whole victory of platforms, as those concerning the pay TV in Australia for instance. Where, then, is the competition standing between french television and SVOD platform on its territory ? 

Since a few years, SVOD platforms as Netflix, Hulu, or Amazon Prime Video have known an impressive growth, seeing their subscriber rate and turnover blow up, enabling them to invest always more in production. Netflix has seduced more than 4 million people in France. Its success is due to the proposition of a content constantly renewed, which is taught in order to fit with every taste. This emergence is questioning this well established media ecosystem, and especially the advertising market on which it is supported. Most of the SVOD platforms are not based on the same types of business models. But, advertisers are less interested by television advertising slots because of the increasing mass of cord cutters, besides who are young. The new ways of doing advertising have seemed to conquer television, even if experimentation are still at their early stage. A personalized advertising could be for some the solution to this cord cutting phenomena, and bring back efficiency in this business through a programmatic system. Some specialists have also evoked  a sort of Shazam application in order to screen a product on TV. However, this loss of revenues to television has been a threat those recent years. 

Initiatives have thus been taken to get back audiences, and especially young viewers. In France, Molotov has imposed itself as the aggregator for linear television content. But its financial situation is still unstable. Recently, it has been announced that Molotov has failed to achieve its CEO ambition to raise some tens millions euros to finance its international expansion. It has been evoked the buying of its technology by France Television. In fact, even if Molotov had have seven million users at the end of 2017, after a period of rapid growth, it has struggled to develop a viable economic model for its service. The situation of Molotov shows how much it could be complicated to television to structure its offer on digital. But it has also announced the new paradigm, in which the customer won’t distinguish linear from de-linear as it will appear as a whole. 

According to an NPA study, Netflix has imposed itself as the sixth channel of the audiovisual landscape. But the study doesn’t declare the end of linear television. Notably because the audience of flow programs (television games or entertainment) is stable, as a solid anchorage point for television. Plus, the offer of premium TV in France is not very developed, which is the sign that nobody would accumulate various SVOD subscription. And furthermore, television channels have developed on the digital. Besides the creation of replay platforms or their implantation on Molotov or Youtube, some channels have decided to expend their digital presence by the development of deals with OTT services. For instance recently, TF1 has struck a new distribution deal with Videofutur, a service which provides linear and on-demand services over public fibre networks. The deal will see free-to-air TF1 channels distributed over Videofutur’s network along with on-demand content associated with these channels. The agreement provides Videofutur subscribers with access to programmes available on catch-up from MYTF1 with extended distribution windows, some avant-premieres of shows and new functionalities.

Nevertheless, television channels still have to develop their brand on the digital landscape. They have to diffuse more content on the models of the American networks. In addition to catch up tv, channels are now developing VOD programs, even if it remains hard to monetize advertising on those spaces. Moreover, global SVOD platforms project are now implemented by some players, countrywide or at the European level, in order to gather the investment power of television channels, facing giants as Netflix or HBO. In terms of programmation, the competition on fiction content has been tougher, as Netflix and its Dantesque investments in production make the rhythm  of production faster. So far, television has reinforce its position in TV reality, short programs, documentaries, or even animation. 

Platforms are new competitors for people’s attention, and the daily time spent on medias are not extensible, even if it’s higher than ever. Channels are thus reorganizing their strategies to face this new paradigm.

La directive européenne sur le droit d’auteur, chronique d’une réforme controversée

En septembre 2016, la Commission européenne a présenté sa réforme du droit d’auteur, notamment à travers une proposition de directive portant sur le droit d’auteur dans le marché unique numérique. Cette directive, qui vise à actualiser la Copyright Directive de 2001, introduit un droit voisin pour les éditeurs de presse et une obligation pour les plateformes de filtrer les contenus violant le droit d’auteur, afin de résorber le value gap, tout en prévoyant également que les plateformes passent des accords avec les ayants droit.

Cette réforme a suscité une levée de boucliers de toutes part. En effet, d’après la Commission européenne, si le texte a pour objectif de placer les éditeurs de presse « dans une meilleure position pour négocier l’utilisation de leurs contenus avec les services en ligne qui les utilisent ou en permettent l’accès et pour lutter contre le piratage », son application induirait d’importants changements pour les acteurs du numérique.

Droit voisin, value gap, de quoi s’agit-il ?

Dans ce texte long de de 24 articles, deux d’entre eux concentrent les crispations : les articles 11 et 13. Le premier vise à créer un droit voisin pour les plateformes numériques : il s’agit d’étendre le droit d’auteur aux hébergeurs jusqu’ici majoritairement épargnés par la prise en compte des droits moraux et patrimoniaux de l’auteur – ou des ayants droit, le cas échéant – afin de réduire le value gap actuel. Le value gap est l’écart entre les revenus de la publicité touchés par les plateformes grâce aux contenus publiés, et ceux qu’elles versent aux ayants droit. Il est parfois également défini comme l’écart de valeur entre les revenus que les plateformes vivant de la publicité (YouTube, Dailymotion…) versent aux ayants droit et ceux versés par les services d’abonnement (Spotify, Deezer). Ce droit voisin s’appliquerait alors aux “éditeurs de publications de presse (…) pour l’utilisation numérique de leurs publications de presse.

L’article 13, quant à lui, dispose que les hébergeurs ne devraient pas seulement exercer un contrôle a posteriori des contenus, mais a priori, en filtrant de manière automatique les contenus lorsqu’ils tombent sous le coup du droit d’auteur et ne font pas l’objet d’un accord entre l’hébergeur et l’ayant droit. Une façon de renforcer la responsabilité des plateformes, qui sont vent debout face à cette directive.

D’âpres négociations, mais toujours pas de compromis

Après plus de deux ans de négociations, les États ont apporté beaucoup de modifications techniques, mais ont préservé les objectifs généraux du texte. Cependant, chaque institution y est allée de sa version, obligeant à entamer des négociations dans le cadre du trilogue (Parlement européen, Commission européenne et Conseil de l’UE) pour aboutir à un compromis. Pour le moment, les principaux points d’achoppement qui demeurent concernent la durée des droits accordés aux éditeurs de presse, l’application des droits aux snippets (les courts extraits d’articles) ou encore l’exclusion des PME pour les obligations de filtrage.

Si la France s’est dite assez satisfaite des négociations entre les États au niveau du Conseil, elle a toutefois décidé de prendre les devants, en soutenant la proposition de loi du sénateur David Assouline tendant à créer un droit voisin au profit des agences de presse et des éditeurs de presse. Sa rédaction a d’ailleurs fait l’objet d’une concertation avec le gouvernement. L’objectif affiché est d’anticiper toutes les issues possibles des négociations au niveau européen. Ainsi, si le trilogue aboutit dans un délai raisonnable, cette proposition de loi pourra servir de texte de transposition, d’autant qu’elle exclut volontairement des éléments de la directive qui ne sont pas encore tranchés. En cas d’échec des négociations, ce texte pourrait servir à la création d’un droit voisin au niveau français, comme il en est question pour la taxation des géants du numérique.

En attendant, les lobbies des deux camps s’affairent en coulisse pour tenter d’influencer les parties prenantes de la négociation : Europe for Creators, European Innovative Media Publishers, EDRi… Tous essayent de minimiser les effets du texte sur leurs activités. Le dernier en date : Google, qui a menacé de fermer son service Google News en Europe – comme naguère en Espagne – dans l’hypothèse où la réforme du droit voisin était adoptée.

Les négociations, redémarrée en raison de la nouvelle présidence roumaine du Conseil de l’UE, aboutiront-elles avant les élections du mois de mai prochain ? Rien n’est moins sûr.

Paul Lachner-Gaubert

Facebook: un business model en crise ?

Facebook, une marque affaiblie par des scandales à répétition

L’an dernier, Mark Zuckerberg, qui semble passer son temps à se confondre en excuses publiques rocambolesques, annonçait vouloir « réparer Facebook ».

Cette déclaration fait suite à plusieurs scandales qui ont émaillés l’actualité du réseau social ces derniers temps: l’emblématique fondateur de Facebook a dû comparaître face au Sénat Américain pour des questions de confidentialité de données, l’affaire des fake news a décrédibilisé les contenus du réseau social, le scandale de Cambridge Analytica a achevé de miner la confiance des utilisateurs… Autant de scandales qui ont affaibli l’image du réseau social.

La symptomatique chute du cours de l’action de Facebook (une perte de près de 110 milliards de dollars en moins de 24 heures) en juillet dernier a inquiété les investisseurs et fait fuir les annonceurs. En 2018, la cote de Facebook est décidément au plus bas. Seuls d’importants changements de fond permettraient au réseau social de se relever et de redorer son image.

Une des conséquences directes de ces scandales a été l’annonce par Facebook de démarches radicales destinées à promouvoir plus de transparence. Ce revirement a ainsi donné lieu à l’instauration de mesures telles que la mise à jour des paramètres de confidentialité et l’abandon de l’utilisation de données de tiers.

Remise en cause du modèle économique et rééquilibrage des sources de revenus

En parallèle de ces crises à répétition, on observe un changement de mentalités chez les internautes. Ceux-ci sont de plus en plus prêt à payer pour des services premium qui leur garantissent l’accès à un contenu de qualité tout en les débarrassant de la publicité.
La progression fulgurante et soutenue du nombre d’utilisateurs de plateformes comme Netflix, Spotify ou Mediapart montre que les business models reposant sur une forme d’abonnement ont encore de beaux jours devant eux. D’autres plateformes, d’abord gratuites, sont en train de développer une offre payante afin conserver leur compétitivité et faire le poids face aux nouveaux géants du numérique. C’est notamment le cas de Twitter ou encore de Linkedin dont les offres premium ne cessent de se perfectionner.

Cependant, et malgré une volonté affichée de se désengager de la publicité pour en réduire le poids dans ses revenus, il est difficile d’imaginer Facebook soudainement repenser la manière dont ses revenus sont organisés. Facebook est un réseau social dont la gratuité est l’un des principaux arguments face aux utilisateurs et pour qui la publicité représente 98% des revenus. Tout départ de ce postulat initial de gratuité serait mal perçu par la communauté d’utilisateurs.

Dans un premier temps, ce désengagement de la publicité se fera inévitablement de manière timide et progressive. Si la publicité dominera toujours les sources de revenus de Facebook, les projets visant à en rendre réseau social moins dépendant se multiplient.

Qu’adviendra-t-il alors de la publicité sur le réseau social ? Elle va être amenée à se transformer pour répondre à deux problèmes qui tourmentent Facebook: le problème de visibilité des annonces publicitaires ainsi que la désastreuse expérience utilisateur. D’une part les annonceurs n’ont plus confiance en des plateformes qui ne valorisent pas la « brand safety ». De l’autre, les utilisateurs sont fatigués d’être la cible de publicité digitales intempestives, redondantes et intrusives qui utilisent leur données les plus personnelles.

Repenser la publicité

Les utilisateurs entretiennent une relation ambivalente à la personnalisation publicitaires. Bien que la personnalisation à l’extrême semble les gêner, ceux-ci sont plus enclins à tolérer des formes justifiées de personnalisation si cela peut leur éviter de se retrouver ciblés par un plus grand nombre de publicités hasardeuses.

Désormais, comme la majorité du trafic web se fait sur des dispositifs mobiles, les formats publicitaires adaptés aux mobiles vont prendre une ampleur considérable. En adoptant la story sur Instagram et Messenger et en promouvant Messenger Ads (deux formats qui vont jouer un rôle critique dans l’avenir de la publicité de Facebook), les têtes pensantes de Facebook montrent bien qu’elles ont compris le potentiel dont elles disposent.

46% des utilisateurs de smartphone utilisent l’application Messenger et la plupart des jeunes utilisateurs, les millenials, ont grandi avec cette application et s’en servent quasiment quotidiennement. Les marques pourront donc sponsoriser du contenu sur une audience de plus de 300 millions d’utilisateurs quotidiens répartis entre Facebook et Messenger.

Laurent Solly, le vice-président de Facebook Europe du Sud, parle du déploiement de la publicité pour le format story en ces termes: « La façon dont les stories se sont installées dans les usages témoigne du fait qu’il s’agit d’un format qui séduit les utilisateurs […] Mais cette extension de notre offre publicitaire ne se fera pas au détriment des utilisateurs : notre objectif n°1 reste de garantir à tous la meilleure expérience possible ».

Si le business model de Facebook commence à être éprouvé, le réseau social de Mark Zuckerberg semble emprunter un chemin pavé de bonnes intentions (transparence et respect des utilisateurs) pour se reconstruire et rester compétitif. En parallèle de cette transformation, le véritable changement de fond annoncé va-t-il s’opérer ou n’est-ce qu’un écran de fumée ? Affaire à suivre.

Gabriel Sfeir

Instagram, le meilleur ami des sportifs

Instagram est devenu LA réelle vitrine pour les grands sportifs, et particulièrement pour les footballeurs. Photos de familles, réactions dans les vestiaires, chambrage ou encore sponsoring, Instagram n’est plus qu’un simple divertissement: il devient presque obligatoire pour les professionnelles aujourd’hui. Une communication 2.0 qui a trouvé son succès notamment pendant la coupe du monde 2018.  

Les comptes Instagram des joueurs n’ont pas arrêté de nous offrir des moments intimes de leur quotidien pendant cette coupe du monde

Une Étoile pour Instagram

Entre les chambrages sur Mbappe, les chants en l’honneur d’NGolo Kanté, la vidéo d’Emmanuel Macron au sein du vestiaire etc, cette coupe du monde, remportée par l’équipe de France, a semblé réunir toute une population autour de cette équipe, dont peu de gens, étonnamment, éprouvaient de la sympathie et de l’espoir quelques semaines auparavant. Cette relation si particulière, cette cohesion entre ces millions de français et l’Équipe de France s’est, entre autres, développée au fil des jours via un réseau social: Instagram. Ce réseau dont les jeunes (mais pas que) raffolent a permis à toute une population de suivre le quotidien, l’intimité de ces joueurs qui semble si loins de « nous », de notre mode de vie. En humanisant ces stars, Instagram permet à ces joueurs d’apparaitre plus « cool », plus à l’écoute de ses fans. Tout ce que recherches les supporters.

À default d’avoir pu briller sur les terrains, Mendy a été d’une importance capitale dans les coulisses, et sur ce réseau social précisément. À travers ses videos ou l’on a pu apercevoir la vie intime des joueurs, le joueur a permis de « briser » d’une certaine manière une vitre qui pouvait exister entre les fans et eux. Avec toutes ces images, nous n’étions plus simplement un « 12ème homme » mais bien partie intégrante de l’aventure.

Même les objets deviennent populaires. Autre star du mondial et le plus insolite, cette fameuse enceinte du joueur parisien Kimpembe. D’un simple objet à l’acteur principal de la bonne ambiance dans le groupe, les videos postées par le joueur avec, que cela soit dans le bus, dans la chambre, dans les couloirs, à la cantine, l’acolyte du joueur n’est pas passe inaperçu. Encore un moyen de rendre l’aventure plus sympathique.

Journaliste, nouveau rôle ou retour aux sources ?

À travers cet engouement pour Instagram et cette nouvelle communication de la part des bleus, les journalistes n’ont pas semblé perdre en crédibilité auprès des joueurs. Bien au contraire, les conferences de presse paraissaient plus apaisées, moins « distant » que d’habitude. Comme si le fait de ne plus avoir ce rôle de « chercheur de buzz » les avaient tous libérés et rendus, eux aussi, plus détendus, plus proches des joueurs. Finalement, Instagram n’a t-il pas permis aux journalistes de revenir aux fondamentaux du métier? C’est en tout cas ce que pense Laurent Allard, qui précise que les journalistes doivent aujourd’hui se concentrer plus sur « l’enquête, le regroupement d’informations ».

« Les Bleus font de la com’institutionnelle, tout est maitrisé »

précise Laurence Allard, maitre de conférences en sciences de la communication a l’université Lille 3.

Bien plus qu’un simple « ami »

Instagram est aujourd’hui un outil presque indispensable pour les sportifs. Pour être proche de leur fan, mais aussi et surtout d’un point de vue financier.

Antoine Griezmann pause avec ses nouvelles chaussures PUMA, son sponsor.

Que cela soit pour des chaussures, des maillots, des ballons, les différentes marques de sport s’arrachent les joueurs les plus connus, et sont prêts a payer une fortune pour de simples publications Instagram: 600 000 euros, c’est le montant que peut toucher Cristiano Ronaldo pour un post Instagram. Ce réseau est devenu une source financière très importante pour ces grands joueurs, mais également pour les moins connus.

Maxime Castillo, un jeune champion français de bodyboard, qui comptabilise aujourd’hui près de 14 000 abonnes, a très vite compris qu’une communication Instagram était essentielle pour sa carrière : « La compétition apporte la légitimité et donne du sens aux partenariats. Mais il fut aussi que je raconte des histoires et que j’apporte une part de rêve ».  On est la pour valoriser son image, l’image des marques ou encore des clubs. Instagram est utilisé pour raconter une histoire à travers les photos ou videos postées. On ne se contente plus d’afficher un produit, mais de lui donner une « vie ».

10yearschallenge, au service de la bonne cause.

Pogba, Neymar, Beckham et autres grands sportifs, mais également de nombreuses célébrités de la chanson, du cinema et autres, se sont récemment pris au jeu du 10 years challenge : publier une photo de soi il y a 10 ans puis une autre récente afin de comparer la différence. Une « mode » qui a duré plusieurs semaines et qui a vu le réseau inonde du challenge. Mais au-delà du simple « amusement », certains sportifs ont utilisé ce « jeu » pour faire passer un message plus important. En effet, Mezut Ozil, international allemand et joueur d’Arsenal aujourd’hui, a publié un cliché montrant la fonte des glaces qu’il y a eu entre 2009 et aujourd’hui avec une simple légende : « The only 10 years challenge we should care about » (Le seul 10 years challenge qui devrait avoir de l’importance). Fini l’amusement, la rigolade, la recherche de like : on veut ici toucher et choquer.

Instagram et donc devenu, en quelques années, un réseau indispensable dans la communication des sportifs. Cristiano Ronaldo est aujourd’hui d’ailleurs la personnalité la plus suivie du réseau social, avec 153 millions d’abonnés. Le rachat de Facebook il y a quelques années a surement été le tremplin pour ce réseau social. Et c’est le PDG de snapchat, Evan Spiegel, qui peut aujourd’hui regretter son choix de ne pas avoir cédé son application au géant américain.

Jules Ferrer

Sources:

http://www.leparisien.fr/sports/les-reseaux-sociaux-bouleversent-la-vie-des-sportifs-07-02-2018-7545225.php

https://www.20minutes.fr/arts-stars/culture/2308731-20180716-coupe-monde-2018-instagram-bleus-font-com-institutionnelle-tout-maitrise

Blockchain : the future of programmatic advertising ?

Simply put, advertising is a contract between advertisers, who seek to reach a certain audience, and publishers, who need retribution for their content. With the Internet, this contract has become more complex: the boundaries between the different players in the ad sector have become confused and new business models have emerged, which has made competition increasingly harsh. Thus, the battle for value has intensified, especially facing the duopoly of Google and Facebook which represents two-third of the market. In this context, it is interesting to see how a technology such as blockchain could be used to answer most of the programmatic advertising issues.

First of all, it is important to note that the model that prevails today in digital advertising is programmatic: it represents 60% of the display in 2018. However, event though programmatic was useful to reduce the number of intermediaries between advertisers and publishers, this is no longer the case. Many players, who were supposed to facilitate the placement of advertisements and remuneration, have gradually been put in place. From then on, the digital advertising supply chain includes various intermediaries between advertisers and publishers: ad exchanges, trading desks, DSPs and SSPs. The value is scattered throughout this chain of actors.

According to the World Federation of Advertisers, for $ 100 invested by an advertiser, only $ 40 will return to the publisher.

Programmatic value chain

Similarly, Marc Pritchard, the Chief Brand Officer of Procter & Gamble, one of the largest advertisers in the world, says that « only 25% of the money that is spent on digital advertising really serves to reach consumers « .

To this problem of return on investment is added the question of opacity of transactions. The World Federation of Advertisers surveyed 59 of its largest members, representing more than $ 70 billion in annual advertising spend: 90% of those using trading desks said they had to review their contract in 2017, especially because of the lack of transparency. In order to optimize their revenues, publishers and advertisers are forced to combine several techniques and tools and remain dependent on the intermediaries who hold the data. An advertiser therefore has little visibility on the audience of its advertisements and is rarely able to truly measure its return on investment.

There is a real crisis of trust between the advertising players and it is all the more reinforced by fraud. According to a study by Juniper Research, advertising fraud cost almost $ 19 billion in 2018, amounting to 9% of digital advertising investment. This sum might even reach $ 50 billion by 2025 according to the World Federation of Advertisers.

This lack of trust is also found among end-users: “badvertising” has led to the expansion of adblockers. Publishers are now required to review their models and find other sources of revenue.

Faced with these different challenges, advances in artificial intelligence, data collection and new technologies are emerging as potential answers. The lack of transparency, the loss of value along the chain and the large number of intermediaries make digital advertising a key sector for the implementation of blockchain technology. Indeed, in principle, the blockchain allows the traceability of transactions and the disintermediation of exchanges.

First of all, blockchain could meet the need for traceability thanks to the « tokenization » principle. Thus, a token – a form of identification – is associated with every ad, which can then be followed throughout its course and enable to assimilate data (audience and amounts spent in particular). Concretely, the blockchain makes it possible to record the value throughout the chain. It also avoids the misuse of data by some actors who do not pay its owners.

In addition, by construction, a blockchain is available to all stakeholders that form its network: the entire chain can see transactions in real time, including the advertiser who is then able to know exactly for what his expenses are used for. As the register of a blockchain records all the transactions, it is almost impossible to make a mistake about the number of advertisements viewed, and therefore, about the payment: the advertiser no longer pays « blindly ».

This way, the entire journey of a digital ad can be traced with much more transparency and reliability through a blockchain registry.

Moreover, the blockchain is also at the heart of smarts contracts: they are unfalsifiable contracts that trigger the transaction only when the execution conditions are met. These stand-alone programs automatically execute the terms and conditions of a contract, without requiring human intervention once started. This allows in particular to set very specific payment rules: for example, the transaction, and therefore the payment, will be made only for advertisements that are seen more than 30%.

According to Christophe Dané, the founder of the consulting firm Digitall Makers, « thirty blockchain projects related to media buying, data management and the fight against fraud » were born in the Anglo-Saxon market between 2017 and 2018. Among them, some are already well advanced: Brave, a browser based on a blockchain that remunerates publishers and users with tokens, MetaX which traces advertising assets on the Internet, Amino that makes payments made in online advertising more transparent or AdEx which offers a decentralized platform of exchange to solve the problems of fraud and privacy.

All these initiatives tend to show that the programmatic advertising sector seems already prepared to welcome the blockchain. However, some limits still hinder the main players, advertisers and publishers. First of all, the extreme transparency provided by the technology through its tamper-proof registry can be a strategic obstacle: an advertiser does not necessarily want to reveal its CPM prices to the entire chain. The life of the data is also problematic: one of the founding principles of the Internet is the right to be forgotten, which becomes impossible with the blockchain that is immutable.

Another point is particularly limiting: blockchain technology is still relatively slow, especially because of the block encryption phase. The number of transactions is therefore limited in time, and still slower than real time bidding. In programmatic, reactivity must be of the order of a millisecond, which blockchain technologies are not yet able to achieve.

Finally, blockchain technology is only one of the possible solutions to the many obstacles encountered in digital advertising, and cannot be the only answer. Many other business and organizational challenges are still to be overcome.

One final point that is interesting to mention regarding blockchain and programmatic advertising is the role of one of the most important player in the advertisement value chain: the end-user. Indeed, consumers can become true counterparties to the digital advertising transactions that today leverage their profile data in exchange for access to ad-supported content. They will play an indispensable role in claiming, maintaining, and managing their digital identities and will then support the new “token economy”.

In order for blockchain to achieve massive scale and truly transform the digital advertising supply chain, individual consumers will also need to become involved. That is why, to conclude, we can expect blockchain, once mature, to be at the very core of value sharing between the three main players : advertisers, publishers and consumers.

Amélie Costadoat

L’évolution de la diffusion de contenus sportifs en OTT est-elle une menace pour les chaînes de TV payantes ?

Alors que le nombre de chaînes de télévision a explosé au cours des dernières années, l’acquisition de contenu a été l’une des stratégies clés utilisées par les chaines de télévision pour se distinguer.
De tous les contenus diffusés à la TV, nous le savons, le sport fait les plus larges audiences et influe fortement sur le nombre d’abonnés des chaines payantes.

Le sport, à travers la publicité ou de par les ou d’abonnements, génère des revenus considérables pour les chaines de télévision et représente ainsi une importance majeure.

Aujourd’hui, de nombreux services de streaming sportifs cherchent à s’attaquer aux géants de la télévision à péage. La question que nous posons est de savoir si la diffusion en OTT va se développer au point de devenir une importante menace pour les chaines

L’OTT correspond à la distribution de contenu vidéo «au-dessus» des moyens distribution traditionnelles. Sur le plan technologique, l’OTT est la diffusion de contenu vidéo par le biais de connexions Internet haut débit fixe ou mobile.

L’émergence de la Major League Baseball en tant que diffuseur témoigne de l’importance que les ligues de sports accordent au potentiel de cette plate-forme de distribution permettant d’éliminer les intermédiaires.
Dans le cadre d’un contrat traditionnel, une organisation sportive accorderait ainsi une licence exclusive à un ou plusieurs partenaires pour la diffusion d’événements sportifs en direct. Cependant, les organisations sportives cherchent de plus en plus à réduire la portée des accords traditionnels dans le but de produire leur propre contenu et ainsi générer plus de gains.

De nos jours, les options de diffusion OTT en continu sont devenues un élément important du paysage sportif.

La Formule 1 à elle lancé son propre service OTT pour diffuser des courses sur plus de 20 marchés avec des prix variants de 8 à 12 dollars par mois. En France, La LFP avec la ligue 1 a récemment signé un accord de vente des droits médias avec DAZN au Brésil, un service OTT contre 5 millions € par an entre cette saison et 2021. L’accord a directement affaibli BeIN sport, qui cherche à s’attaquer au très porteur marché Brésilien. En effet, le grand nombre de joueurs Brésiliens du Paris Saint-Germain fait de la ligue 1 un championnat très recherché dans ce pays.

Au cours des derniers mois, nous avons pu également constater l’intérêt croissant des principaux acteurs de l’Internet concernant l’acquisition des droits de retransmissions en direct d’événements sportifs que ce soit à un degré national ou international.
Que ce soit pour accroître leur base d’utilisateurs ou pour fidéliser les utilisateurs existants, YouTube, Yahoo !, Twitter, Facebook et Amazon prévoient tous de s’imposer comme partenaires clés dans la distribution et la monétisation du sport. Amazon a par exemple pris la décision de diffuser en streaming les matches de la British Premier League. Ainsi, pendant trois ans, vingt matchs par an seront diffusés en exclusivité sur Amazon Prime. Amazon a également obtenu les droits de diffusion de l’US Open de Tennis dans le cadre d’un contrat de cinq ans à compter de l’US Open 2018.

Bien que leurs ambitions ne soient pas encore précises, certains de ces géants ont certainement assez de moyens pour faire facilement élever le prix des droits de plusieurs millions d’euros sur certains marchés. Cela pourrait mettre hors de portée certains médias linéaires qui, pour certains, souffrent déjà financièrement.

Si l’OTT devrait probablement devenir une solution crédible au fil du temps pour la retransmission en direct d’événements sportifs, les problèmes techniques liés à la distribution de flux vidéo de qualité, à la volonté de visionnage sur grand écran etc freine son développement. Pour le moment, la distribution OTT ne peut concurrencer complétement les chaines télévisées.

Le scénario qui semble se dessiner nous laisse apparaitre un rude combat financier et stratégique entre ces nouveaux acteurs du numériques et les chaines de télévision. A nous de de le suivre.

Charles Leconte.

Pourquoi les géants du numérique se lancent-ils à l’assaut des droits sportifs ?

L’arrivée du groupe audiovisuel espagnol Médiapro qui a acquis la quasi totalité de la Ligue 1 pour la période 2020 à 2024 pour un montant impressionnant qui flirte avec le milliard d’euros a retenti comme un coup de tonnerre sur le marché des droits TV. Le groupe espagnol inconnu du grand public a depuis annoncé la création en France d’une chaîne de télévision dédiée qui mettrait donc fin à plus de 30 ans d’hégémonie de Canal+ sur la compétition reine en France.

Evènement suffisant pour parler de « révolution » comme l’ont fait l’ensemble des médias ? Sans doute pas.

En effet, si cette évolution récente, couplée à celle d’Altice il y a quelques années est bien réelles elle n’a rien de « révolutionnaire ». De nouveaux acteurs apparaissent mais ils restent des acteurs traditionnels du paysage audiovisuel européen : Médiapro a une expérience télévisuelle réelle en Espagne en ayant déjà lancé un certain nombre de chaînes (La Sexta, Gol Télévision, etc.) tandis qu’Altice est dans une stratégie bien connue de « convergence médias-télécom » et ne fait qu’imiter Orange ex-acteur du sport en France (avec Orange Sport) ou ses homologues britanniques Sky et BT.
La vraie révolution, le véritable bouleversement du marché n’est pas là : il est dans l’émergence des géants du numérique que sont Amazon, Facebook, Twitter ou Netflix dans ce secteur.

Ces géants se sont d’ailleurs déjà montrés intéressés par l’acquisition de contenus télévisés sportifs : après avoir acheté les droits audio de Bundesliga pour la période 2017-2021, Amazon diffusera en exclusivité pour ses abonnés l’US Open de Tennis au Royaume-Uni, la plateforme avait aussi acquis 10 matchs de NFL (football américain) pour 2017 mais vient surtout d’acquérir un lot de diffusion de la Première League anglaise (20 matches de Championnat par saison sur sa plateforme Prime Video pour la période 2019-2022). Facebook diffusera des matchs de la Liga en Inde pour les trois prochaines saisons et a noué un partenariat avec Eleven Sport qui a acheté les droits de la Liga et de la Serie A pour le Royaume-Uni afin de diffuser un match gratuitement par semaine. Le réseau social s’était déjà lancé l’an dernier sur le marché avec la diffusion de la Major League Soccer (la première division aux Etats-Unis) et de la Ligue des Champions aux Etats-Unis. Enfin, il y a quelques mois, Facebook a recruté Petter Hutton, le directeur général d’Eurosport, ce qui confirme cette volonté de s’insérer sur ce marché. Twitter avait réussi à s’emparer des droits numériques de 10 matchs de NFL, de matchs de NHL (hockey sur glace) et de matchs de MLB (baseball) en 2016. Google et Netflix sont, pour l’instant, les deux géants les moins actifs sur ce marché même si ce dernier a tout de même produit en février 2018 la série « Club de légende : Juventus », un documentaire sur la Juventus de Turin. Ainsi, la volonté de ces nouveaux acteurs d’entrer sur le marché des droits TV dans le football ne fait absolument aucun doute.

Les droits sportifs: des contenus fédérateurs et une promesse d’audience et d’abonnements

L’audience promise par ces contenus est tout d’abord très attractif pour des acteurs comme Facebook ou Twitter qui, comme les chaînes gratuites, basent leur business model sur la publicité. Ainsi, comme le relate le sénateur David Assouline dans son rapport parlementaire[1], en 2016, 23 des 25 plus fortes audiences sont des contenus sportifs depuis la création de Médiamat en 1989 (mesure de l’audience). En mettant le tableau à jour avec l’entrée de France-Belgique et de France-Croatie, le football représente 22 des 25 plus fortes audiences, soit près de 90%.
Par ailleurs, les audiences sur des chaînes plus modestes, comme les chaînes de la TNT sont aussi impressionnantes depuis plusieurs années : W9 a réuni 4,6 millions de téléspectateurs pour le match d’Europa League qui opposait l’Olympique de Marseille à Salzburg et a réalisé ce soir là le record de la chaîne. 9 des plus fortes audiences de la filiale du Groupe M6 sont par ailleurs des contenus footballistiques. Dans la même veine, la filiale du groupe Canal+, C8 a aussi réalisé ses 3 plus grosses audiences grâce au football, allant jusqu’à réunir 4,2 millions de téléspectateurs devant la finale de la Ligue des Champions de 2016 qui opposait les deux clubs de Madrid. Plus encore, ces contenus permettent aux diffuseurs de réaliser un score d’audience supérieur aux scores moyens mesurés sur la même plage horaire, comme le montre ce graphique réalisé par le CSA[2]

On constate donc que la part d’audience moyenne des retransmissions étudiées des matchs de l’Euro s’élève à 40% soit presque le double de la part d’audience moyenne de la chaîne sur les mêmes créneaux horaires (21,5%). Le résultat est encore plus impressionnant pour le match ayant réuni le plus de téléspectateurs (France-Allemagne), puisqu’en atteignant 68,2% de part d’audience, il multiplie presque par 3 l’audience moyenne de la chaîne. Il est intéressant de constater que même le match au score le plus faible a tout de même surpassé l’audience moyenne de TF1.

Au- delà de la perspective d’audiences très importantes, des acteurs comme Twitter ou Facebook recherchent aussi des contenus « fédérateurs » qui permettront d’accroitre l’engagement de leurs utilisateurs et de susciter des interactions sur leur plateforme.

Amazon doit sans aucun doute voir dans le football un magnifique produit d’appel pour sa plateforme « Amazon Prime ». La firme adopte une stratégie similaire aux FAI en espérant enregistrer des abonnements grâce à ces contenus premium que sont les droits sportifs. L’Ofcom explique ainsi que pour 60% des abonnés à des « chaînes de sports » payantes, la Premiere League est essentielle dans leur offre de télévision. Cet impressionnant chiffre se maintient à 47% lorsqu’il s’agit de la Ligue des Champions. Ainsi, si l’on prend l’exemple de l’opérateur téléphonique Sky qui s’est mis à proposer des offres « triple play », c’est à dire des offres qui combinent internet, téléphonie et télévision (exemple qui n’est pas sans rappeler le modèle d’Altice-SFR en France) en y incluant des contenus footballistiques, on constate que le football a été un magnifique produit d’appel. Ces contenus ont ainsi permis à Sky de faire passer leur part de marché de 15% en 2010 à 24% en 2016 comme l’explique parfaitement Bastien Drut[3] à partir des chiffres de l’Ofcom. Ainsi, l’inflation incroyable des droits de la Première League n’a pas affecté la rentabilité du groupe Sky qui a vu le nombre de ménages qui possèdent une « Sky box » passer de 9 millions à 12 millions de 2015 à 2017 et qui a réussi à maintenir la majeure partie de ses ratios de rentabilité en 2017.
Des compétitions comme la Ligue 1 ou tout autre championnat majeur sont des actifs très importants pour des acteurs voulant vendre des abonnements puisqu’elles permettent de créer un « feuilleton » hebdomadaire. C’est grâce à ce genre de programmes que les chaînes parviennent à gagner et à fidéliser des abonnés. Avec une bonne éditorialisation, les chaînes parviennent à « raconter une histoire » autour de la compétition et sont en mesure de la mettre parfaitement en scène pour accroitre l’intérêt du téléspectateur.
Par ailleurs, il est très intéressant de constater que la perte de droits sportifs pour une chaine payante coïncide avec une importante perte d’abonnés.

Comme le montre ce graphique sur le groupe Canal+ traité par le CSA[4], la baisse du nombre d’abonnés et l’augmentation du taux d’attrition (proportion de clients perdus sur une période donnée) coïncident avec l’arrivé de Bein Sports en 2012 (avec la perte des droits d’une partie de la Ligue 1 et de championnats étrangers) et de Altice en 2015 (avec la perte des prestigieux droits de la Première League). S’il est encore trop tôt pour percevoir les conséquences de la perte des droits de la Ligue des Champions (période 2018-2021 pour Altice) et de la Ligue 1 (période 2020- 2024 pour Médiapro et Bein Sports), on constate très clairement que la perte de contenus « premium » footballistiques est nocif pour le parc abonné alors même que le Groupe Canal+ a fait, ces dernières années, des efforts considérables en matière de production de séries TV (Baron Noir, Versailles, Engrenage, le Bureau des Légendes, etc.)
Cette corrélation existe aussi à l’étranger. En Italie, le groupe Sky a perdu les droits de la Ligue des Champions en 2015, ce qui a immédiatement abouti à une perte de 37 000 abonnés et à une diminution des profits de 25%.[5]

Enfin, l’image renvoyée par les détenteurs de ces types de contenus est très positive ; ce qui justifie l’intérêt des géants du net, qui ont une image de plus en plus négative dans la société suite aux diverses polémiques liées notamment à la fiscalité ou au respect de la vie privée de leurs utilisateurs.

La capacité des géants du numérique d’entrer sur le marché: une réalité criante

Leur puissance financière et la diversification de leurs activités –notamment pour Amazon- leur offre le loisir de perdre de l’argent avec l’acquisition de ces droits TV. Ces pertes peuvent être compensées par d’autres filières ou par leurs fonds propres. A l’inverse, si les acteurs traditionnels appartiennent à des grands groupes, l’intégration est moindre et il est donc difficile d’imaginer, par exemple, que le Groupe Bouygues mise sur Bouygues immobilier pour compenser les pertes de TF1. Au fond, ces acteurs ont l’avantage de ne pas chercher à gagner directement de l’argent avec des retransmissions sportives. Leur but est d’augmenter leur visibilité voir de devenir des plateformes « multi-services ». Ils ne sont donc pas tenus à la rentabilité immédiate contrairement aux chaînes de télévision qui ont besoin d’un retour sur investissement rapide. Ainsi, ces acteurs peuvent se permettre de « sur-payer » les droits et ont donc tout à fait la capacité de se lancer sur un tel marché.

Au-delà des avantages concurrentiels, les deux géants que sont Facebook et Twitter ont un avantage de taille sur les diffuseurs traditionnels en matière de piratage. En effet, des modèles basés sur le gratuit ont, et continueront d’avoir, un réel avantage sur les modèles payants puisqu’ils sont, par définition, à l’abris du piratage. Or, si le gratuit est la norme (bien que plus ou moins rentable) pour les matchs de l’Equipe de France, ce modèle n’existe absolument pas pour des contenus « premium » achetés à « prix d’or » comme la Ligue 1 ou la Ligue des Champions. Pour autant, Facebook et Twitter se montrent, pour l’instant, enclins à diffuser des contenus gratuitement : Twitter l’a fait pour les matchs de Football américain tandis que Facebook va proposer, en Inde, les 380 matchs de la Liga (la prestigieuse première division espagnol) gratuitement.

Les compétences techniques de ces géants peuvent aussi apparaître comme des avantages concurrentiels réels à l’heure où l’OTT devient la norme pour consommer des produits de divertissement.

L’importance des contenus sportifs couplée aux différentes capacités des géants du numérique ne peut avoir qu’un seul résultat : un investissement massif de ces acteurs sur ce marché là.
Il est ainsi urgent pour les acteurs traditionnels de l’audiovisuels de se réinventer et de repenser la façon dont est diffusé le sport à la télévision pour survivre à ce qui s’apparente bien, cette fois, à une révolution.

Mathieu Le Cossec


[1]David Assouline, « Rapport parlementaire – Le sport à la télévision en France : pour l’accès du plus grand nombre, pour la diversité des pratiques et des disciplines exposées », 21 novembre 2016, disponible sur http://www.sports.gouv.fr/IMG/pdf/rapport_sport_tv_version_longue.pdf

[2] Conseil supérieur de l’audiovisuel (CSA), « Sport et télévision : contributions croisées », 3 juillet 2017, disponible sur https://www.csa.fr/Informer/Collections-du-CSA/Thema-Toutes-les-etudes- realisees-ou-co-realisees-par-le-CSA-sur-des-themes-specifiques/Les-etudes-du-CSA/Sport-et-television- Contributions-croisees2

[3] Bastien Drut, sous la direction de Jean-Baptiste Guégan, « Chapitre 2, les droits TV, l’explosion perpétuelle » in Mercato L’économie du football au XXIe siècle, Editions Bréal, 2018,


[4] Conseil supérieur de l’audiovisuel (CSA), « Sport et télévision : contributions croisées », 3 juillet 2017,disponible sur https://www.csa.fr/Informer/Collections-du-CSA/Thema-Toutes-les-etudes- realisees-ou-co-realisees-par-le-CSA-sur-des-themes-specifiques/Les-etudes-du-CSA/Sport-et-television- Contributions-croisees2

[5] Henry Mance, « Sky customer numbers rise despite loss of Champions League to BT », Financial Times, disponible sur https://www.ft.com/content/cbd33376-77df-11e5-933d- efcdc3c11c89

2019 sera-t-elle l’année de la télévision segmentée ?

Le premier semestre 2019 devrait être celui de la nouvelle loi sur l’audiovisuel français. Destinée à assouplir le cadre règlementaire de la télévision et de la radio française, certains projets reviennent sur le devant de la scène, à l’image de la télévision segmentée. Il s’agit pour les chaînes nationales linéaires de diffuser des signaux différents en fonction des foyers.

Plusieurs recommandations ont d’ores et déjà été faites à propos de la publicité segmentée, au sein de la mission d’information sur « Une nouvelle régulation de la communication audiovisuelle à l’ère numérique » censée préparer la mise en place de la nouvelle loi. L’une d’elle préconise une expérimentation de 18 mois préalable à l’autorisation de la publicité segmentée à la télévision afin d’observer l’impact de ce type de publicité sur le marché français.

La télévision programmatique et plus particulièrement segmentée connaît néanmoins des expérimentations sur le territoire français. TF1 et M6, via le processus Hybrid Broadcast Broadband TV délivrent sur tous devices, au sein de leurs plateformes de catch-up des bannières publicitaires promouvant leurs propres programmes. Les box IPTV des FAI exploitent déjà la data géographique, les données sociodémographiques et le ciblage par moments de vie pour proposer des publicités les plus pertinentes possibles au sein des corners de replay de ces mêmes boxes. Par ailleurs France 3 via Adressable.tv propose de la publicité ciblée pour ses antennes régionales à l’instar de BFM Paris où c’est Nissan qui a testé la publicité segmentée pour cibler les régions où le constructeur automobile possède ses concessions.

Les techniques liées à l’achat programmatique pour la télévision linéaire n’en sont cependant pas à leurs balbutiements, l’Angleterre et l’Australie en ont déjà fait une réalité.

Outre-Manche c’est le dispositif Sky AdSmart dont la segmentation en environ 1400 critères permet d’adresser des publicités à des profils très précis à la manière du display internet. Enfin, un spot peut être aisément remplacé par un autre à condition d’obtenir l’accord de l’annonceur du spot remplacé. De l’autre côté du globe, Multi Channel Network a lancé un service permettant aux annonceurs d’acheter directement des spots TV en linéaire et de contourner la contrainte technique de l’analogique où le stockage temporaire de données est impossible. Ainsi, l’achat est déterminé en fonction des moments de la journée où un spot intéressera une cible en particulier.

Le marché français reste toutefois plus règlementé. Alors que le SNPTV revendique 200 millions d’euros de revenus supplémentaires pour la télévision, cela pourrait se faire au détriment de la PQR, des radios, et de la publicité directe dont les revenus dépendent des annonceurs locaux, auxquels seuls ceux-ci ont accès. Notons que Sky, depuis l’apparition de Sky AdSmart en 2014, a annoncé la première année une forte hausse d’annonceurs 70 % de nouveaux annonceurs supplémentaires dont beaucoup de petits.  

Aujourd’hui, l’article 13 du décret 92-280 du 27 mars 1992 précise que « les messages publicitaires doivent être diffusés simultanément dans l’ensemble de la zone de service » c’est à dire que la loi interdit aux chaines nationales la diffusion de plusieurs signaux et limite donc l’accès à certains annonceurs qui préfèrent s’appuyer sur des éditeurs locaux. Si la loi venait à modifier ce paramètre, le manque à gagner serait chiffré à 130 Millions d’euros pour la presse, 60 Millions pour la radio et 95 Millions pour la publicité extérieure, selon une étude France Pub. C’est également à travers l’ouverture des secteurs interdits à la publicité TV que ce manque à gagner pourrait s’exprimer puisque les annonceurs de la distribution pourraient migrer à la télévision et réduire de 264 millions d’euros leurs investissements dans ces médias.

Enfin la télévision segmentée permettrait de lever les barrières à l’entrée du marché TV pour de petits annonceurs qui étaient jusqu’alors l’apanage de Google et Facebook. Ces petits annonceurs paieront moins cher car leur couverture serait locale et plus nationale. Le prix au contact en revanche augmentera puisqu’il sera plus qualifié.

Les velléités des GAFA sur la télévision

Malgré tout, les acteurs nationaux, à leur échelle, essaient de rééquilibrer le jeu face à des Google et Facebook qui captent la grande majorité des investissements publicitaires du numérique et grappillent une partie des budgets investis en télévision.

L’avènement de la télévision programmatique marque d’ailleurs un phénomène de convergence entre les pratiques publicitaires numériques et linéaires. Cette porosité profitera sans aucun doute aux GAFA.

Cette convergence des pratiques semble présager le futur de la télévision segmentée, car en plus d’être celle des set-top-boxes elle sera également celle de l’OTT. En effet, l’exemple le plus récent est la prise en compte du « co-viewing » propre à la télévision, pour des acteurs comme Roku, dans la valorisation de leurs inventaires publicitaires auprès des annonceurs. Un paradoxe quand on sait que les régies françaises aimeraient parvenir à un niveau de segmentation très précis pour ne plus cibler des foyers, mais des profils utilisateurs comme sur le display internet. La cohabitation des metrics est aussi un sujet délicat puisque la télévision segmentée remettrait en question l’hégémonie de Médiamétrie en matière de mesure d’audience. De ce côté, on note un fort succès auprès des chaines de télévision linéaires de l’outil SFR Analytics. La mesure des boxes reste toutefois d’ordre quantitatif pour le moment car les metrics proposées par SFR ne parviennent pas à un degré de segmentation équivalent à l’offre Sky AdSmart. Par ailleurs, malgré un parc de boxes assez conséquent en France, sur 58% de téléviseurs reliés à Internet, 80% sont reliés à une box, ce ne sont pas forcément les FAI qui serviront de levier pour atteindre un degré de segmentation élevé. TF1 compte sur 20 millions d’utilisateurs logués sur myTF1 contre 5 millions de consommateurs sur les boxes des FAI.

La télévision programmatique s’impose alors comme un véritable enjeu commercial pour les années à venir puisqu’elle représenterait en 2021 près de 20 milliards d’euros – soit plus de 70 % de croissance par an alors qu’elle représentait en 2017 2 milliards d’euros.

Marie Gourbil

IA et marketing digital

Avec un revenu de 5,42 milliards de dollars aujourd’hui et de 59,7 milliards estimés pour 2025, l’intelligence artificielle connait une croissance exponentielle et touche tous les secteurs, de la domotique à l’environnement en passant par la finance. Près de 1550 startups dans le monde en ont fait leur cœur de métier. L’IA touche désormais le marketing digital et le fait basculer dans une nouvelle ère. 

La promesse ancestrale du marketing est d’envoyer le bon message au bon moment et au bon endroit. A l’heure d’Internet et de l’infobésité dans laquelle tous les internautes se trouvent, le challenge est de captiver le bon utilisateur avec le message le plus approprié pour susciter l’acte d’achat. En moyenne, il faut 8 interactions pour convertir un prospect en client. L’intelligence artificielle fait le pari de diminuer ce chiffre en offrant du contenu personnalisé.

Intelligence artificielle et big data

L’intelligence artificielle fonctionne selon le principe dit de machine learning : elle apprend au fur et à mesure des données dont elle dispose. Elle se sert ainsi du big data pour apprendre d’elle-même et être toujours plus performante. Dans le cadre du marketing digital, l’intelligence artificielle permet d’en savoir toujours plus sur toutes les cibles, apprendre des sites visitées, des actions menées par les utilisateurs et des publicités visionnées pour afficher le message le plus pertinent. Après avoir emmagasiné toutes ces données, les algorithmes mis en place sont ainsi capables de diffuser un message personnalisé pour chaque utilisateur, qui seront ainsi plus sensibles à passer à l’acte.

En apprenant grâce au big data, l’intelligence artificielle peut alors devancer les choix des internautes. Le concept de singularité explique cette idée et apporte une finalité proche de la science fiction : a singularité technologique (ou simplement la singularité) est l’hypothèse que l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles sur la société humaine. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d’intelligence » créant finalement une puissante super-intelligence qui dépasserait qualitativement de loin l’intelligence humaine. Par effet boule de neige, l’explosion de l’intelligence artificielle entraînerait non seulement un gain de temps colossal mais un emballement technologique. La science fiction n’est donc pas loin.

Travailler moins pour gagner plus

En plus de faire gagner un temps fou aux internautes, l’intelligence artificielle peut désormais lire dans les pensées et savoir précisément ce que les utilisateurs veulent. Cette technologie permettrait alors d’affiner les publicités, et ainsi mettre une fin au marketing abusif et intrusif via les différentes bannières et pop-ups des sites Internet. Tout le monde est alors gagnant : une publicité profite à l’utilisateur mais surtout à l’annonceur qui a alors beaucoup plus de chances de voir son message lu et son produit ou service consommé. On se trouve ainsi dans un modèle gagnant – gagnant : d’une part l’annonceur ne dépense plus pour toucher des cibles toujours plus vastes, mais moins pour toucher une partie réduite prête à payer, et d’autre part l’utilisateur se retrouve face à message personnalisé, face auquel il sera plus sensible. 

Un exemple d’intelligence artificielle est l’algorithme basée sur de l’IA de Google appelé « Rank Brain », qui, en plus d’analyser les mots tapés sur le moteur de recherche, essaie de comprendre l’intention de l’utilisateur et en déduit les résultats les plus pertinents possibles, en plus de les classer par leur simple dimension sémantique. 15% des recherches tapées dans Google n’ont jamais été cherchées auparavant. L’algorithme cherche alors à donner les résultats les bons résultats et comprend même les mots-clés et expressions proches de la recherche souhaitée.

Il existe également un exemple moins glorieux d’intelligence artificielle : Tay, IA mise en place par Microsoft sur Twitter en 2016. Ce chatbot lancé par la firme américaine avait pour but d’être capable d’interagir avec les internautes via des conversations sur les réseaux sociaux ou des applications de messagerie instantanées. Pour dialoguer avec les autres utilisateurs, Tay se base sur des données accessibles publiquement, notamment pour construire des réponses et des questions.

Avec le temps, Tay est censée s’améliorer en apprenant de ses conversations avec les internautes. Mais aussi en personnalisant ses réponses. Cette fonction de learning a été la force mais également la faiblesse de cette IA, qui l’a mené à sa fin. 

Au bout de 8 heures d’existence, Microsoft a donc préféré la faire taire, car écrivant beaucoup d’insultes et de remarques sexistes, homophobes et xenophobes. Tay a annoncé dans la nuit qu’elle avait « besoin de sommeil ». Sommeil qui dure depuis 2 ans.

Les chatbots se révèlent être une application de l’intelligence artificielle au marketing tout particulièrement interessante et rentable pour les marketeurs : il s’agit ici d’offrir à l’utilisateur une conversation avec un conseiller fictif, qui résout un problème, offre le produit souhaité ou conseille un client. En fonctionnant sur la technologie de machine learning, le chatbot apprend au fur et à mesure des conversations pour ne plus afficher aucun blanc et toujours répondre de façon pertinente. Disponibles 24 heures sur 24 tous les jours de la semaine, ils offrent une meilleure expérience aux clients qui visitent le site ou la page sur un réseau social d’une entreprise.

L’intelligence artificielle va rapidement concerner toutes les industries. Le marketing digital, secteur incontournable de l’économie numérique, a beaucoup à gagner des innovations que permettent cette technologie. Bénéfique à tous dans ce domaine, elle permet de réduire les dépenses, segmenter les cibles et ne plus envahir le temps de cerveau disponible avec des produits non adaptés à leurs cibles. Cependant, toutes les qualités renferment tout de même quelques failles qu’il ne faut pas laisser de côté. Les logiciels et les algorithmes d’IA se perfectionnent rapidement et leurs possibilités deviennent de plus en plus concrètes. De nombreux chercheurs se demandent si la société ne va pas trop vite avec l’intelligence artificielle : elle offre une nouvelle manière d’appréhender le monde et a tout d’une révolution. Affaire à suivre. 

Jacques Antoine Lando

Comment l’IA va révolutionner le visionnage TV ?

Youtube, Facebook Watch, Stories d’Instagram, Snapchat… le format vidéo ne cesse d’envahir nos dispositifs numériques, défiant toujours plus le vieux médium télévisuel sur ses contenus.
Mais la convergence et l’évolution des technologies pourraient sauver la télévision en changeant le mode de consommation de celle-ci.

La multiplication des plate-formes de visionnage OTT (Netflix, Quibi, Hulu et bientôt Apple..) changent profondément notre manière de consommer du contenu et remet en question le modèle plus traditionnel et linéaire de la télévision.
La « Catch-up TV », comme réponse à cette nouvelle menace des géants du streaming ne suffit plus à garder les téléspectateurs fidèles à une grille de programmes toujours plus archaïque des chaines de télévision.

C’est notamment grâce à l’intelligence artificielle qu’il sera peut-être possible de changer les pratiques de visionnage du dispositif télévisuel.
En effet, c’est en laissant le choix au téléspectateur du contenu à visionner, que la télévision pourra se frayer un chemin dans cette compétition avec les acteurs du marché des contenus dé-linéarisés.

L’intelligence artificielle est déjà utilisée pour personnaliser le panel de choix des contenus à regarder pour chaque spectateur. Une technologie de recommendation qu’utilise Netflix pour être toujours plus proche du consommateur et coller à ses goûts.

Mais de quelles façons la télévision peut-elle introduire ces technologies d’intelligences artificielles pour mieux cibler ses téléspectateurs ?

Le secteur de l’audiovisuel bénéficiera prochainement plus largement de cette nouvelle technologie, toutefois, l’enjeu des données est très important dans le déploiement de l’IA pour les médias. En effet, les données alimentent l’IA qui prend connaissance de la Data laissée par l’utilisateur pour lui permettre d’agréger un contenu qui lui correspond. C’est déjà le cas pour a publicité digitale et la méthode de programmatique, qui utilise le Real Time Bidding pour cibler davantage les clients potentiels en fonction de leurs usages d’internet.

Un des enjeux de l’IA dans la consommation télévisuelle réside tout d’abord dans le choix :
Le basculement de la télévision linéaire au format plus numérique a donné lieu à une consommation hyper-personnalisée des contenus, sans contrainte de temps ni de dispositif.
En témoigne une étude datant de 2017 du CNC sur l’économie de la télévision de rattrapage : 6,9 milliards de vidéos ont été vues en replay.

La surabondance des contenus disponibles sur des plateformes multiples obligent les éditeurs de contenus à adopter des stratégies pour mieux cibler leur audience, de plus en plus volatile.
L’IA peut donc aider à personnaliser les choix, via des recommandations toujours plus fidèles aux goûts des spectateurs.

L’IA au service de la programmatique TV :
Un autre enjeu plus connexe à celui de la consommation télévisuelle concerne la publicité. À la manière de ce qui existe déjà sur le marché de la publicité en ligne, la programmatique TV permettrait , encore une fois de cibler plus finement l’audience en lui adressant des publicités plus cohérentes en fonction de ses habitudes et de son statut socio-professionnel.
Ce qu’on appelle la « TV adressée » ou encore « segmentée » pourrait bousculer la manière dont les annonceurs organisent leurs campagnes publicitaires et changerait profondément les logiques de programmation et de diffusion de contenus.
Programmes télévisuels et publicité ayant longtemps été corrélés dans un souci d’efficacité, en fonction des logiques d’audiences et de temporalité, avec l’IA et la programmatique, on pourrait non pas parler, comme c’est le cas sur internet de Real time bidding, mais de « near time bidding » c’est à dire une diffusion publicitaire quasi-instantanée qui permettrait un ciblage de l’audience plus efficace.
La programmatique TV permettrait enfin une redéfinition de la monétisation de la publicité en fonction du contenu diffusé et de l’audience touchée.

Le dispositif télévisuel toujours plus influencé par l’IA
Récemment, Samsung a annoncé la création de sa TV QLED 8K dotée d’une intelligence artificielle. Ce nouveau dispositif, déjà commercialisé depuis octobre pour un prix oscillant entre 5000 et 7000 euros, est dotée d’une nouvelle technologie : la 8K AI Upscaling, une intelligence artificielle capable de s’adapter au format du contenu avec une qualité 8K. Une mise à jour et une évolution qui propose un visionnage de qualité, et qui permet à ce type de télévision de se différencier des autres plateformes de visionnagee par sa qualité d’image et sa haute définition.

La marque LG s’y est aussi mise en dévoilant récemment une nouvelle gamme de téléviseurs appelée ThinQ. Ces télévisions devraient être dotées de l’IA d’Amazon, Alexa, et notamment d’un micro pour les commandes vocales.

L’IA de plus en plus compétitive chez les FAI
L’enjeu futur des modes de consommation de la télévision réside également dans l’accès aux contenus proposés.
Récemment, Free a dévoilé la Freebox Delta, une box améliorée qui a abandonnée le lecteur DVD bluray pour d’autres fonctionnalités comme un système de pilotage et de commande par voix humaine, un accès gratuit au catalogue de Netflix, un débit dix fois plus rapide que l’ADSL, et une diffusion de programmes numériques.
La convergence de la TV linéaire avec les usages d’internet, tout cela, grâce à l’intelligence artificielle, n’a pas fini de changer notre mode de consommation de la télévision.

Toutefois, il reste un enjeu indéniable qui concerne moins la façon dont nous consommons la télévision mais plus particulièrement ce que nous regardons…
En effet, les programmes diffusés par les chaines TV traditionnelles doivent s’adapter aux nouveaux formats déjà présents sur le web. Des formats plus courts et plus dynamiques et un renouvellement du catalogue et des grilles TV permettraient d’engranger une audience plus grande. La multiplication des contenus et des canaux de diffusion pose encore un enjeux de taille pour les chaines : la fidélisation du téléspectateur. Mais à l’heure où les contenus sont disponibles « Any Time Anywhere, Any device » comment concurrencer un nouveau marché insaisissable qui disrupte complètement celui qui auparavant, régnait en maître sur nos usages ?

Un constat reste indéniable : le consommateur est au centre des préoccupations des éditeurs de contenus. Il influence le marché audiovisuel par sa demande de plus en plus spécifique et abondante en terme de contenus à visionner.

La télévision et le mode de consommation de cette dernière n’est peut-être pas vouée à disparaitre mais de profonds changements son à prévoir dans le fond comme dans la forme pour pallier à une chute d’audience toujours plus grandissante et à une concurrence toujours plus accrue des contenus OTT.

Léa Bernabeo

La plateforme collaborative: le nouveau média de la fabrique de la loi

Lors des dernières élections présidentielles françaises, le candidat Emmanuel Macron a insisté sur la nécessité d’un « renouvellement des visages » dans le paysage politique et une intégration de la « société civile » dans le gouvernement et plus globalement dans la vie politique française.

L’une des solutions proposées face à ces enjeux est d’associer directement le citoyen aux décisions publiques. Dans ce contexte de défiance vis-à-vis de la sphère politique, la recherche de nouveaux instruments pour stimuler la vie politique est un défi continu. La démocratisation du numérique représente donc une opportunité pour réussir à rétablir la confiance entre gouvernants et gouvernés.

De tels espoirs sur le potentiel démocratique d’une nouvelle technologie ne sont pas nouveaux et ont accompagné antérieurement le développement d’autres moyens de communication, comme la radio, la télévision, les réseaux câblés ou même le téléphone. Les potentiels d’internet sont en effet multiples et laissent espérer des développements dans notre fonctionnement démocratique. Ainsi, le Conseil national numérique a plaidé en faveur de tels changements : « le numérique doit être mis au service d’une prise de pouvoir partagée, d’un renouvellement profond des formes d’action citoyenne (…). Le numérique permet et exige cette transformation des formes d’action citoyenne. »

Grâce à ces nouveaux moyens, le citoyen à la possibilité de se mettre au niveau des lobbies, des experts en accédant aux informations puis en formulant des avis et des propositions. Les différences de moyens, financiers ou autres semblent être en partie gommées. Cet optimisme émerge dans la population, d’autant que de nouveaux outils sont développés : les Civic Tech.

Le procédé numérique qui est aujourd’hui le plus utilisé en démocratie participative est celui de la consultation. Il a récemment été mis en avant lors de la « Loi pour une république numérique ». Cet exemple révèle les espoirs et les limites de l’outil numérique. La participation à cette consultation a été massive. Au total 21 330 internautes sont intervenus. Le risque est que ces participations deviennent un « bac à sable citoyen ». Se pose dès lors la question de l’effectivité des consultations citoyennes, c’est-à-dire de la production d’effets réels et tangibles, de la réalité incontestable de la consultation citoyenne.

Les plateformes numériques représentent une triple opportunité pour les consultations citoyennes.

Ils procurent d’abord une légitimité accrue aux décisions publiques faisant l’objet d’une consultation citoyenne. À cela s’ajoute l’expertise plus large que permet le numérique, qu’on peut ainsi espérer qualitativement meilleure. Surtout, l’usage des outils numériques lors des participations citoyennes offre une plus grande adéquation aux principes démocratiques français. Leur utilisation permet de renforcer la participation des citoyens dans la vie démocratique française, revitaliser la démocratie, en ne s’arrêtant pas à des élections ponctuelles.

Les outils traditionnels utilisés en matière de participation citoyenne offrent la possibilité aux individus, citoyens ou non, de participer à la vie politique en pouvant exposer leurs opinions. La participation peut être utilisée comme un simple avis, mais peut également participer à la prise de décision. En cela, ces plateformes créées par le politique deviennent de véritables médias relayant directement la parole politique citoyenne.

En facilitant l’accès aux informations et aux outils de consultation, le numérique peut renforcer la participation des citoyens en ce qu’il permet de diffuser largement les outils de participation et d’informations. En effet, nombreux sont les Français disposant d’un équipement numérique. Une enquête de novembre 2016 recense 87% d’utilisateurs d’internet au sein des 12 ans et plus. Il est de plus à noter que l’équipement des ménages continue à croître à un rythme soutenu. Une étude belge souligne d’ailleurs que « la massification des usages d’internet, induite en grande partie par l’arrivée des outils interactifs et collaboratifs du Web 2.0, a largement permis de démocratiser l’expression publique.

On assiste à un glissement, ou un élargissement, de l’inclusion du numérique dans l’action de l’État et dans la vie politique. La France est ainsi passée d’une démarche informative et administrative à une démarche participative avec la volonté de moderniser les processus de participation citoyenne via l’utilisation de plateformes numériques. L’État inclut de manière croissante les outils numériques et crée en quelques sortes son réseau social citoyen, lieu d’expression dont l’impact est politique.

L’Union européenne n’est pas en reste de cette médiatisation numérique de la parole citoyenne et politique. Pour répondre aux critiques relevant son manque de fonctionnement démocratique, dès 2007, l’Union européenne a commencé à travailler sur la thématique de l’inclusion du numérique dans les consultations citoyennes : « au niveau local en particulier, les citoyens sont de plus en plus en mesure d’avoir leur mot à dire grâce à la consultation en ligne. L’Internet peut fournir la force motrice en s’éloignant de trop lourde la bureaucratie à une approche véritablement citoyenne. (…) Internet est un puissant moyen de permettre aux citoyens et aux groupes intéressés de diffuser des informations et des points de vue, de sensibiliser, d’organiser des actions et de faire pression sur les décideurs ».

La Commission européenne a ainsi ouvert un site internet qui répertorie l’ensemble des consultations, numériques, auquel les citoyens peuvent répondre. Pour élargir le sujet, l’Union européenne laisse une grande place au numérique pour les participations citoyennes, particulièrement pour l’initiative citoyenne. Grâce à cette mesure, un million de citoyens européens résidant dans au moins un quart des États membres de l’Union peuvent inviter la Commission à présenter une proposition d’acte législatif qu’ils jugent nécessaire pour mettre en œuvre les traités de l’Union.

Alors que la technologie citoyenne crée les conditions nécessaires à l’immixtion du citoyen dans la gestion des affaires publiques, son utilisation croissante permet d’apprécier le Civic Tech comme une potentialité à intégrer au processus législatif. La Civic Tech peut être définie comme un ensemble hétérogène d’initiatives numériques visant la participation citoyenne.

Certains proposent également une classification qui dépend de la nature de l’initiateur: institution, société civile, militants ou marché. Par exemple, l’objectif est institutions est, la plupart du temps, de « favoriser un moment du processus démocratique ». Alors, la première étape est d’abord le partage de l’information, notamment par le biais des portails open data, et l’étape d’après consiste en la consultation – allant de la boîte à idées aux systèmes de notation perfectionnés qui permettent l’émergence des préférences collectives, ou encore les panels citoyens. L’initiative des institutions permet de favoriser le débat, à l’instar du système de pétitionnement électronique des assemblées parlementaires allemandes, et de pouvoir aller jusqu’à la codécision – entre autres, les budgets participatifs (notamment ceux de la Ville de Paris). À son opposé, l’analyse de l’initiative dite « individuelle » est davantage caractérisée par l’interpellation des élus. L’application « FixMyStreet» donne la possibilité aux habitants de signaler des problèmes locaux à l’autorité responsable via une carte interactive. La transparence fait aussi partie des objectifs. Le site « Mon-depute.fr » aide à contrôler la présence et l’orientation des votes de son élu. Une autre plateforme, « openspending.org », de voir la gestion des dépenses publiques. Enfin, il s’agit surtout de peser sur l’agenda politique. La loi initiée par l’ancienne Ministre du Travail Myriam El Khomri a ainsi recueilli près de 1,3 million de signatures à son encontre via la plateforme « Change.org ».

D’autres, une typologie par « logiques ». Sera qualifiée « d’accompagnement » la logique qui consiste à contribuer à la rédaction de propositions de lois de parlementaires, comme la plateforme « Parlement & Citoyens » détaillée plus loin. La logique de « contrepouvoir » s’incarne ensuite avec des plateformes comme celle du collectif « Regards Citoyens », proposant de rendre accessible l’information publique sur le fonctionnement des institutions. Enfin, une logique de « hacking » avec « #MaVoix », qui a pour objectif de faire élire à l’Assemblée nationale des citoyens tirés au sort qui, une fois députés, conformeront leurs votes aux décisions majoritaires recueillies sur la plateforme. L’une des erreurs les plus communément admise consiste à se focaliser sur la seule fracture numérique pour expliquer les freins à la participation sur les plateformes en ligne. La fracture est d’abord sociale, et est liée à des problèmes de compréhension, de langue, d’accessibilité. Il ne suffit pas de disposer d’un appareil connecté pour contribuer, encore faut-il être en mesure de comprendre la proposition et se sentir légitime pour donner son avis, voire voter. Internet a timidement fait son entrée dans le domaine politique au début des années 1990 jusqu’à être considéré aujourd’hui comme un outil indispensable en communication politique : « un obligatoire de campagne ». Grâce à son architecture orientée vers l’interaction et l’exposition de soi, Internet aurait crée les conditions favorables pour le dialogue. Pour les plus optimistes, sa structure réticulaire permettrait de faire tomber certaines barrières qui traditionnellement freinent l’engagement politique (notamment spatiales et temporelles), permettant à un public élargi de s’exprimer et, in fine, permettre d’atteindre le Graal : devenir un média étatique favorisant l’engagement politique de tous les citoyens.

Burak Ozyilmaz

Quelle programmatique pour la télévision de demain?

Depuis les années 2000, on assiste à une délinéarisation de la télévision traditionnelle avec l’émergence des services de streaming et des contenus à la demande. Ces dernières années, l’apparition de Youtube, Netflix, Amazon, Hulu, Snapchat, Periscope, Facebook Live ont amplifié ce phénomène. Alors que la demande augmente et que le public consomme toujours plus de programmes, la part d’audience de la télévision linéaire ne cesse de décroître. C’est ainsi qu’en 2015, aux Etats-Unis, 77% du temps alloué à la consommation de contenus vidéo s’est fait sur un écran de télévision contre 99% en 2005. On note la multiplication des devices (supports médias : tablettes, ordinateurs, smartphones…) et un profond bouleversement des habitudes de consommation au sein des foyers.

C’est justement sur ces supports non-linéaires que la programmatique a commencé à se développer en France, dans une volonté de cibler toujours plus efficacement le destinataire : diffuser le bon message, à la bonne audience, au bon moment.

La télévision programmatique désigne le processus d’automatisation des achats et permet de mieux cibler une audience pour les annonceurs. Il s’agit en effet d’une part, de mettre en place un mode d’achat programmatique d’espaces publicitaires aux spots TV (sans toutefois utiliser le « RTB » comme c’est le cas dans le digital) et d’autre part, de cibler une audience en lui adressant un message personnalisé (« publicité adressable »).

Dans les faits, la télévision programmatique existe déjà et s’intègre progressivement dans ce paysage médiatique transformé. La question est donc non pas de savoir si la télévision en France est amenée à devenir programmatique mais de quelle manière elle va le devenir.

La télévision programmatique est une aubaine pour les annonceurs. Finies les dépenses colossales dans des publicités adressés au large public, désormais, la programmatique va permettre aux marques de dépenser moins en dépensant mieux à travers une optimisation des opérations et la possibilité de segmenter les campagnes.

En France, des tests ont déjà eu lieu en catch-up TV, c’est-à-dire sur la télévision de rattrapage, délinéarisée, là où la loi le permet. TF1 a ainsi testé en octobre 2016 la publicité segmentée sur son offre de replay en partenariat avec Orange, tandis que France 3 et BFM Paris ont mis en place depuis 2017 la diffusion de publicités ciblées selon les données de géolocalisation.

Mais la loi est très stricte et le cadre législatif interdit d’instaurer de la publicité télévisée linéaire segmentée afin de protéger les acteurs de la presse quotidienne régionale et des radios locales. Pourtant, la Direction générale des médias et des industries culturelles, sous la tutelle du Ministère de la Culture a remis en cause cette interdiction dans le cadre d’une grande consultation lancée sur la libéralisation du marché télévisé.

La législation française impose en effet que les programmes diffusés par ondes hertziennes soient exactement les mêmes pour toute la population ce qui rend parfaitement impossible la personnalisation de la publicité sur la TNT, mais seulement en replay pour le moment.

Selon l’IDATE, la télévision programmatique est un marché qui devrait s’élever à 19,1 milliards d’euros au niveau mondial en 2021, soit près de 9 fois plus que la valeur du marché mondial en 2017.

Encore fragile dans presque tous les pays du monde, la télévision programmatique est pourtant couronnée de succès aux Etats-Unis où elle représente 6% de la publicité en 2018 et dans certains pays anglo-saxons parmi lesquels le Royaume-Uni et l’Australie, mais aussi en Allemagne.

Outre-Atlantique, un test a été effectué lors du Super Bowl en 2015 auprès de 100 000 téléspectateurs de Pennsylvanie : on connaissait leur niveau d’éducation, le niveau de revenus du foyer, des critères au-delà des critères sociodémographiques qui étaient essentiels pour pouvoir créer des cibles, avec de la data. Pour la première fois, des téléspectateurs ont ainsi assisté en direct lors de la mi-temps, à une publicité de la marque Oreo qui avait été achetée et délivrée au moyen de logiciels, autrement dit, selon un mode programmatique.

Nos voisins européens ont également une longueur d’avance sur la télévision programmatique. En 2014, au Royaume-Uni, Sky mettait en place AdSmart, logiciel permettant aux annonceurs d’acheter des espaces publicitaires en temps réel en choisissant l’audience cible à partir d’une centaine de critères. En 2017, Sky affirmait souhaiter que tout son inventaire télé soit disponible en programmatique au plus vite.

Sky AdSmart constitue aujourd’hui la première plateforme européenne de télévision adressable à tel point qu’elle est désormais mise en place en Italie, en Autriche, en Allemagne et en Irlande. 

L’Allemagne n’est pas en reste au niveau du déploiement de la programmatique. En 2014, SmartClip, l’une des premières plateformes de télévision programmatique a vu le jour. Elle permet à toutes les télévisions connectées de diffuser un encart publicitaire personnalisé en fonction de la cible, généralement en miniature en bas à droite à de l’écran. Le téléspectateur est alors libre de choisir ou non de cliquer dessus, sans quoi la publicité disparaitra automatiquement au bout de quelques secondes. Ici, le téléspectateur est ciblé grâce à la technologie de serveur publicitaire et à la « data anonymisée », accessible uniquement avec une télévision connectée sans même passer par la box.

Enfin, en Australie, un processus sensiblement similaire existe. En 2015, Multi Channel Network a lancé MCN Programmatic TV. L’objectif est d’offrir aux annonceurs la possibilité d’acheter des espaces publicitaires sur la télévision linéaire en ciblant une audience précise et ainsi toucher un public particulier. Dans cette lignée, en 2018 MCN a lancé SIA : il s’agit d’une solution de data management qui a pour objectif de délivrer des données uniques, permettant aux annonceurs d’obtenir une vue d’ensemble de leurs stratégies cross-canales et de délivrer à son public le bon message à la bonne audience au bon moment.

La France tente de rattraper son retard malgré le cadre législatif très strict. En septembre 2018, les régies publicitaires de TF1, France Télévisions et M6 ont instauré une interface commune dans l’objectif de simplifier l’achat d’audiences ciblée sur le marché de la publicité automatisée dans la vidéo, un secteur en plein boom.

Cette interface, baptisée Sygma, permet aux annonceurs et aux publicitaires d’acheter des cibles en fonction de leurs besoins pour une campagne publicitaire. Sygma vise ainsi un ciblage performant, la qualité des espaces pubs, la simplification du parcours d’achat et la protection des données mais ne se concentre que sur les plateformes digitales MyTF1, France.TV et 6play.

Au premier semestre 2018, le marché de la publicité programmatique en display a réalisé un chiffre d’affaires de 576 millions d’euros, selon l’Observatoire de l’ePub (en hausse de 50% sur un an).

Le directeur adjoint de M6 Publicité affirmait en novembre 2018 : « le ciblage data en IPTV est l’une de nos priorités 2019 », certain que « de plus en plus de projets de ciblage data entre opérateurs et chaînes de télévision vont avoir lieu ».

Il y a quelques mois, la députée LREM Aurore Bergé, dans un rapport, préconisait l’autorisation de la publicité segmentée et géolocalisée à la télévision, grâce aux données des FAI, dans le cadre d’une expérimentation sur 18 mois dans un premier temps. Selon le rapport, cette libéralisation du marché de la publicité segmentée en France permettrait aux annonceurs de doubler la valorisation de chaque espace publicitaire.

C’est bien là le point délicat du débat de la télévision programmatique : la collecte des données. Pour permettre le ciblage précis d’une publicité adressée et ainsi l’individualisation du message publicitaire, des chaînes ayant mis en place un système de log en télévision adressable (M6) ou d’abonnement (Canal+) sont sur la bonne voie grâce aux données comportementales et démographiques de leurs téléspectateurs. Ainsi, le prochain et principal grand enjeu dans le développement de la télévision programmatique réside incontestablement d’instaurer les discussions avec les FAI (fournisseurs d’accès à Internet) qui disposent d’informations précieuses et permettant ainsi d’enrichir la data IPTV.

En France, la télévision se dirige donc aujourd’hui vers la programmatique, qu’elle soit adressable, connectée ou linéaire. Notre modèle doit prendre exemple sur ses voisins européens mais aussi sur les Etats-Unis ou l’Australie dont le succès n’a jamais été démenti. Le marché traditionnel de la publicité en France est aujourd’hui obsolète et dépassé. On se dirige vers une nouvelle forme de publicité à la télévision : valoriser la qualité des contenus, créer de la valeur pour les acteurs du marché, permettre une meilleure performance des annonceurs tout en respectant les consommateurs et la protection de ses données.

Corentin Durrleman

EBX : Quand les géants Européens du broadcast s’allient contre les GAFA.

En France en 2017, pour la première fois, les investissements publicitaires en ligne ont dépassés les investissements publicitaires de la télévision. Ce coup de tonner dans le monde des médias a contraint les diffuseurs traditionnels à mobiliser leurs méninges pour trouver de nouvelles sources de revenus, et réussir à monétiser une nouvelle audience : les consommateurs de contenus en ligne.

Alors que le petit écran continu d’être le média le plus consommé des français, ceux qui accèdent aux programmes via un écran internet sont de plus en plus nombreux : 4,5 millions d’individus quotidien, soit une augmentation de 29% en deux ans.

Avant d’entrer dans le vif du sujet, un point sur la situation s’impose. Trouver de nouvelles sources de revenus en ligne ne semble pas être un problème a priori : il suffit de monétiser l’audience de la même façon qu’à la télévision : un contenu, une audience, un espace publicitaire et donc un contact. Le problème c’est que les acteurs locaux sont entrés sur le même marché pertinent de la publicité en ligne que tous les autres acteurs internationaux qui existent sur le numérique. Sur ce marché, deux acteurs (Amazon et Google) récoltent la grande majorité des revenus publicitaires pour deux raisons : Le volume de données propriétaires sur les internautes (et donc la capacité à offrir un ciblage aux annonceurs) et surtout une présence à l’échelle mondiale qui permet aux annonceurs d’avoir un accès possible sur une audience internationale, sans discuter avec tous les acteurs locaux.

Revenons à nos moutons : les diffuseurs européens. Il y a deux ans, des géants du secteur ont décidés de réagir en créant une co-entreprise : EBX (pour European Broadsters Exchange). Composée de TF1, de Prosieben Sat.1 (Allemand), de Media Set Italie, de son homonyme espagnol et de Chanel 4 en Angleterre, l’objet de cette alliance est de créer une structure pour dialoguer avec les annonceurs à l’échelle régionale. Il s’agit de la première initiative de régie paneuropéenne fondée par les diffuseurs. Et pas n’importe lesquels.

Alors quel est l’objectif, peuvent-ils relever le défi, et quels sont les enjeux juridiques ?

Pour simplifier, EBX permet aux annonceurs d’avoir accès à un catalogue de contenus premiums sur lesquels acheter des espaces pour réaliser des publicités vidéo programmatiques. Sorte de vente en package, l’enjeu est de devenir une porte entrée privilégiée pour tout annonceur souhaitant toucher une cible à l’échelle européenne, et par la même, de permettre aux diffuseurs de ne pas laisser tout le gâteau aux GAFA.

Et dans la forme ? Il s’agit d’une co-entreprise, dont le siège social est basé en Angleterre, à Londres. Pour le moment, seul un acteur par pays est présent dans la structure, mais les termes de la société permettent à qui veut de rejoindre l’alliance, à l’exception des acteurs Britanniques, Chanel 4 ayant contracté une clause d’exclusivité pour cette localité. D’un point de vu de la concentration, quid du point de vu des autorités chargées de la concurrence ? Les chiffres d’affaires des sociétés engagées étant suffisamment importants pour intéresser Bruxelles, c’est naturellement devant la commission européenne que l’affaire a été portée. A la suite d’une procédure simple, elle a statué en 2018 dans une décision « Case M. 8714 », jugeant que l’alliance n’était pas constitutive d’un abus de position dominante.

En revanche, à l’échelle locale, les conséquences sont tout autres. En effet, TF1 qui aimerait pouvoir proposer des packages aux annonceurs sur ses différents supports (antennes, internet, plateformes, sites propriétaires, etc.) ne peut aujourd’hui pas le faire, jugé par l’autorité de la concurrence comme étant en position dominante sur le marché de la publicité digitale et télédiffusée. Cette nouvelle initiative qui lui ouvre la porte des négociations à l’échelle régionale ne devrait pas arranger la situation.

Pour finir avec la régulation, les contenus publicitaires des annonceurs qui seront diffusés par EBX, devront respecter toutes les régulations des pays étant représentés dans cette alliance, et de facto, respecter le RGPD. Les diffuseurs qui promettent aux client un ciblage basé sur les données des utilisateurs devront mobiliser leur data propriétaire (pour TF1, développée grâce à une stratégie de login assez récente). Les demandent de consentement pour l’exploitation de la data à la première ouverture feront donc office de double autorisation, pour rendre le service conforme à l’article 6 du RGPD (portant sur les fondements de licéité du traitement).

Enfin, l’initiative étant extrêmement récente, il est trop tôt pour tirer un bilan. L’entreprise ne communique encore aucuns résultats, ni aucune information sur leurs clients. Pour gérer ces derniers, et en trouver de nouveaux, elle pourra cependant compter dès à présent sur Damon Westbury, qui officie depuis cet été comme Directeur commercial et prospecteur.

En bref, une initiative à suivre de près, qui sans faire trembler les GAFA pourrait permettre aux diffuseurs européens de respirer un peu, et de négocier des contrats à l’échelle régionale… A suivre.

L’audience TV face à la multiplication des écrans

Dans le cadre de la présentation de son traditionnel bilan de l’année TV pour 2018 le 23 janvier dernier,   Médiamétrie a annoncé le renforcement de  Mediamat d’ici 2020.  L’évolution de sa mesure des audiences télévisées va intégrer  les programmes visionnés sur les «  écrans internet » à savoir smartphones, ordinateurs et tablettes, et en la complétant avec ceux regardés en dehors du domicile.

Médiamétrie mesure l’audience TV depuis 1985

Succédant en 1989 à l’Audimat ( créé en 1985)  , Mediamat de Médiamétrie est une mesure de référence en matière d’audiences télé en France. Médiamétrie a équipé  5000 foyers , soit près de 11500 individus âgés de plus de 4 ans  représentatifs de la population,  d’ un boîtier installé sur le poste de télévision et d’une télécommande  spécifique permettant à chaque membre du foyer ainsi que leurs invités de s’identifier individuellement lorsqu’ils regardent un programme devant la télé.  Ces informations sont transmises quotidiennement aux serveurs de Médiamétrie entre 3h et 5h du matin et  sont par la suite traitées,  contrôlées  et extrapolées pour obtenir une audience nationale . Leur restitution se fait à partir  de 9h aux clients souscripteurs de la mesure Médiamétrie (  directions de programmes ,  régies pub, agences média , annonceurs …).

Les résultats sont précis et détailles : pour chaque programme, chaque tranche horaire ,  on peut savoir à quelle catégorie il a le plus plu ( homme , femme , âge , CSP) et savoir si un programme a plu à la cible souhaitée.  Le calcul se base sur le temps d’écoute. Pour Médiamétrie, un téléspectateur est une personne qui regarde l’intégralité d’un programme.

Ces résultats permettent d’analyser les habitudes de consommation télé et leurs évolutions.

L’année TV 2018 en  quelques chiffres clés Mediamat

  • 44,1 millions de Français regardent la télévision quels que soient l’écran et le lieu, dont 4,5 millions qui le font via les « écrans internet » smartphone , ordinateurs, tablettes( +29% en deux ans)
  • Taux d’équipement : 93% pour la TV ; 76% pour l’ordinateur (+11,2pts en 3 ans)  et la console connectée atteint presque 20% d’équipement
  • 40% des foyers sont équipés des 4 écrans .
  • 85% des Français regardent la TV sur un téléviseur au moins 1 soir par semaine
  • Les Français ont passé 3h46 par jour devant les programmes TV en 2018 tous écrans confondus dont  3h36 devant le téléviseur
  • 90% de leur  durée d’écoute TV est faite de façon linéaire classique.
  • Pour les 15-24 ans, cette durée passe à 79% d’écoute TV linéaire classique. Les 21% sont constitués de replay, de TV hors écran de TV ou de TV hors domicile.
  • Chez les 15-24 ans, la TV en live sur téléviseur est passée à 43% de l’usage TV, contre 53% en 2017. 28% de la fréquentation est consacrée aux vidéos en ligne contre 24% l’an dernier.
  • Plus de 4 millions et demi de Français regardent désormais chaque jour un programme en vidéo par abonnement
  • Le replay a progressé de +26% en 2 ans et touche 7,2M de Français ( +d’1 heure par jour). La fiction constitue 50% de la consommation en replay
  • La SVOD progresse , 30% des internautes ont utilisé un service de SVOD en 2018 ( croissance de 10% en 1 an .

Au regard de la baisse de la consommation en live sur le téléviseur  (- 3% chaque année), de la hausse des nouveaux usages en replay sur ( +20%) ,et hausse ( +20%)  de la consommation  télé sur les « écrans internet » , l’évolution de la durée d’écoute révèle une transformation du mode de consommation de la télévision.

La TV reste un média puissant

La télévision  linéaire reste cependant un média stratégique pour les annonceurs car :

  • Elle est un média de masse permettant une force de frappe auprès d’une large audience variée.
  • Son environnement de diffusion brand safety grâce au contexte de programme connu d’avance rassure.
  • Sa capacité à développer rapidement la notoriété et l’image des marques est indéniable : la Télévision est toujours perçue par les annonceurs comme un outil indispensable pour bâtir et construire la notoriété des marques à long terme

Les nouveaux usages «  écrans internet » pèsent 10% de la consommation TV et 20% chez les 15-24 ans . Cette nouvelle audience sur nouveaux écrans  reste certes minoritaire face à la suprématie du poste de télévision mais  elle n’est pas pour autant négligeable. D’où l’idée de Médiamétrie, qui fournit déjà aux chaînes des données concernant les écrans internet, de les intégrer d’ici à 2020 au Médiamat .

Le transfert de valeur et les nouveaux modes de consommation expliquent l’évolution de la mesure  Mediamat.

L’étude réalisée par le cabinet Bearing Point , Medias et publicités en ligne 2017,  rendue publique par le  CSA démontrait déjà le changement stratégique des annonceurs dans leurs dépenses publicitaires au détriment des activités traditionnelles des médias dits « historiques » . Cette étude révélait que :

  • Depuis 2016, la télévision n’est plus le premier support des recettes publicitaires : le support Internet est passé en première position. La part de la télévision dans le mix média est passée de 32% en 2000 à 29% en 2017.
  • Les recettes publicitaires des supports de la Télévision, de la Presse imprimée, de la Radio, de l’Affichage extérieur et du Cinéma ont diminué d’un tiers entre 2000 et 2017. Sur la même période, la publicité sur Internet s’est développée en attirant plus d’un tiers du total des recettes publicitaires plurimédias
  • Les pertes de la Télévision linéaire ne sont pas compensées par les revenus générés sur Internet, les chaînes historiques n’ayant pas réussi à encore réussi à monétiser correctement leur audience sur le digital. Entre 2000 et 2017, les recettes publicitaires de la Télévision ont baissé de 17% en passant de 3,9 à 3,2 milliards d’euros.
  • Les annonceurs ont fait des transferts massifs d’investissement entre supports. En 2017, les investissements Internet représentent 35% des dépenses médias. Les recettes publicitaires dans les supports historiques, notamment la Presse et la Télévision ont baissé respectivement de 71% et 17%.

Les récentes évolutions de la mesure d’audience :

Depuis 2011 Médiamat intègre l’audience en différé des programmes sur l’écran de télévision, puis en 2014 la mesure s’est étendue à la catch up TV (ou replay). Depuis 2016 Médiamétrie , propose en complément de la mesure télé Mediamat , la mesure de l’audience des programmes TV sur les 3 écrans :  ordinateur, smartphone et tablette ( Internet Global 3 écrans) . Chaque jour, les clients souscripteurs de la mesure , peuvent ainsi connaître, pour chaque programme des chaînes qui ont marqué leurs contenus avec le tag eStat Streaming, le nombre moyen de téléspectateurs avec le détail par écran et par mode de consommation (live, différé ou replay).

Mediamétrie souhaite également mesurer l’audience télé en dehors du domicile, par exemple un match qu’on regarde dans un bar, ou un programme qu’on suit sur un lieu de vacances. Une expérimentation est en cours dans  3 000 foyers équipés d’un petit audimètre portable, capable de reconnaitre via des technologies de reconnaissance audio les programmes télé écoutés, où que soit la personne qui le porte.

La multiplication des écrans diffusant des contenus TV et la fragmentation progressive de l’audience rendent plus complexe la mesure de l’audience nécessaire aux annonceurs , régies et responsables de la programmation . Il est donc bien plus complexe de toucher cette même audience à l’aide des méthodes qui ont toujours été appliquées pour la télévision traditionnelle.

La quête d’une mesure plus efficace et acceptée par tous  

L’évolution des usages et de la distribution du contenu a fait perdre aux acteurs historiques la maîtrise de la mesure de leur audience. La reconquête de la valeur, devenue un des principaux objectifs des groupes audiovisuels et de leurs régies commerciales pourrait s’opérer à travers une mesure des audiences plus efficaces et reconnue par tous les acteurs .

Cette  mesure de l’efficacité publicitaire n’est  pour l’heure pas uniforme sur le marché de la publicité Internet malgré plusieurs initiatives .Médiamétrie et les acteurs du marché tentent de construire une norme commune qui permettra de faire le lien entre télévision et digital avec notamment  le GRP vidéo ,une  évolution du standard GRP déjà pratiqué en France mais limité à la diffusion télévisée.  Le GRP Vidéo, établi par Mediametrie  en partenariat avec Integral Ad Science depuis 2015,  est une mesure de l’audience vidéo partagée entre la Télévision et Internet qui prend en compte l’intensité du contact (  durée et la visibilité du visionnage) . La mesure n’a pas été adoptée par les agences ni par les annonceurs à cause de son coût et de  l’absence de coopération de Google et de Facebook qui rendaient la mesure partielle.

Les initiatives d’optimisation de la mesure de l’efficacité publicitaire seront efficaces dès lorsqu’elle seront  adoptées et acceptées par tous les acteurs .

Pour aller plus loin :

www.mediametrie.fr

Etude Médias et Publicités en ligne : Transfert de valeur et nouvelles pratiques publiée en juillet 2018 ( CSA – Bearing Point)

Rédigé par Agathe Melingui

Une nouvelle place de marché pour le monde de la publicité


Mobvalue et AdVideum ont annoncé cet été la création de la plateforme Uniq marketplace. Pour rappel une marketplace ou place de marché désigne « les interactions B2B et B2C dans le monde de la vente en ligne » (source : JDN).  La création d’Uniq marketplace vise à faciliter l’accès aux «  environnements premium sur desktop, web mobile et In-App via rien de moins que 12 formats vidéo outstream et display (InRead, VideoSkin, Pavé, FullScreen, H5 Vidéo, InFeed, Slidemotion, Vidmotion, Cube 3D, Parallaxe, Interstitiel et deux nouveaux formats Branding : le Blurred View et le Looper). » (communiqué de presse du 13 septembre 2018). Cette marketplace vise à faciliter l’achat programmatique pour les clients de Mobvalue et AdVideum qui sont des éditeurs et des annonceurs publicitaires. Uniq marketplace offre une diversité de modes d’achats (enchères ou prix fixes) simplifiée afin de faciliter les transactions entre les agences et les annonceurs.

Cette alliance entre deux piliers du monde de la publicité est inédite en France et tente de répondre aux nombreux enjeux auxquels le monde de la publicité doit faire face.

Mobvalue & AdVideum

Avec ses 26,4 millions de mobinautes uniques dédupliqués, Mobvalue est la première régie publicitaire premium sur mobiles en France. « Mobvalue s’est imposé comme l’acteur de référence auprès des éditeurs et annonceurs sur deux domaines d’expertise : la régie premium et la studio créatif » (Advideum). Elle regroupe plus de 90 éditeurs couvrant une diversité de cibles et de thématiques du marché. Grâce à son studio créatif Mobvalue est en constante innovation et personalisation de son offre en répondant aux besoins de ses clients. Elle développe notamment de nouveaux formats et technologies mobiles.

Depuis 2010 AdVideum a pour ambition de faciliter l’écosystème vidéo en accompagnant les éditeurs, annonceurs et agences média dans leurs stratégies. AdVideum est l’un des pionniers de l’InStream et de OutStream en France. Le but est de mieux appréhender les modèles de monétisation en passant par le programmatique. « Notre Club Éditeurs couvre plus de 80% de la population internet en France et près de 75% des mobinautes » (AdVideum)

L’état du marché de la publicité en France

Le marché français de la publicité digitale a un chiffre d’affaire de 2,264M au premier semestre 2018. Cela représente une augmentation de 15,5% en comparaison au premier semestre 2017. Tous les leviers digitaux sont en augmentation. Le search a augmenté de 8,5% et représente 47% du marché global avec un revenu global de 1 078M euros. Le display a la plus grande croissance avec + 29,9%, donc 37% sur le marché global. Les autres leviers ont cru de 6%. C’est 16% du marché total. 51% comprennent le search et le display (1 925M euros) et ont augmenté de 43%. De plus 76% des visites de sites internet sont fait sur le mobile.

Un autre donnée intéressante est la façon dont les réseaux sociaux prennent la plus grosse part des investissement en publicité digitale avec un chiffre de 73% .

En dehors des réseaux sociaux les investissements augmentent dans le développement du programmatique : 46% d’achat ce qui signifie +25,3%. Le  programmatique augmente pour 50% dans le secteur de la publicité et s’élève à ⅔ sur le display (66%)

Comprendre le programmatique

Créé en 2011 le programmatique est le nouveau logiciel d’échange qui permet aux publicitaires et aux éditeurs de se rencontrer. Il fonctionne comme une place de marché en ligne. Le programmatique offre un inventaire des espaces publicitaires. On l’appelle programmatique car le système est automatisé. Les publicitaires payent des encarts en temps réel aux éditeurs. Ce marché est regulé par des third parties comme les DSP et ATD. Les espaces non vendus donnent naissance au réseau publicitaire.  Le programmatique fonctionne comme une place d’enchère. Certains espaces perdent de leur valeurs en fonction de l’état du marché. Le dictionnaire marketing donne la définition suivante “une plateforme programmatique dite full-stack est une solution technique de gestion et monétisation des espaces publicitaires qui combine la gestion du trafic management, les procédures de commercialisation en RTB et les modes classiques ou historiques de commercialisation (vente directe, opérations spéciales, etc.).”

Uniq marketplace: une solution unique ?

L’alliance de ces deux acteurs de la publicité en France est intéressante puisqu’elle répond aux grands enjeux actuels. Comme développé précédemment le secteur de la publicité en ligne est en constante mutation aussi bien par les acteurs (Google et Facebook sont les plus gros investisseurs) que par les outils (le programmatique). Ainsi Uniq marketplace cherche à fusionner deux entreprises aux activités complémentaires pour s’imposer en jouant sur leurs qualités d’innovation. Elle prend le pas sur les autres plateformes comme Viooh de JCDecaux pour améliorer la fluidité de l’écosystème publicitaire. Selon quantcast 50% des responsables marketing pensent que le programmatique peut s’appliquer aux deux approches, branding et performance et 83% sont satisfaits des performances du programmatique. Ainsi les annonceurs sont prêts et attendent une offre complète et qualitative en achat programmatique. C’est ce qu’Uniq ambitionne. Le marché semble donc prêt à accueillir cette nouvelle plateforme !

Domitille J.

Surveillance capitalism: Ok Google, how much money did I bring you?

We are becoming used to stories about Facebook who allows their corporate clients to access to users’ private messages or the software in Google’s Street View decoding and using unencrypted info from people’s homes lately. But do we actually understand this dispensation?

Shoshana Zuboff, professor at Harvard Business School, recently published new book The age of Surveillance Capitalism. In 1988 she already wrote The Age of the Smart Machine: The Future of Work and Power. That book transformed that way the readers thought about computerisation and its impact on the way the organisations were working.

Zuboff’s main idea today is that we are going through an overwhelming shift in methods that corporations use and that very few people have actually grasped the scale of this phenomenon.

Derek Powazek, co-founder of Fertile Medium, says in his blog from 18 December 2012 : “If you’re not paying for the product, you are the product.” It may sound very cynical but it makes sense in some way. Think about it: our lives are constantly improving thanks to magical devices that can take us from point A to point B, indicate how much time it will take and propose different routes. We can reach almost anybody in the world, call them, text them at any point no matter where they are. These things have become part of our daily lives and we almost never even reflect on who is making sure all these services exist. We are all using Google or Facebook. Are we paying for their services? (I am talking about individuals, not corporate services.) No. Imagine, you would have a subscription of 10$ for Facebook and you would pay it like you’re paying for your Netflix who, for now, insures that you don’t get disturbed by the ads. I could argue with Powazek saying that the philosophy of “You are the product” can also be applied even for the products and services for which we pay, but this is another subject.

Coming back to Facebook and Google, some experts share the opinion that the reason these companies allow themselves to play with consumer’s data is because they offer all those services to millions of people for free. So in exchange of giving these giants your money you’re giving them your information and they are free to use it (almost) however they like to.

Zuboff writes in her book: “Surveillance capitalism unilaterally claims human experience as free raw material for translation into behavioural data. […] some of these data are fabricated into prediction products that anticipate what you will do now, soon, and later.” These techniques allow Google, for example, to capitalize on the fact that it can predict the future needs and desires of the targeted users. Zuboff describes in her book that the model that Google uses appeared almost accidentally. The company was keeping the data that was emerging from every single search enquiry (like clicks and their patterns, location) even in the early days. And in 2000 the dot-com bubble made it pretty clear that Google needed to find a way to profit from the services that it was offering for free for ordinary users.

This search for being profitable resulted in selling advertising, not just advertising, but “targeted” and “relevant”. This is where the prediction capacities come in handy as the collected data allows to define behavioral patterns. If I am not mistaken, in Zuboff’s opinion the reason of the development and spread of this model is the fact that it “fulfills real needs”. I would personally argue with this opinion. What are we talking about when we are talking about “real needs”? Do I really “need” to see 10 models of shoes that I have just checked out online? Or tons of offers from airline companies just after I bought a flight for a weekend getaway? Dear Google, I only go to Barcelona once, and I don’t need to be drowning in all the offers from multiple airlines…

In my opinion, the risk when talking about this subject as about “surveillance capitalism” may lie in concentrating a bit too much on surveillance and advertising. What about taking a step back and including the elements like the concentration levels and monopolistic behavior of the big giants? Even though we are mainly talking about Google and Facebook surveilling the ordinary users like you and me, we, however, can’t deny the fact that some pricing mechanisms that Google applies to businesses rise a lot of questions which, for the most part, aren’t even discussed by the anti-trust authorities. In any case, “Surveillance capitalism” is an interesting analysis of a topic that preoccupies the society at the moment.

Barbara Shabynina

Sources :

Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, 2019

The New York Times, Jennifer Szalai, O.K., Google: How Much Money Have I Made for You Today? 16.01.2019

The Times, Hugo Rifkind, Review: The Age of Surveillance Capitalism by Shoshana Zuboff — Das Kapital for the digital generation, 18.01.2019

Derek Powaek, Powazerk.com, I’m Not The Product, But I Play One On The Internet 18.12.2012

Big data : Nouvel enjeu de la grande distribution

#data #audience #businessmodel #digital

Dans un objectif de développement de leurs performances marketing et commerciales, les entreprises sont aujourd’hui confrontées à des problématiques liées à la donnée marketing. 

Aucun secteur n’est épargné ! Et le secteur de la grande distribution l’a bien compris ! 

Alors que les magasins physiques sont de plus en plus désertés par les consommateurs au profit des boutiques en ligne, le Big Data pourrait permettre aux commerces traditionnels de retrouver leurs clients. En effet, face à Amazon, les acteurs historiques de la distribution se trouvent dans un contexte de concurrence accrue d’une part sur leur cœur d’activité, mais d’autre part sur une activité voisine à très forte valeur ajoutée : les offres publicitaires online, via la vente d’audiences qualifiées à destination des marques produits à grandes distributions. 

En 2014, une étude révélait que 78% des consommateurs seraient plus enclins à effectuer des achats chez un commerçant leur proposant des produits adaptés à leurs besoins et à leurs centres d’intérêts (Source : InfoSys). 

Les détaillants traditionnels possèdent des données exclusives sur le comportement et les habitudes d’achat réelles de leurs consommateurs en points de vente. L’enjeu central consiste désormais à valoriser cet actif dans l’écosystème digital.  
Ainsi, devenue clé pour la réalisation d’actions marketing efficaces, cette donnée est collectée, exploitée, valorisée, monétisée par de plus en plus d’acteur : Auchan, Carrefour… Cela permet aux marques industrielles de la grande consommation, comme Danone, Nestlé, ou encore Coca cola d’exploiter les comportements d’achat des clients. 

https://www.e-marketing.fr/Thematique/data-1091/Breves/Auchan-integre-offre-Data-Shopper-Temelio-326594.htm

Le dispositif s’articule autour trois axes : le ciblage des consommateurs, la personnalisation des campagnes digitales et la mesure des impacts en magasin.

En comprenant mieux les goûts et les préférences de leur clientèle, les commerçants peuvent désormais prédire les tendances, anticiper la tendance et les futurs désirsdes consommateurs. Cela facilite les marques à préparer leurs prochaines offres. De même, les données géographiques permettent de localiser les tendances d’achat. Puis, cette méthode permet également de récupérer les coordonnées de l’utilisateur, et donc de le fidéliser en lui envoyant des offres promotionnelles ou des suggestions d’achat basées sur les nouveautés.

C’est ainsi qu’Auchan noue un partenariat avec la nouvelle offre « Data Shopper » de Temelio, spécialisée dans la réconciliation des données offline et online.  Avec ce partenariat, les données collectées quotidiennement par l’entreprise à travers ses 641 points de vente sont digitalisées. Les marques de la grande distribution peuvent ainsi créer leurs audiences sur-mesure, et ce, à partir de 1 500 critères de ciblage disponibles : profils consommateurs (consommateurs de bio, jeunes parents, végétariens…) données de paniers d’achat réels et informations sociodémographiques (âge, genre, zone géographique, Catégorie socioprofessionnelle…) et réaliser des publicités en ligne personnalisées. Jusqu’à présent, affirme Temelio, « les marques de produits à grandes distribution (PGD) investissaient trois fois moins de budget publicitaire dans le digital que la moyenne marché, freinées par leur manque d’accès aux données transactionnelles et l’absence d’indicateurs de rentabilité dans un secteur où les ventes sont très largement offline ».

Autre exemple : Relevant C. Lancée par le groupe Casino et la start-up RedPill en 2017, la start-up vise à créer une base de données sur la consommation des Français et leurs intentions d’achat. Grâce à la plateforme, les annonceurs pourront savoir, de façon statistique et anonyme, qui sont leurs consommateurs, ce qu’ils achètent en ligne et en magasin et quels sont leurs intérêts. Mais, aussi, construire et activer des audiences pour offrir des publicités ciblées sur le Web et, de mesurer la performance en magasin des campagnes de communication.

Finalement, dans la grande révolution entraînée par le Big Data, le commerce au détail est en train de subir un profond bouleversement. Grâce à la collecte et à l’analyse des données des consommateurs, le shopping sera bientôt une expérience radicalement différente de celle qu’on connaît à présent. Le secteur a tout intérêt à mieux exploiter ses données massives. La technologie permettrait d’optimiser l’agencement des magasins. A la clé, promettent les études : un chiffre d’affaires dopé et des consommateurs mieux servis.

Certains imaginent même dans un avenir proche que des entreprises comme le géant Amazon seront capables de livrer un produit avant même que le consommateur ne commence à le désirer.  Ce dernier pourra alors choisir de payer ou de refuser l’offre. Un tel système succéderait efficacement au ciblage publicitaire actuel…


Louise Pouchoulon

Comment le numérique est entré dans les usages et les écritures du genre documentaire?

L’arrivée du numérique dans le genre documentaire : conséquences et mutations au sein d’un genre traditionnel.

Le documentaire est un genre en perpétuelle évolution. On s’attachera à démontrer que les nouveaux supports numériques permettent de rendre l’immersion encore plus importante pour le spectateur. Deux exemples de transformation numérique du documentaire, le web documentaire, la vidéo à 360° et la réalité virtuelle.

1 . Le web-documentaire 

Le web-documentaire est un type à considérer dans la typologie. Il s’agit d’une nouvelle extension du documentaire. 

Le web-documentaire est communément distingué comme un « nouveau dispositif de médiation en ligne de l’information ».
Par son aspect révolutionnaire, il a donné lieu à plusieurs définitions. Dans le paysage culturel et artistique, le web-documentaire est caractérisé comme une « œuvre interactive à la frontière entre reportage d’enquête et documentaire ». Certains chercheurs en science de l’information et de la communication comme Eric Pedon vont plus loin et qualifient cette production de « multiforme, protéiforme, qualifiée d’exploratoire, de tâtonnante, d’innovante, d’expérimentale ». Devant tant de définitions différentes, il apparaît nécessaire de s’attarder sur l’histoire du web-documentaire. 

1. Historique du web-documentaire 

L’apparition du web-documentaire procède du contexte de crise économique des médias et du renouvellement de la presse. Les nouveaux modes de consommation des médias ont renouvelé les pratiques et on observe une convergence numérique des contenus.
Plusieurs constats peuvent être faits : 

– La télévision souffre du phénomène du zapping et de la migration d’une partie des télénautes vers Internet où « les contenus sont délinéarisés aux côtés du flux télévisuel habituel »
– Au sein de la presse écrite, le lectorat a baissé considérablement.
– Internet bénéficie d’une croissance rapide du nombre d’internautes. 

D’après Médiamétrie, « Les internautes sont aujourd’hui ultra- connectés et s’ils sont de plus en plus sollicités via cette exposition décuplée sur la toile, ils savent aussi se mettre en scène en utilisant les réseaux sociaux pour partager les contenus en tous genres et expériences personnelles ». L’institut recense 43,2 millions d’internautes, 27 millions de mobinautes et 11,2 millions de tablonautes en 2013. Ils consultent la presse, regardent des contenus TV en live ou en catch up ou encore écoutent la radio. Internet est un complément aux supports traditionnels. Par ailleurs, 9 vidéos chaque jour 

Le web-documentaire est alors un moyen pour les médias de tester de nouveaux modes de productions adaptés au web. Des grands groupes de presse et audiovisuel comme Le Monde, Arte, France 5, France 24, Canal+ expérimentent l’éditorialisation du web documentaire, car il pourrait devenir un nouveau modèle économique. 

2. Adoption des codes du documentaire 

Le web-documentaire développe la vision d’un auteur sur un contenu réel, basé sur plusieurs types de documents possibles (photographie, audio-vidéo, texte…). Il s’agit toujours, dans un format différents de documenter un sujet à travers différentes sources. Il se situe entre le simple site internet et le film documentaire. Mais le récit, raconté depuis un point de vue d’auteur suit un schéma classique : situation initiale, péripéties, conclusion. 

Le documentaire est une oeuvre scénarisée, cela implique « une mise en scène ». Il faut réfléchir à la façon dont on place les objets, aux positions des protagonistes face à la caméra. Il s’agit du « profilmique ». Les plans sont revus, coupés, collés et ré-agencés au montage. L’auteur décide de la chronologie des plans qu’il monte, c’est lui qui décide de l’orientation que son documentaire prend au fil du montage pour insister sur tel ou tel aspect du sujet. Le montage permet de resserrer l’angle choisi pour traiter du sujet. 

Le web-documentaire tout comme le documentaire classique cherche à montrer des informations au public mais aussi à montrer une analyse de plusieurs informations impliquant des consignes de tournage et de lecture via le dispositif. Grozny 9 Cities est un web documentaire qui a reçu en 2013 le trophée « web journalisme » au Prix Bayeux Calvados . “Grozny 9 Cities” explore cette complexité. Les trois photographes russes, Olga Kravets, Maria Morina et Oksana Yushko, travaillaient sur ce projet depuis 2009. Cette œuvre interactive, produite par Chewbahat Storytelling, est une expérience visuelle, sonore et narrative passionnante et forte. 

2 . La réalité virtuelle et la video à 360°

Le terme « réalité virtuelle », (RV) présent dans le langage courant a été popularisé par Jaron Lanier par le biais de sa société VPL Research. VPL Research détient un bon nombre de brevets de VR déposés dans le milieu des années 1980.
Le concept de réalité virtuelle a ensuite été popularisé par des films tels que Brainstoret The Lawnmower Man. L’intensification de la recherche dans les années 1990 résulte en partie de la publication de l’ouvrage Virtual Reality (1991) d’Howard Rheingold. Ce livre a permis de démystifier le sujet, le rendant plus accessible aux chercheurs et aux amateurs enthousiastes. 

Là encore, une brève histoire de la réalité virtuelle s’impose avant d’aborder celle-ci dans le documentaire. 

L’arrivée du premier casque de réalité virtuelle est créé en 1970. C’est à l’Université de l’Utah qu’il est réalisé par Daniel Vickers. Formé de deux écrans, le casque donne à l’utilisateur la possibilité d’observer la scène virtuelle qui lui est présentée en tournant la tête. Une belle nouveauté ! 

La première commercialisation des casques a lieu en 2016. Parmi eux, on trouve l’Oculus Rift, le HTC Vive et le Playstation VR.

Enfin, en 2018, ce sont plus d’une dizaine de casques de réalité virtuelle qui sont disponibles pour le grand public du low cost au haut de gamme. 

Les interfaces sensorielles : visuelles, sonores, tactiles, olfactives et à simulation de mouvement permettent à l’utilisateur de percevoir le monde virtuel et d’y être immergé.

Un certain nombre de symptômes indésirables ont été causés par une utilisation prolongée de la réalité virtuelle. Par exemple, des dommages au système visuel (crise d’épilepsie, migraines, lumière infrarouge et lumière ultraviolette, etc.), auditif, des dommages dermatologiques (thermique, radiation, transmission d’agents infectieux entre utilisateurs, etc.) ainsi que des dommages physiques. 

2. La réalité virtuelle dans le documentaire 

Il est nécessaire de s’interroger sur les visées de l’utilisation de la réalité virtuelle dans le documentaire. Le Forum des Images a lancé en janvier 2018 un festival de la réalité virtuelle. On peut dégager un classement des différentes expériences vécues ; généralement la réalité virtuelle illustre trois thèmes, la guerre, les paysages et les sports extrêmes. 

a) Faire l’expérience de la guerre 

« Nobel nigthmare’s » est un documentaire en réalité virtuelle en plein coeur d’Alep en Syrie sous les bombes. Ce film immersif tourné en 360° baptisé «Nobel’s Nightmare» a été tourné par les casques blancs, les secouristes bénévoles non armés de l’organisation citoyenne, la Défense civile syrienne qui a prétendue au prix Nobel de la paix, en 2016. 

Une fois le casque enfilé, c’est une tout autre réalité qui s’offre au spectateur. En plein coeur d’Alep, un paysage de désolation est devant nous. Selon les rues, des enfants jouent, d’autres courent se réfugier. Partout le chaos, immeubles détruits et bruits de frappe. Le spectateur accompagne secouristes bénévoles, à bord d’une voiture à ciel ouvert, cherchant des blessés pour leur porter secours. Au milieu des ruines, l’on peut tourner la tête de droite à gauche pour voir l’étendue des dégâts. 

Le spectateur n’est plus passif : il peut désormais se retourner dans tous les sens, regarder devant, derrière, sur les côtés… Nous ne sommes plus face au désastre : nous sommes DANS la guerre. On ne regarde plus : on ressent.. L’impact émotionnel est mille fois supérieur au simple regard posé sur l’écran de télévision. 

b) La réalité virtuelle, atout pour les paysages 

Le deuxième documentaire, « Growing a world wonder », un documentaire sur l’environnement. Une fillette née au Sénégal raconte l’évolution environnementale de son pays et les conséquences de la sécheresse sur les récoltes agricoles. Pour essayer de mettre fin à la sécheresse un projet a été lancé en 2008 dans le pays : 40 000 hectares ont été reboisés. Ce projet, intitulé « La Grande Muraille verte », a pour objectif de restaurer les écosystèmes sahéliens menacés par la désertification. Le tout est montré à la fois par des images au sol, au milieu d’un village mais aussi par des images tournées à l’aide de drones, nous permettant de voir ces champs d’un point de vue aérien. L’utilisation de la réalité virtuelle prend ici tout son sens, quoi de mieux pour rejoindre la cause environnementale que de se sentir immergé dans les failles de nos eco- systèmes et de voir les terribles conséquences que cela peut avoir sur des populations entières. 

c) La réalité virtuelle ou la promesse tenue des sensations extrêmes 

Le dernier documentaire Le goût du risque emmène le spectateur au cœur des sports extrêmes : du snowboard freeride, bodyboard dans les rouleaux des océans… La réalité virtuelle permet de ressentir des sensations extrêmes tout en continuant de documenter un sujet. 

A travers ces deux exemples, le web documentaire et la réalité virtuelle, le numérique a transformé le genre documentaire. Il a enrichit les possibilités du documentaire et l’a révolutionné : la possibilité d’une réalité exposée à 360° façonne différemment le genre. C’est le cas du documentaire immersif, appelé aussi « embarqué », où la réalité virtuelle semble être idéale pour le spectateur qui endosse le nouveau rôle d’acteur, l’expérience du spectateur est transformée. 

Cassandre Sevestre

TV payante VS SVOD

2018 est une année record pour la Vidéo à la demande avec abonnement (SVOD). Netflix compte 139,26 millions d’abonnés, dont 58,49 millions aux Etats-Unis et 3,5 millions en France. Le souverain incontesté de la SVOD détrône ainsi HBO qui recense 40 millions d’abonnés aux États-Unis, et se rapproche dangereusement de CANAL+ qui revendique 4,7 millions d’abonnés en France. Les plateformes de SVOD deviendraient-elle une réelle alternative à la télévision payante traditionnelle ?

L’étude de Ampere Analysis menée sur 10 pays au cours des deux dernières années, révèle la croissance rapide de la SVOD. Entre 2015 et 2018, la croissance des foyers qui utilisent exclusivement un abonnement SVOD a augmenté de 13%, face à une baisse de 23% pour ceux utilisant essentiellement un abonnement à la télévision payante traditionnelle. Ampere souligne aussi que la part des ménages abonnés aux deux services observe une croissance de 16% sur la même période. La SVOD se positionne ainsi soit comme un service complémentaire, soit, comme le service de télévision principal du ménage. Nous vous en proposons un tour d’horizon.

Un phénomène de cord-cutting aux Etats-Unis

Aux Etats-Unis, cette forte croissance du marché de la SVOD se confirme. Le nombre de foyers abonnés à une offre de télévision payante est en diminution par rapport aux années passées : 78% en 2018 contre 87% en 2008 selon une étude Leichtman Research Group. Parallèlement, la SVOD, enregistre une croissance de 30% en un an et près de 13 milliards de recettes. A lui seul, le marché de la SVOD réalise des recettes supérieures à celles du Box-Office domestique et devient le premier pôle de recettes du marché audiovisuel américain. Une révolution du modèle économique des studios et du comportement des consommateurs, accordant une place plus significative à la consommation “on demand” et sans publicité. Une des explications à ce succès serait le prix moyen d’un abonnement à la télévision payante aux Etats-Unis de 107 dollars mensuels. En cumulant les offres les plus connues de SVOD, la dépense moyenne mensuelle reste inférieure à 100 dollars, s’en suit un réel phénomène de cord-cutting, c’est à dire d’abandon de la TV linéaire payante au profit de la SVOD.

Pour rivaliser, chaînes payantes se lancent dans une course aux films de qualité. En effet, l’argument des chaînes de télévision à péage est qu’elles remplissent leur catalogue de films de qualité, là où Netflix a mis l’accent aux Etats-Unis sur du contenu récent, moins de quatre ans, ou sept ans pour la moitié du catalogue de Hulu et Amazon. Selon Ampere Analysis “ le bon usage des catalogues de films est désormais le nouveau champ de bataille alors que le marché mondial de la SVOD devient de plus en plus encombré« . A noter que les accords de contenu de HBO avec Fox et NBC Universal s’étendent jusqu’au début des années 2020 pour des titres tels que X-men : Apocalypse de Fox et Warcraft de NBC Universal. Des titres qui ajoutent à la qualité du service de HBO Go et constituent ainsi une arme de défense majeure face aux géants de la SVOD.

Une offre complémentaire au niveau européen

En Europe la croissance du marché de la SVOD est menée par un petit nombre d’acteurs et de pays. Toby Holleran, analyste principal chez Ampere Analysis, explique : « Netflix et Amazon ont servi de catalyseurs pour multiplier les abonnements SVOD, en particulier sur les marchés européens par le biais d’abonnements à bas prix. Tandis que certains pays mettaient plus de temps pour adopter la SVOD, les géants américains en profitaient pour s’installer comme partie intégrante du package de chaque bouquet SVOD des ménages. C’est particulièrement le cas aux Pays-Bas où 3 ménages sur 4 ne s’abonnent qu’à Netflix ». En effet, Netflix et Amazon comptabilisent respectivement 47% et 20% des abonnements à un service de SVOD en Europe, malgré l’existence d’environ 200 services de SVOD différents. La croissance de ce marché est donc incontestablement tirée par ces deux géants.

Sur un chiffre d’affaire de 2,8 milliards d’euros en Europe, 70% de ces recettes du marché de la SVOD sont catalysées par cinq pays : le Royaume-Uni, l’Allemagne, la Suède, le Danemark et la Norvège. Bien qu’elle affiche une croissance fulgurante (environ 128% par an), son poids demeure restreint sur le marché de la télévision payante. Contrairement aux Etats-Unis, il n’existe aucune preuve d’un phénomène de cord-cutting en Europe. Les offres SVOD viennent compléter un abonnement à la télévision payante. Une tendance qui pourrait s’inverser avec les jeunes générations n’ayant jamais souscrit à un abonnement de télévision à péage traditionnel, et qui pourraient garder comme seul modèle d’abonnement la SVOD.

Au Royaume-Uni la tendance est déjà en marche : selon The Guardian, sept ans après son lancement dans les foyers britanniques début 2012, Netflix comptera plus d’abonnés que Sky d’ici la fin de l’année 2018. Le géant devrait recenser 9,7 millions d’abonnés, alors que Sky faisant face à un repli d’abonnés, devrait en compter 9,6 millions, signe de la fin de la domination de la SVOD sur la télévision payante. En 2019, Netflix devrait comptabiliser 10 millions d’abonnés. A titre de comparaison, il aura fallu deux décennies à Sky pour franchir ce cap.

Mais Sky ne s’avoue pas vaincu, et souhaite adapter son modèle par deux innovations majeures : le lancement de son propre service de streaming Now TV fort aujourd’hui de 1,5 million d’abonnés et l’alignement sur la stratégie de prix de Netflix à moins de 15 livres par mois avec la création de “Pass” jour, semaine, week-end ou thématique (cinéma, sport, divertissement ou enfant) à partir de 5 livres sans abonnement.

Deux arguments de taille viennent soutenir la stratégie de Sky face au géant Netflix : quand le géant de la SVOD facture 8 livres par mois en moyenne, Sky facture ses abonnés 50 livres. Aussi, son rachat par Comcast, suppose certainement l’impulsion de nouvelles stratégies, nous pouvons par exemple nous demander si Comcast maintiendra son partenariat Sky/Netflix dans l’offre Sky Q.

Pas d’exception pour la France

Le marché français est lui aussi bouleversé par la SVOD, à en prendre l’exemple de CanalPlay qui plie bagage. “C’est terminé” a annoncé en juin dernier Maxime Saada, président du groupe CANAL+. Le nombre d’abonnés est passé de 800 000 à 200 000 « en deux ans, on a été rayés de la carte sur ce marché qui est en train de se substituer à la télévision ».

La nouvelle chronologie des médias avec l’abaissement de sa fenêtre de diffusion à 6 mois, offre à CANAL+ un répit de courte durée. Bien loin du rendez-vous traditionnel devant son programme, le comportement du spectateur a profondément été modifié, il fait le choix de ce qu’il souhaite consommer, quand et sans publicité. Un changement de méthode de consommation bien ancré, qu’un simple changement au niveau de la chronologie ne semble pouvoir modifier. CANAL+ peut alors essayer de s’inspirer de la riposte de Sky.

Une évolution du marché qui passe aussi par l’attribution des droits sportifs, à noter que CANAL+ a remporté les droits de la Premier League de football, face notamment à Amazon. Point positif pour la chaîne historique de télévision à péage française, jusqu’à la prochaine négociation, laissant le temps aux acteurs de SVOD de peaufiner leurs offres et d’augmenter leur nombre d’abonnés. Une chose est sûre : la télévision payante a connu son heure de gloire, à elle de se réinventer pour ne pas être engloutie par la SVOD.

Et demain ?

Une contre-attaque est lancée du côté de la télévision payante qui ne souhaite pas s’avérer vaincue, à l’instar de Sky au Royaume Uni, Salto en France, Disney+ ou d’HBO qui intègre son catalogue avec celui de Warner Bros et Turner à la prochaine offre de service de vidéo à la demande que souhaite lancer l’opérateur AT&T d’ici 2020.

Tous ces acteurs risquent de profondément modifier le paysage de la SVOD. Il semblerait cependant que la partie se joue sur un autre terrain. En effet, face à Netflix se dressent de nouveaux concurrents inattendus à l’instar de Fortnite ou Youtube. Reed Hastings, PDG de Netflix, a lui-même déclaré :  “Netflix lutte et perd davantage face à Fortnite que face à HBO”. Bien que solidement installé au sommet, il existe une variable que le géant ne puisse modifier : le temps. Ainsi, toutes formes de divertissement pouvant catalyser l’audience du leader devient un concurrent potentiel, souhaitant que ses clients passent le plus de temps possible sur sa plateforme.

Stratégie adoptée par Microsoft, qui, comme Google, travaille à la diffusion en streaming de jeux vidéo, de façon à faire passer de plus en plus de temps de temps sur sa console Xbox. Sur cette même lancée, Netflix s’inspire du jeu vidéo et s’est récemment lancé dans les programmes interactifs avec “Bandersnatch”, épisode de la série “Black Mirror”, où le spectateur guide le personnage principal à travers l’histoire et décide du scénario à la manière des “livres dont vous êtes le héros”. La plateforme a d’ailleurs annoncé plus de programmes sur ce modèle.

Affaire à suivre.

Roselaine Boudjellal

Sources

Observatoire européen de l’audiovisuel, “Analyse de la SVOD”, mars 2018

Ampere analysis, « SVoD services – from complementary to competitive », mars 2018

Le Point, « Le nouveau plan de bataille de HBO face à Netflix », juillet 2018

L’obs, “Comment Netflix flingue la télé française”, décembre 2018

Nouvelle tribune, « Fortnite et les jeux vidéo, concurrents inattendus de Netflix », janvier 2019

Reconnaissance faciale et divertissement : l’exemple de Reminiz

Source : http://www.reminiz.com

La reconnaissance faciale

La reconnaissance faciale est une technologie relativement récente, bien que les premiers essais datent des années 1960. A l’époque, les méthodes étaient essentiellement basées sur des suppositions, et selon des conditions bien établies : visage de face, lumière idéale… Les années 90 ont vu se développer la recherche, grâce notamment à l’accroissement de la puissance de calcul des ordinateurs, permettant l’usage de méthodes statistiques et un traitement de données plus important. En 2001, l’approche de Viola et Jones, repérant des visages en temps réel, permet une grande avancée, et s’inscrit comme méthode standard dans le domaine. Les chercheurs vont ensuite s’en servir pour améliorer les technologies de reconnaissance facile.

La reconnaissance facile consiste à reconnaitre une personne sur une image ou une vidéo. Elle se déroule en trois temps : la détection de visage afin de repérer le visage, l’analyse du visage qui donne un résultat numérique, et enfin la reconnaissance qui compare ce résultat avec la base de données. Elle nécessite donc une base de données de visages enregistrés.

D’abord utilisée comme outil de surveillance et de sécurité, elle a vu, ces dernières années, ses usages se développer dans la sphère publique comme privée. Ainsi son utilisation est de plus en plus fréquente et dans de nombreux domaines. Elle est employée en robotique, en biométrie, pour la sécurité grâce aux vidéos de surveillances, sur les réseaux sociaux (comme avec le projet DeepFace de Facebook), afin de déverrouiller des objets électroniques ou même des domiciles, effectuer des paiements, trier des photos, ou encore retrouver des membres de sa famille à l’aide d’une simple photo. Il y a d’autres usages moins communs, comme l’aide aux aveugles et aux personnes souffrant de prosopagnosie (trouble de l’identification ou de la mémorisation des visages humains), ou encore la détection des interdits de jeux dans les casinos. 

Il existe donc tout un éventail d’utilisations actuelles de la reconnaissance faciale, à des fins sociales ou économiques. Nous allons cependant nous intéresser à une application peu commune de la reconnaissance faciale, dans le divertissement, avec la strat-up Reminiz.


Reminiz, start-up mêlant technologie, contenus et marketing

L’entreprise française a développé une solution de reconnaissance faciale à destination de l’entertainment permettant de reconnaître les personnalités présentes à l’écran. Mais ce n’est pas tout, la reconnaissance des marques à l’image, l’apport d’informations contextuelles, les recommandations et les publicités contextuelles sont d’autres atouts complétant ses divers services adressés aux spectateurs et aux annonceurs.  

Mais revenons sur son histoire.
En 2013, Reminiz remporte la 1ère place du challenge « La meilleure start-up 4G » organisé par Bouygues Telecom, et les 40 000€ du prix.  Elle se présente à la base sous forme d’application. Elle permet de reconnaître n’importe quelle personnalité d’intérêt public sur un écran télévisé. Ainsi, elle utilise la technologie de reconnaissance faciale afin d’identifier une figure publique, que ce soit un acteur dans un film, une célébrité invitée sur un plateau télévisé, un comédien lors du replay d’un spectacle, un chanteur dans une vidéo…

Souvent surnommé le « Shazam des visages », le logiciel peut reconnaitre plus de 100 000 personnalités, avec un taux de réussite de 96 %. Le système permet d’identifier n’importe quel type de célébrité, n’importe où, malgré des scènes d’obscurité ou d’action, et en présence de maquillage ou de grimage. Une fois l’identification faite, il fournit différentes informations sur la personnalité : biographie, filmographie, actualités, autres vidéos, liens de téléchargement…


La start-up a ainsi voulu commercialiser sa solution en créant une application, qui n’est pas encore disponible, mais aussi en approchant les univers du cinéma et de la télévision : producteurs de programmes (studios), diffuseurs (chaînes de télévision et opérateurs), et services spécialisés dans la vidéo à la demande. Elle a donc, par la suite, développé une offre spécialisée pour le petit écran. Le service est disponible pour la télé en direct, la diffusion en replay ou VoD, avec les opérateurs partenaires. Reminiz maximise la valeur des contenus vidéo en proposant une expérience utilisateur inédite. Elle est au service aussi bien des consommateurs que des professionnels du divertissement.

Elle a par exemple récemment travaillé avec Orange en vue d’améliorer les performances de son catalogue de catch-up. Le but était de créer un écosystème de contenus pour relier les programmes les uns aux autres. Mais également, pour le groupe, d’augmenter le taux de conversion du catalogue, et la fidélité des téléspectateurs. Pour cela, elle a indexé le catalogue à la demande, et installé son service de reconnaissance faciale en temps réel pour tous les programmes, tout en accompagnant Orange dans la mise en place du service pour tous ses clients. Au final, ce ne sont pas moins de 4 000 films indexés, et 10 millions de décodeurs équipés du service de reconnaissance faciale Reminiz, avec 3 millions de clients Orange utilisant le service sur un second écran.


Mais la start-up ne souhaite pas s’arrêter en si bon chemin. Ainsi, les créateurs veulent enrichir leur proposition de valeur en développant des services additionnels, aussi bien pour les entreprises que les utilisateurs. Ils ont la volonté de proposer de la publicité liée à la célébrité détectée, ou encore des paris sportifs, leur recommander d’autres vidéos associée à la personnalité, indiquer aux annonceurs avec quelle star faire de ‘‘l’endorsement’’ en fonction de l’interaction des téléspectateurs, ou encore proposer de réserver depuis l’application le prochain spectacle du comédien reconnu à l’écran. L’utilité des consommateurs va ainsi croître, et leur expérience sera enrichie par la recommandation de contenus. « On va pouvoir offrir une TV plus pertinente, plus personnalisée. On pourra offrir du contenu ciblé », explique Alexis Kenda, un des co-fondateurs de la start-up.

Reminiz veut donc également s’adresser aux annonceurs et professionnels du marketing, en les aidant à mieux contextualiser leurs efforts de promotion. Selon la société, les promotions de vente sur la télévision représentent un marché de 260 milliards de dollars, et 82% des téléspectateurs veulent acheter des produits liés à leurs célébrités préférées[2]. Ils proposeront donc de connecter les téléspectateurs à des produits pertinents. Une opportunité pour les marques, qui pourraient obtenir une analyse détaillée des données, et ainsi adapter leur stratégie de contenus.


Reminiz peut déjà compter sur de nombreux partenaires, que ce soit des fournisseurs, des incubateurs pour se développer, des salons pour sa propre promotion, ou des diffuseurs et service de VoD : Microsoft, SFR, OCS, La French Tech, NVIDIA, Bouygues, CTIA…

Aujourd’hui, Reminiz a pour ambition de devenir un leader mondial sur le marché de l’enrichissement et de la recommandation de contenus, face à des entreprises comme Google et Amazon travaillant sur un concept similaire.   

Pauline Varnusson


[1] http://www.lyonne.fr/auxerre/economie/television-medias/2016/03/01/innovation-un-auxerrois-associe-de-reminiz-le-shazam-des-visages_11803459.html

[2] http://www.reminiz.com/

Les chatbots : analyse de ce phénomène

Nous voyons de plus en plus dans notre univers digital l’arrivée des chatbots. Ces technologies se retrouvent à différents endroits, et dans différents domaines. Que ce soit dans l’e-commerce, dans le tourisme, dans le recrutement, dans les médias ou même dans le dating les chatbots prennent de plus en plus de place, avec pour objectif de « réinventer l’expérience client ».

Regardons d’un peu plus près cette tendance pour mieux la comprendre.

Dans sa définition la plus simple, un chatbot n’est rien d’autre qu’un programme informatique qui automatise certaines tâches, généralement en discutant avec un utilisateur via une interface de conversation. Cette interface de conversation peut être un réseau social, une application, ou bien un site d’e-commerce par exemple.

Pour pouvoir avoir une meilleure compréhension du phénomène des chatbots, il est important de comprendre certaines différences entre les chatbots. En effet, il existe deux sortes de chatbots : les stateless et les statefull. Les chatbots stateless reçoivent chaque interaction comme s’il s’agissait d’une nouvelle interaction avec un nouvel utilisateur. L’information n’est donc pas enregistrée, mais la technologie est plus simple à développer car elle n’implique pas de gestion de l’information et de connexion à cette information.

Les chatbots statefull, eux, enregistrent les interactions passées, et réutilisent ainsi les informations dans le cadre de prochaines conversations.

Les robots les plus avancés sont donc les statefull. Ils peuvent utiliser l’intelligence artificielle, ce qui l’aide à comprendre les requêtes complexes, à personnaliser les réponses et à améliorer les interactions au fil du temps.

Lorsque l’on parle de l’utilisation d’intelligence artificielle, il s’agit donc de technologies qui vont aider au développement de chatbots statefull.

Les chatbots rentrent dans la catégorie de services des CaaP, pour Conversations as a plateform.

On retrouve une des premières formes de chatbot à travers le programme informatique Eliza. Ce programme, développé par Joseph Weizenbaum entre 1964 et 1966, simule la conversation entre un psychothérapeute qui pose des questions à un patient. Cette date est souvent utilisée pour marquer le début des travaux sur le développement des chatbots.

Nous pourrions cependant remonter plus tôt dans l’histoire, 14 ans auparavant plus précisément, avec les travaux d’Alan Turing. Ce mathématicien de génie a publié en 1950 une série d’articles, avec le fameux « Computer Machinery and Intelligence » qui pose les débuts de la réflexion sur l’intelligence artificielle par la même occasion sur le fonctionnement des chatbots.

Pour mieux comprendre l’intérêt d’un chatbot, il faut se revenir aux sources de son développement. Pourquoi ces technologies ont-elles été développées ? Dans une inflation de la publicité digitale, les utilisateurs se retrouvent fatigués de tous ces messages publicitaires. Ces publicités sont tellement mal proposées, mal disposées qu’elles arrivent à perturber l’expérience de l’utilisateur, voir à provoquer une forme d’exaspération. C’est pourquoi les entreprises doivent réinventer l’expérience utilisateur, et développer de nouveaux leviers d’attraction.

Le chatbot présente un aspect central : sa dimension conversationnelle. Créer une conversation permet d’avoir une expérience bien plus riche et naturelle. Cette discussion permet aussi de générer un meilleur bouche-à-oreille et de mieux fidéliser le visiteur. Des études montrent qu’un visiteur ayant réalisé un achat pour la première fois sur un site d’e-commerce à 2,5 fois plus de chances de réaliser un autre achat dans les 3 mois s’il a échangé avec un représentant de la marque, le chatbot pouvant être le futur « représentant automatique » des marques. C’est pourquoi souvent les chatbots sont personnifiés, on donne un nom (et parfois un certain style de rédaction) aux chatbots, le tout pour essayer de créer au mieux cette sensation d’échange. On peut citer par exemple Lara, le chatbot développé par Meetic sur Facebook Messenger.

Il ne faut pas oublier que le chatbot permet aussi de créer cet échange entre l’utilisateur et la marque à travers un processus automatisé. Cela permet aux entreprises de ne pas avoir une personne derrière l’écran. On estime que d’ici 2020 85% des interactions clients seraient dispensées d’humains.

Différents arguments permettent d’attester du potentiel des chatbots. Il est tout d’abord important de revenir au développement de cette technologie. Les méthodes changent, et la philosophie du fonctionnement de la technologie a été bouleversée. Les développeurs ne comptent plus uniquement sur des mots-clés pour bâtir une réponse, mais ils exploitent maintenant de complexes schémas d’analyse du langage pour s’améliorer au fur et à mesure de l’utilisation. Cette nouvelle façon de faire permet également le développement de techniques pour mieux récolter, analyser et prédire les comportements des utilisateurs par de l’Intelligence artificielle.  

Il faut lier à ce progrès technologique un plus grand nombre de données présentes. En effet, avec la croissance du nombre d’internautes et de mobiles, il existe un plus grand nombre d’informations à traiter.

Le Big Data est de plus en plus puissant, ceci aide donc le développement des chatbots par un plus grand nombre d’informations à utiliser.

Mais cette croissance du nombre d’internautes et de mobiles montre aussi que le « terrain de jeu » des chatbots tend à croitre continuellement. Que ce soit sur des sites web, sur des plateformes d’e-commerce, dans des applications ou encore sur les réseaux sociaux, les chatbots trouvent de plus en plus de place, avec de plus en plus de potentiels utilisateurs.

Malgré ces différents arguments qui montrent le potentiel des chatbots, il persiste des menaces qui pourraient mettre à mal le développement de ceux-ci.

Les chatbots voient enfin d’autres formes de technologies venir les concurrencer. La principale menace concerne les assistants personnels. Ceux-ci permettent de disposer d’une technologie similaire aux chatbots (et même plus puissante), avec un coté interactif plus puissant grâce à l’échange vocal.

Lorsque l’on étudie l’histoire du développement de l’intelligence artificielle, on remarque que l’IA a connu deux périodes de faible développements appelés hivers de l’IA, respectivement entre 1974 et 1980, puis entre 1987 et 1993. On a connu un faible développement de l’IA du fait d’un trop gros optimisme et de trop importantes attentes de l’opinion publique, des chercheurs et des entreprises. Nous avons précédemment vu qu’il existe une corrélation entre le développement de l’IA et des chatbots. L’agitation qui s’exerce ces derniers temps autour de l’IA crée un risque de nouvel hiver de l’IA, et donc par ricochet un potentiel nouvel « hiver du chatbot ».

Enfin, du fait des effets de réseaux, on assiste à une concentration de l’utilisation des applications de messageries. Les utilisateurs utilisent peu d’applications, la consommation se concentre autour de quelques grands acteurs (on pense à WeChat, Facebook Messenger, Instagram, …).

Ces grands groupes qui possèdent ces applications de messageries pourraient, à long terme, proposer eux même des services à travers des chatbots. Ces entreprises par leur taille, disposent de ressources qui leur permettent de se développer sur les chatbots de façon bien plus importante. De plus, étant donné qu’un grand nombre de ces chatbots passent par ces applications de messageries, se pose la question de la gestion des données.

Ceci pourrait poser problème pour les acteurs actuels et ainsi brider le développement de l’écosystème des chatbots.

Talel Habachi

Sources

L. Theodore et B. Blanquier, Digital Marketing 2018. Electronic Business Group.

D. Sanz, « Qu’est-ce qu’un chatbot ? », Le figaro.fr / Tech & Web, juin 2017

D. Feldman « Chatbots : What Happened ? », Medium, avril 2018

IFOP et Impact AI, « Percentage of French having already chatted with a virtual assistant in 2018, broken down by age group ».

Statista, « Social network usage in France »

Disney : futur concurrent de Netflix ?

Le marché de la SVOD

Apparues il y a une dizaine d’années, les plateformes de SVOD ont révolutionné les usages de consommation de contenus. En France, c’est véritablement à partir de 2014 avec l’arrivée de Netflix que cette pratique est devenue incontournable. A ce moment l’offre était encore restreinte mais allait permettre la percée d’un véritable marché.  

Dans une étude du CNC de 2017, ¼ des internautes utiliseraient un service de SVOD (plus de 40% d’entre eux de manière quotidienne). Parmi ces utilisateurs, ce sont les jeunes qui en sont les plus friands. Les utilisateurs sont à la recherche d’une offre de qualité, abordable, riche et personnalisée.

Sur ce marché, c’est bien sûr Netflix qui sort du lot, avec plus de 130 millions d’utilisateurs dans le monde (plus de 2 millions en France). La plateforme américaine est suivie en France par les offres de Canalplay, SFR Play ou encore Amazon Prime Video.

Le fonctionnement et la réussite de ces services nécessitent des investissements conséquents en acquisition et production de contenus originaux. Aujourd’hui les sommes investies par les acteurs du marché sont parfois même largement supérieures à celles investies par les chaines de télévision classiques. Par exemple, en 2017 Netflix et Amazon Prime Video auraient investi 6 et 4,5 milliards de dollars, contre 2 milliards pour HBO.

Au milieu de tous ces grands noms du divertissement, un acteur incontournable semble pourtant ne pas encore avoir pris part à la fête. En effet, le géant Disney, qui est devenu au cours du temps l’un des studios les plus importants au monde, fait pour l’instant peu parler de lui sur le marché de la SVOD.

Avec un chiffre d’affaires de près de 60 milliards de dollars en 2017 réparti entre différentes activités (médias, parcs d’attraction, studio de cinéma, produits dérivés), c’est un empire qui n’a cessé de se renouveler et qui s’intéresse aujourd’hui sérieusement au potentiel du marché de la SVOD. L’arrivée de cet acteur historique pourrait alors clairement rebattre les cartes en 2019. 

La stratégie de Disney : Hulu, ESPN+, Disney+

Plusieurs choses s’organisent aujourd’hui chez Disney pour une arrivée en grâce sur le marché de la SVOD.

En 2018, l’entreprise américaine annonce ainsi le futur lancement d’une nouvelle plateforme de SVOD, Disney+, qui devrait sortir à la fin de l’année aux US.

En 2018, Disney a aussi mis la main sur la 21st Century Fox pour plus de 70 milliards de dollars. Cette acquisition est un premier pas majeur sur le marché de la SVOD puisque Disney se retrouve ainsi actionnaire majoritaire de la plateforme Hulu, lancée en 2008 par un ensemble de chaines américaines. Aujourd’hui Hulu compte 25 millions d’abonnés, et est devenu le 3ème acteur majeur aux US derrière Netflix et Amazon Prime Video (100 millions d’abonnés).

Hulu qui jouit déjà de succès importants tels que « The Handmaid’s Tale », va ainsi pouvoir bénéficier de moyens considérables pour continuer son expansion. La plateforme s’est déjà fait remarquer avec un gain de 8 millions d’abonnés entre 2017 et 2018. Ce développement s’explique bien sûr par la qualité des contenus proposés mais repose également sur un modèle économique différent de celui de Netflix. En effet, la plateforme propose une offre freemium, avec un service qui comprend de la publicité à 7,99$/mois et une offre sans publicité à 11,99$ ; tandis que le tarif de Netflix est de 9,99$. Ce modèle permet donc à l’entreprise de percevoir des revenus publicitaires additionnels non négligeables (près de 2 milliards de dollars en 2018).

En plus de la nouvelle acquisition d’Hulu, Disney est aussi propriétaire du service ESPN+, spécialisé dans l’offre de contenus sportifs. Lancé en avril 2018, à un prix attractif de 4,99$, le service dépasse aujourd’hui le million d’utilisateurs.

La stratégie de Disney avec la création de la nouvelle plateforme Disney+ n’est pas d’absorber ces différentes offres mais bien de conserver et faire coexister ces services en proposant ainsi 3 offres distinctes sur le marché de la SVOD : Disney+, Hulu et ESPN+. Chacune de ces plateformes entend offrir un service et des contenus spécifiques. Disney+ proposant davantage une offre familiale, Hulu se positionnant avec offre plus adulte et bénéficiant d’un catalogue enrichi des programmes de la Fox non destinés aux enfants, et ESPN+ avec une offre sportive.

C’est un véritable choix stratégique pour Bob Iger, PDG de Disney, de créer des services qui doivent attirer « des segments de marché différents aux goûts différents », et non d’avoir un immense ensemble de contenus.     

L’entreprise prévoit cependant la possibilité de proposer des offres promotionnelles package aux utilisateurs qui voudraient s’abonner à plusieurs des 3 plateformes. Disney entend ainsi assurer une flexibilité dans les options d’abonnement et répondre au mieux aux attentes des utilisateurs.

Si l’on connaît donc déjà les deux plateformes de SVOD existantes chez Disney et la stratégie du groupe, l’entreprise est très attendue sur la naissance de Disney+, qui va constituer un réel défi pour se faire une place sur le marché. 

Aujourd’hui les informations arrivent progressivement concernant ce futur service qui devrait voir le jour à la fin de l’année (pas avant 2020 en Europe). L’objectif de la plateforme serait d’atteindre les fans de Disney mais l’offre est destinée à la famille de façon plus globale. Le prix devrait être nettement inférieur au tarif de Netflix, cela pouvant s’expliquer par moins de contenus au départ.

En plus de ses moyens d’investissement conséquents, l’autre force de Disney sera bien sûr de pouvoir se reposer sur les productions de Pixar, Marvel, Lucas Films, NatGeo, Fox, ce qui constitue un avantage considérable vis à vis de ses concurrents. Disney entend aussi proposer ses propres contenus originaux. Plusieurs films seraient ainsi en confection avec un budget alloué de plusieurs milliards de dollars.

Grâce à ces différents éléments qui constituent un véritable avantage pour Disney, certains voient déjà tout le potentiel de la future plateforme. Selon une étude menée par UBS en 2018, Disney+ pourrait bénéficier d’une croissance fulgurante, et atteindre le cap des 50 millions d’abonnés en 5 ans (et 5 millions d’abonnés dès la fin de la première année !). Pour UBS, Disney serait « la seule entreprise média traditionnelle » jouissant d’une telle puissance de marque et des licences indispensables pour se placer aux côtés de Netflix et Amazon sur le marché de la SVOD.

Quel impact pour Netflix ?

Netflix, le premier concerné par ces annonces pourrait donc avoir du souci à se faire.

En effet la création de Disney+ va se traduire pour Netflix par le retrait progressif dès la fin de l’année des licences Disney de son catalogue, qui représentent une source importante de trafic (30 millions de spectateurs pour la série Daredevil par exemple).

Le leader actuel va donc devoir faire des investissements importants pour contrebalancer ces retraits et miser sur ses contenus originaux. Fin 2018 l’entreprise a ainsi levé 2 milliards de dollars pour le développement de son contenu.

Netflix paraît donc se préparer à l’arrivée imminente d’une concurrence notable en multipliant les dépenses en contenus originaux, ce qui commence à se faire sentir sur la rentabilité. La plateforme a d’ailleurs signalé en début d’année une augmentation de ses tarifs aux US (l’offre classique passant de 7,99$ à 8,99$, et l’offre enrichie de 13,99$ à 15,99$).

Toutefois, Ted Sarandos, responsable du contenu, ne semble pas si inquiet actuellement et estime que le marché de la SVOD est suffisamment grand pour que de nouvelles offres se développent sans que cela n’ait de conséquences négatives sur Netflix. Il sera tout de même pertinent de s’intéresser aux abonnements de la plateforme après quelques retraits de son catalogue.

L’entreprise déclare également se sentir davantage menacée et préoccupée par le développement des plateformes de jeux vidéo en streaming et notamment Fortnite (plus de 200 millions de joueurs dans le monde), qui représenterait un véritable pouvoir de captation de l’attention de ses abonnés ; et que « l’attention n’est pas vraiment portée sur Disney+ » …

Les enjeux pour Disney

Plusieurs éléments seront donc à prendre en compte pour que les services proposés par Disney rencontrent leur public. Tout d’abord, le fait de faire coexister 3 offres de SVOD aux US. Afin d’éviter une cannibalisation des abonnés, les cibles devront être clairement identifiées avec une communication adaptée à chaque offre. Ce dispositif devrait néanmoins permettre à Disney de constater rapidement ce qui marche ou non.  

L’un des principaux enjeux pour Disney pour se faire une place sur le marché reposera aussi et surtout sur sa capacité d’exporter ses services à l’international pour développer une véritable audience et s’aligner sur les chiffres de Netflix. Une implantation mondiale compliquée face aux différentes régulations à prendre en compte, telle que l’obligation minimum de 30% d’œuvres européennes fixée en Europe par exemple.

Enfin, face à la domination actuelle de Netflix, qui représente aujourd’hui le standard de performance, Disney devra proposer une offre de qualité, nécessitant des moyens techniques considérables, et proposer une expérience à part entière.

Faustine LEFRANÇOIS

Le Marketing de Luxe mené à la baguette par les Millenials Chinois

L’arrivée du numérique a bousculé les marques de luxe. En effet, à l’origine, l’alliance entre le luxe, synonyme de produits haut de gamme et de services d’exception, et le digital ne parait pas évidente. Cependant, les principaux acteurs du luxe se doivent maintenant répondre aux demandes d’une clientèle, principalement asiatique, extrêmement connectée, et qui privilégie le mobile comme terminal pour les achats. De surcroît, comme les autres industries, le luxe cherche à capter les millenials, qui ne conçoivent pas leur expérience d’achat sans possibilités omnicanales.

Parlons en des Millennials !

Les millennials vivent dans un écosystème en constante évolution. Ils ont grandi dans un univers familial moins conventionnel et donc vivent d’une façon différente avec l’arrivée du digital car cela modifie leur appréciation du monde. Avec la digitalisation, le connectif s’impose et les appartenances se dissipent de plus en plus. Il faut surtout souligné le fait qu’ils définissent parfaitement le mot “consom’acteurs” : mieux informés que leurs aînés, les millennials en savent plus sur les produits et services. Mais la mutation la plus importante réside dans leurs attentes à l’égard des marques. Ils ont des attentes qui sont plus importantes que celles en rapport avec le  produit voire même de la satisfaction qu’ils en tirent.

Pour eux, la marque est un écosystème avec lequel on joue et on vit. C’est un mix de produit physique, de service, d’expérience au quotidien, d’expérience d’achat, d’espaces virtuels… Il est donc impératif pour les marques de luxe d’’être à la hauteur de cette attente, de la promesse et de soigner ses différentes dimensions. D’autre part, ils sont plus résistants que les générations précédentes aux techniques traditionnelles du marketing de luxe. Les marques doivent donc bâtir une nouvelle relation aux consommateurs, plus équilibrée avec une place à l’échange et au dialogue qui n’est pourtant pas la première promesse de ces dernières.

Les Millennials Chinois

Quand on parle des exigences des millenials vis à vis des marques de Luxe, il faut mettre en lumière les millennials chinois.

Les millennials chinois (nés entre 1980 et 2000) représentent 30% des achats dans le Luxe soit une population de 320 millions de consommateurs selon une étude de Bryon, Garnier & Co. Leur forte présence sur le marché du Luxe est un levier pour contraindre les marques à s’adapter à leurs exigences comme par exemple l’immédiateté. De plus, les millennials chinois ont une forte influence sur l’intérêt pour une marque de Luxe.

Prenons un exemple concret pour montrer l’importance pour une marque de Luxe de comprendre ses nouveaux consommateurs connectés : le 18 Novembre 2018, Dolce & Gabbana a posté une vidéo sur le réseau social chinois Weibo pour annoncer son 1er défilé en Chine, à Shanghai. Sur cette vidéo, on voyait une élégante et jeune Chinoise en train d’essayer de manger des spaghetti avec des baguettes. Cette vidéo a tellement été mal apprécié des internautes qu’il y a eu un boycott général, la marque a disparu des sites d’e-commerce et évidemment le défilé a été annulé. Enfin, la cerise sur le gâteau a été les boutiques vides pendant des semaines après cet évènement. En voulant communiquer avec ses consommateurs d’une nouvelle manière, la marque de Luxe n’a pas su identifier les nouveaux codes du digital et a pu observer son impact sur ses ventes et son image de marque par le suite.

Ainsi cette nouvelle jeunesse connectée a bien compris son poids sur le marché du Luxe, il faut maintenant que les marques réussissent à comprendre les nouvelles règles du jeu en matière de marketing digital.

Marion Laloux

La taxe GAFA : révolution ou coup d’épée dans l’eau ?

En effet, certaines entreprises du numérique utilisent des stratégies d’optimisation fiscale afin de diminuer leur charge fiscale, en transférant les profits vers un Etat doté d’une fiscalité plus faible. Ainsi, elles se basent sur des pratiques d’attirance des Etats en s’appuyant sur l’absence d’harmonisation des politiques fiscales[1]. Il est dès lors possible de définir l’optimisation fiscale comme l’utilisation par le contribuable de moyens légaux qui lui permettent d’alléger ses obligations fiscales. Le contribuable tire le meilleur parti des dispositifs fiscaux, ce qui, sur le plan juridique, peut être poursuivi sur le fondement de l’abus de droit[2]. Il est également important de rappeler que le Conseil Constitutionnel fait de la lutte contre la fraude et l’optimisation fiscale des objectifs à valeur constitutionnelles. Les actions prises pour y remédier constituent des motifs d’intérêt général.

LLes quatre géants américains de l’Internet ont depuis longtemps été regroupés sous le terme GAFA : Google, Apple, Facebook et Amazon. Cet acronyme est particulièrement connu aujourd’hui pour être synonyme de montage fiscal, évitement des taxes et optimisation fiscale.

Quelles stratégies d’optimisation fiscale ?

Plusieurs outils peuvent être utilisés par ces entreprises. Par exemple, la mise en place d’une organisation des entreprises qui exploitent la structure de sociétés mères et filles avec les filiales, ou encore jouer sur les modalités de financement des activités. D’autres entreprises ont tendance à créer des structures sans activité particulière qui ne remplissent qu’une fonction : recueillir des flux financiers pour laisser reposer ces flux sans taxation. Pour assurer le transfert de financements de profit, elles vont pratiquer les flux de transferts à l’intérieur d’entreprises du même groupe.

L’exemple de Google et de son sandwich néerlandais[3] est parlant : son montage repose sur un réseau de société sur quatre niveaux.

  • Google Incorporation, société de droit américain qui a concédé ses droits de propriété intellectuelle à une société installée en Irlande
  • Google Ireland Holdings, filiale de la société mère Google Incorporation, qui concède ses droits de propriété intellectuelle à une autre société aux Pays Bas
  • Google Netherlands BV, société de droit néerlandais qui sous-concède ses droits à une autre société
  • Google Ireland Limited, société de droit irlandais installée à Dublin, qui réalise la totalité du chiffre d’affaire hors des Etats-Unis et encaisse les résultats des autres sociétés nationales (exemple : Google France)

Google Ireland Limited va ensuite reverser 72% de son chiffre d’affaire à la société basée aux Pays Bas, qui reverse à son tour 100% de son chiffre d’affaire à Google Ireland Holdings. Cette société étant considérée comme une société de droit bermudienne, elle ne sera donc pas taxée.

Le « Sandwich néerlandais » ou « Double Irish » de Google

(Source : Ecrans)

Ce montage est celui de Google, mais est également pratiqué par les autres géants du Net. Pour remédier à ces montages fiscaux d’évitement de la taxe, les pays de l’Union européenne œuvre à une harmonisation de la politique fiscale, non sans certaines difficultés et risques.

La « taxe GAFA » proposée par l’Union européenne

Au sein de l’Union européenne, chaque Etat est libre de décider de sa politique fiscale. Cela explique pourquoi certaines entreprises, comme les GAFA, parviennent à faire des montages fiscaux, puisque certains pays constituent des leviers d’attraction en proposant une fiscalité avantageuse. Ainsi, des écarts plus ou moins importants existent au sein de l’Union.

Ce système profite aux entreprises du numérique puisqu’ils échappent au principe de l’établissement stable qui réglemente l’imposition des bénéfices. En effet, puisque les sociétés numériques basent leurs activités sur des échanges dématérialisés et des actifs incorporels (par l’utilisation du web), elles profitent de leur « absence physique » pour localiser leurs filiales dans des territoires à fiscalité avantageuse. Selon la Commission européenne, ces entreprises seraient soumises à un taux d’imposition effectif deux fois moins élevé que celui appliqué aux entreprises traditionnelles. Par exemple, Google France a déclaré que son dernier chiffre d’affaire était de 325 millions d’euros, sur lequel l’entreprise a été imposé à hauteur de 14 millions d’euros. Or, le réel chiffre d’affaire de Google France serait estimé à 2 milliards d’euros juste en recettes publicitaires.

Pour contrer ces montages, la Commission européenne a élaboré une proposition de « taxe sur les services numériques » (TSN) le 21 mars 2018 en taxant à hauteur de 3% le chiffre d’affaire, et non les seuls bénéfices du système classique, générés par des activités numériques[4]. Cette taxe serait due dans chaque Etat et ne permettrait donc pas les flux financiers de chiffre d’affaire existants à ce jour. Cette taxe s’appliquerait à environ 150 entreprises puisque leur chiffre d’affaire annuel devra être supérieur à 750 millions d’euros, dont 50 millions imposables au sein de l’Union. Présentée comme une taxe provisoire, la Commission souhaiterait la remplacer à l’avenir par une taxe mondiale.

L’instauration de cette taxe pourrait rapporter 5 milliards d’euros par an aux Etats membres.

Des pays opposés : les risques de la taxe GAFA

Puisque la politique fiscale de l’Union n’est pas harmonisée, elle n’est pas soumise à la procédure législative ordinaire mais à une procédure spéciale : la procédure d’approbation. Ainsi, le Conseil de l’Union européenne, composé des ministres de l’Economie des Etats membres, consulte le Parlement européen qui ne rendra pas un avis contraignant.

Le processus de décision de l’Union européenne

(Source : Toutel’Europe.com)

Ainsi, seuls les ministres de l’Economie ont un pouvoir décisionnel, à l’unanimité, dans l’adoption ou non de la taxe GAFA. Certains pays y sont toutefois fermement opposés. L’Allemagne, par exemple, craint que le soutient et l’adoption de cette taxe nuisent aux importations allemandes des Etats-Unis, notamment le secteur automobile. La Suède, la Finlande et le Danemark ont également exposés leurs doutes dans un communiqué commun où ils craignent pour les relations internationales. De plus, les pays proposant une fiscalité avantageuse, tels que l’Irlande ou le Luxembourg, ne sont pas non plus favorables à cette taxe, puisque la présence des géants sur leur territoire fonde leur attractivité territoriale.

Sans surprise, les géants du Net eux-mêmes sont contre cette taxe, qui constituerait à leurs yeux « un dommage matériel à la croissance économique, à l’innovation et à l’emploi en Europe ». En effet, le patron d’Amazon France s’est récemment exprimé pour mettre en garde contre la taxe GAFA qui, selon lui, pénaliserait en priorité les 10 000 PME françaises qui vendent leurs produits via la plateforme Amazon, mais aussi les emplois et l’export.

Il est également nécessaire de se demander si l’instauration de cette taxe permettra réellement de régler les problèmes d’optimisation fiscale. En effet, si les géants du Net vont être taxés, cela ne permet pas de lutter contre ces pratiques qui continuent de s’appliquer. Il est alors possible de se demander si la taxe GAFA ne se trompe pas de cibles en voulant taxer les entreprises du numérique avec une législation provisoire et à faible impact international.

L’initiative de la taxe GAFA française

En répercussion du mouvement des « gilets jaune », le gouvernement français a annoncé vouloir mettre en place la taxe sur les GAFA dès le 1er janvier 2019. Elle serait elle aussi de 3% et portera sur le chiffre d’affaire réalisé en France. Ce qui est étonnant, c’est que cette taxe a été annoncée avant même son entrée en vigueur. Ainsi, depuis le 1er janvier, les géants du Net, ou plutôt leurs succursales françaises, sont imposées à hauteur de 3%, sans attendre le consentement de nos homologues européens. Le gouvernement espère obtenir ainsi 500 millions d’euros supplémentaires par an grâce à l’instauration de cette taxe.

Toutefois, si cette initiative répond à une volonté citoyenne, il faut se demander si là encore le gouvernement ne se trompe pas de cible en décidant de mener une politique individuelle, sans attendre une solution européenne, voir mondiale, permettant une meilleure règlementation des montages fiscaux, et non pas seulement celle des géants du numérique.

Louise Goin


[1] Il est ici important de différencier l’optimisation fiscale de l’évasion fiscale et de la fraude fiscale. Ces deux dernières ont recours à des dispositions illégales.

[2] Article L. 64 du Livre des Procédures Fiscales : « un abus de droit est une disposition/montage qui présente un caractère fictif en retenant uniquement une application littérale des textes pour éluder le montant de la charge fiscale ».

[3] Voir le rapport de l’Assemblée Nationale n°683 du 21 février 2018 fait au nom de la Commission des Finances, de l’Economie Générale et du Contrôle Budgétaire sur la proposition de loi créant une liste française des paradis fiscaux

[4] Vente de données personnelles, vente d’espaces publicitaires en ligne ciblés, services facilitant les interaction utilisateurs et facilitant la vente de biens et de services entre eux (Airbnb, Uber, Deliveroo…)

Les alliances data, une solution pour les éditeurs face aux GAFA ?

Le 21ème siècle ne sera pas celui de la publicité print, c’est maintenant une triste évidence confirmée. Alors que les géants Facebook et Google s’accaparent la croissance du marché de la publicité, les éditeurs s’en retrouvent dépossédés, laissant leur industrie à la dérive.

L’ère des alliances data

En effet, en 2017 Google et Facebook captaient 78% des dépenses publicitaires du marché français (19e édition de l’Observatoire de l’e-pub, 2017), et 91% en 2018, alors que ces dernières ne cessent d’augmenter elles-aussi (le marché de la publicité digitale ayant dépassé pour la première fois les 4 milliards d’euros en 2018, selon BFM Business). Une situation pouvant s’apparenter à un véritable changement structurel de l’industrie, avec l’encrage d’un duopole du marché publicitaire digital.

Face à cette menace, l’Europe et notamment la France ont vu ces dernières années naître de premières alliances data : elles se nomment Gravity, Verimi ou encore Skyline. L’enjeu : investir dans le marché programmatique afin de ne pas en laissant l’exclusivité aux deux géants.

Gravity, une alliance de rassemblement de grands groupes français, se veut ainsi offrir des solutions alternatives aux solutions dominantes proposées par les acteurs transnationaux. Elle rassemble 150 éditeurs membres partenaires, qu’ils soient issus du milieu de la télévision, de la presse écrite ou encore des télécoms : on y retrouve Marie Claire, BFMTV, L’Equipe, L’Express, Les Echos, le groupe M6, Orange… D’après Fabien Magalon, Directeur Général de l’Alliance Gravity, les facteurs clefs de succès des GAFA sont la massification des audiences et la création de valeur sur la data.

Pour faire face à ces adversaires, Gravity compte donc sur sa stratégie d’union, la capacité à atteindre de grosses volumétries, l’ADN médias premium des marques ou encore le label Digital Ad Trust. En effet, alors que les plateformes Facebook et Youtube ont bien du mal à offrir une véritable brand safety à leurs annonceurs (fake news, commentaires haineux, contenu douteux mal régulé…), les alliances data revendiquent une publicité de meilleure qualité et maîtrisée. Un second vent positif vient souffler en faveur des alliances : à l’heure où le contenu est roi, et où la contextualisation du message fait ses preuves en tant que facteur impactant l’effectivité des publicités, les alliances partent alors avec un avantage sur les GAFA. En effet ,alors que ces derniers ne sont que diffuseurs de contenus, les éditeurs en sont producteurs. Or, une publicité serait bien plus impactante dans un environnement éditorial que sur une plateforme sociale : il s’agirait d’une augmentation de 27% d’intention d’achat (e-marketing, 2017).

Et en 2019 ?

Mais à quoi ressemblent vraiment les chiffres en 2019 ? D’après Fabien Magalon, l’alliance Gravity adresserait 53% de couverture quotidienne sur internet, soit un internaute sur deux  et 90% de couverture mensuelle (Médiamétrie, 2018). Elle recueillerait chaque mois 10 milliards de données. En comparaison, Google et Facebook couvrent respectivement 60% et 70%  de la population au quotidien, Google atteignant les 96,5% par mois. Le Groupe Figaro, lui, en s’associant avec Le Monde au sein de Skyline, revendique une couverture mensuelle de 80% de la population française avec 35 millions de visiteurs uniques sur les trois écrans (e-marketing, 2017). Un bilan qui se veut, pour le moment, très positif.

Une question se soulève tout de même quant à la crédibilité et la puissance de ces alliances face aux GAFA. Nous assistons en effet en cette fin 2018 / début 2019 à une multiplication des alliances, nationales mais également européennes, à l’image de la naissance de Verimi en Allemagne, mastodonte rassemblant les données de Lufthansa, Allianz, Samsung et la Deutsche Bank. Or, toutes sont conscientes que leur force se trouve dans l’union, l’enjeu étant d’égaler les deux géants sur la massification de l’audience touchée. Ainsi, une multitude d’alliances ne mènerait-elle pas logiquement à un affaiblissement face à Google et Facebook ? Pourquoi ne pas créer une seule alliance Française, voire Européenne ? Le manque d’un projet global de rassemblement des éditeurs pourrait être la raison d’un échec futur face aux GAFA.

Autre possible échec de ces projets : l’adoption de la RGPD en 2018. En effet, ce texte européen qui renforce et unifie la protection des données individuelles et personnelles au sein de l’Union Européenne vient bouleverser les piliers de fonctionnement de ces alliances : la collecte et l’utilisation de millions de données personnelles.

Cependant, selon François Magalon, PDG de Gravity, il n’y a pas de quoi s’inquiéter. Selon lui, si la RGPD va impacter les volumétries des données exploitables au travers d’un consentement plus libre et plus explicite, elle améliore également la qualité des données exploitables (Gravity, 2018). Elle consisterait donc à assainir le marché. Et en effet, les alliances semblent bien toutes avoir pleinement adopté la RGPD et être en accord avec la nouvelle régulation. Chacune d’elles respectent sur leur site les principes de transparence (il faut désormais expliquer concrètement d’où vient sa data ) et de consentement imposée par cette dernière (il faut également expliquer comment les consentements sont obtenus, transmis et modifiables). A titre d’exemple, un système de opt-out direct est à présent sur le site de Gravity. Par ailleurs, dans son règlement, l’alliance affirme que ses technologies de ciblage ne permettent pas de tracer l’activité des internautes sur d’autres sites, ni de collecter de données permettant d’identifier un individu.

Mais plus encore : l’implémentation de la RGPD favoriserait les collaborations directes entre éditeurs et annonceurs, selon Grégoire Fremiot, Chief Revenue Officier de Mediarithmics. Alors que Facebook peine à faire face aux régulations européennes et aux condamnations de l’Union Européenne, les alliances, conçues dans le cadre du respect de la RGPD, assurent la traçabilité de bout en bout des données et permettent de gérer ces dernières en temps réel, en accords avec les normes européennes. Ces plateformes, grâce à un modèle de cross-DMP, permettent ainsi à chaque acteur de maîtriser l’accès à sa donnée propriétaire d’une part et d’activer des campagnes sur tous les membres d’autre part.  Ainsi, le paysage concurrentiel s’en voit bouleversé, et l’heure n’est plus au volume seul mais à la qualité et légalité de la data.

Enfin, n’oublions pas que 2018 a surtout vu émerger une troisième grande plateforme publicitaire : Amazon. Son chiffre d’affaires publicitaire attendrait les 16 milliards de dollars en 2021 : bien assez pour en faire une troisième solide menace. Ce mastodonte de la donnée vient donc assombrir l’écosystème des alliances data, et affaiblira certainement ces dernières…2019 sonnerait-elle donc l’heure d’un projet data global à l’échelle européenne ?

Lucie Franco

L’année 2019 marquera-t-elle la fin du géant Steam ?

Photo by Sean Do sur Unsplash

En 2017, l’industrie du jeu vidéo a dépassé les 4,3 milliards d’euros de chiffres d’affaire en France, ce qui représente un record historique dans le secteur. Aujourd’hui, comme a pu l’expliquer le S.E.L.L, l’industrie est également principalement portée par les ventes de jeux dématérialisés, qui représentent plus de 39% des revenus de l’industrie en France.

Lorsque l’on parle de « jeux dématérialisés », on parle surtout d’un nouveau mode de distribution des jeux vidéo, puisqu’on passe d’une distribution physique à une distribution purement digitale, que ce soit sur console, PC, et plus récemment sur Smartphones et tablettes.

Et s’il y a bien un acteur qui a pu profiter de cette dématérialisation des jeux vidéo, c’est sans nul doute la plateforme de distribution de jeux en ligne. Apparue avec la dématérialisation, son développement est intrinsèquement lié au changement de mode de consommation des joueurs, qui ont de plus en plus tendance à télécharger des jeux en ligne plutôt que les acheter sous format physique.

Cette évolution du comportement des consommateurs est d’ailleurs aujourd’hui très visible pour les joueurs de PC Gaming, puisque plus de 95% des ventes de jeux PC en 2017 se sont faites sous format dématérialisé.

Steam, l’acteur incontournable du PC Gaming

Créée en 2003 par le développeur de jeux vidéo Valve, Steam est la première véritable plateforme de distribution de jeux en ligne sur PC. Elle est aujourd’hui sans conteste devenue le leader de la distribution de jeux vidéo en ligne, avec plus de 21 500 jeux proposés dans sa bibliothèque, dont plus de 7600 jeux sortis rien qu’en 2017. En outre, se sont également l’ensemble des services proposés par la plateforme qui lui ont permis d’atteindre le succès qu’on lui connaît aujourd’hui : on peut entre autres citer les fameuses soldes Steam, très attendues par l’ensemble des joueurs.

Mais la plateforme est également devenue un havre pour les créateurs de jeux et notamment pour tous les développeurs indépendants ; en leur donnant la possibilité de s’adresser aux joueurs plus facilement grâce à une importante désintermédiation du marché. Alors que la distribution physique oblige les développeurs à passer par une multitude d’intermédiaires pour sortir leur jeu, proposer leur jeu sur la plateforme de Valve leur permet de simplifier le processus le plus possible en ne passant que par un distributeur, Steam.

Cette désintermédiation permet aussi aux développeurs de récupérer une plus grosse part du gâteau lors de la vente de leur jeu. En l’espèce, Steam ne récupère que 30% des revenus de la vente d’un jeu en sa qualité de distributeur, ce qui permet pour le développeur de récupérer jusqu’à 60% des revenus sur la vente d’un jeu, soit près de 3 fois plus que pour la distribution physique.

Avec 4,3 milliards de dollars de chiffres d’affaire en 2017, et plus de 291 millions de joueurs, Steam est aujourd’hui la plateforme numéro 1 du PC Gaming en Occident, et ne cesse d’établir de nouveaux records d’année en année puisque la plateforme aurait entre autres réussi à conquérir plus de 63 millions de joueurs rien qu’en 2017.

C’est donc tout naturellement que d’autres distributeurs en ligne ont commencé à apparaître et à se positionner en tant que concurrents de Steam sur le marché. Parmi ces nouvelles  plateformes, on peut entre autres retrouver celle de Blizzard Entertainment (Battle.net), d’Electronic Arts (Origin) ou encore celle d’Ubisoft (uPlay).

2018 : un tournant pour la plateforme ?

Bien que Steam ait été confrontée à de nombreux concurrents depuis déjà plus de 15 ans, 2018 a cependant marqué un tournant sur le marché.

Premier coup dur en été 2018, lorsque Discord, logiciel de communication pour les gamers réunissant près de 200 millions d’adeptes, a lancé sa propre boutique de jeux dématérialisés sur sa plateforme. Alors que Twitch s’était elle aussi décidé à sortir sa boutique de jeux en ligne l’année précédente, Steam s’est alors retrouvée face à une concurrence déjà préétablie sur le marché, avec une énorme base de clients potentiels.

Mais c’est un décembre 2018 que le réel coup dur a eu lieu, avec la sortie de l’Epic Games Store, des créateurs du jeu phénomène Fortnite.

A priori, l’Epic Games Store aurait pu être une plateforme de téléchargement de jeux tout à fait ordinaire, qui aurait pu se noyer parmi une multitude de concurrents déjà bien présents dans le secteur. Cependant, la plateforme d’Epic Games a plusieurs points forts, le premier étant … Fortnite.

Ce qu’il faut savoir dans un premier temps, c’est que l’une des particularités du jeu est que sa version PC n’est uniquement disponible que sur le site officiel d’Epic Games. Avec aujourd’hui plus de 125 millions de joueurs, le jeu a donc réussi à se construire sans l’aide de grands noms de l’industrie comme Steam, puisqu’il n’est officiellement jouable sur PC, console et mobile que depuis octobre dernier. C’est donc en partie grâce à la très forte popularité de son jeu qu’Epic Games a réussi à se faire un nom et à pouvoir s’imposer comme potentiel concurrent de Steam.

Le principal point fort de l’Epic Games Store ne réside cependant pas dans la popularité de la marque auprès des joueurs, mais dans sa capacité à attirer les créateurs sur la plateforme. Avec une promesse d’obtenir près de 88% des revenus de la vente d’un jeu contre ‘’seulement’’ 60% sur Steam, Epic Games se place en effet comme un distributeur intéressant pour n’importe quel développeur. De quoi challenger la place du leader du marché.

Encore plus inquiétant pour Steam, la stratégie d’Epic Games a déjà porté ses fruits ! Ubisoft, le 4ème éditeur mondial de jeux vidéo, a déjà annoncé un partenariat d’exclusivité avec l’Epic Games Store pour la sortie de son prochain AAA, Tom Clancy’s : The Division 2. Ce partenariat ne sera pas sans conséquence pour Steam, puisque Ubisoft est l’un des éditeurs vendant le plus de jeux sur sa plateforme : en 2018, pas moins de 3 jeux de l’entreprise française se situaient dans le Top 12 des meilleures ventes de jeux sur Steam (Far Cry 5, Assassin’s Creed Odyssey, Rainbow Six : Siege).    

Mais s’il y a bien une chose qu’Epic Games ne peut pas retirer à Steam, c’est sa réputation et sa capacité de rétention des créateurs … Ou pas ?  

En l’espèce, cela fait quelques années déjà que l’on reproche à Steam sa mauvaise gestion de sa bibliothèque de jeux. Avec de plus en plus de jeux sur sa plateforme, Steam ne réussit pas gérer l’ensemble de ses titres, et beaucoup d’entre eux, notamment les jeux indépendants, passent très souvent inaperçus aux yeux des joueurs. Il y a donc aujourd’hui trop de choix pour les joueurs et pas assez de visibilité pour les créateurs ; de quoi rendre Epic Games encore plus dangereux s’il réussit à se forger une bonne réputation auprès des développeurs.

De la concurrence sur mobile ?

Si Steam doit faire face à une concurrence acharnée sur PC, elle doit aussi se confronter à l’envolée des applications de jeux sur mobile, et même si les deux univers Mobile et PC ne ciblent pas la même population (casual gamers VS core gamers), l’App Store (Apple) et le Google Play Store (Google) n’en sont pas moins des adversaires qu’il ne faut pas sous-estimer. 

Comme a pu le décrire App Annie, c’est effectivement sur mobile que les jeux ont connu la croissance la plus forte. Ils représentent à eux seuls 74% des dépenses sur les magasins d’applications en 2018, et devraient également atteindre près de 60% du marché des jeux d’ici fin 2019 (+35% depuis 2013).

Et alors que les jeux 100% mobiles comme Candy Crush Saga, Clash of Clans ou Pokemon GO font déjà le bonheur d’Apple et de Google (qui récoltent 30% des revenus pour chaque achat fait dans leur magasin d’applications), il est maintenant possible de télécharger des jeux originellement disponibles sur PC.

Ainsi, de grands titres du jeu vidéo comme Final Fantasy XV, Minecraft ou Grand Theft Auto sont aujourd’hui disponibles sur mobile ; mais on peut surtout y retrouver des jeux comme Firewatch, FEZ, Inside ou encore Life is Strange : des pépites du jeu indépendant encore inconnues du grand public avant leur sortie sur mobile.

Alors que le jeu indépendant a fait la gloire de Steam par le passé, leur arrivée sur mobile ne peut être que de mauvais augure pour la plateforme de Valve. Tout comme avec l’Epic Games Store, on pourrait tout à fait envisager que les développeurs décident de prioriser d’autres canaux de distribution que celui de Steam pour sortir leurs dernières nouveautés, en les sortant par exemple d’abord sur mobile, puis sur PC.

Et cela pourrait arriver beaucoup plus rapidement que prévu si Steam ne réussit pas à maintenir sa position de leader sur le marché et à retenir l’ensemble de ses développeurs sur sa plateforme …

Affaire à suivre. 

Eva Hulin

La publicité en ligne et les enfants : stratégies pernicieuses d’acteurs du net

Les enfants sont de plus en plus nombreux à passer du temps sur des applications de jeux sur smartphone. Elles sont devenues des activités incontournables des plus jeunes. Apprendre l’alphabet, entretenir un jardin ou être docteur de peluche, les concepts sont très variés.

Nombre d’entre elles sont gratuites et leur modèle d’affaire pose alors question. En effet, afin d’assurer un modèle économique pérenne, la publicité est le produit largement adopté par les créateurs d’application.

L’Université du Michigan a mené une étude sur les applications mobiles destinées aux jeunes enfants de moins de 5 ans. Elle met en avant les stratégies publicitaires des éditeurs d’applications pour enfants. Sur près de 150 applications testées, les chercheurs montrent que 88 % des applications payantes et 100 % des applications gratuites contenaient de la publicité. 

Bien que la publicité envers les enfants de moins de 13 ans soit très encadrée par la loi en France comme aux États-Unis. Il semble néanmoins que certains fournisseurs de contenus déploient des stratégies publicitaires parfois redoutables.

L’étude de l’Université du Michigan met notamment en cause l’application Doctor Kids éditée par Budadu disponible sur le Playstore de Google. Le jeu sensibilise les jeunes enfants aux pratiques médicales. Mais, sous couvert de cet aspect récréatif, l’application semble marcher sur une corde sensible concernant les règles de publicité. En effet, l’enfant peut acheter des accessoires payants pour évoluer dans le jeu. Pour les pousser à l’achat, l’éditeur a établi une rhétorique discutable. Le Figaro rapporte que « si l’enfant refuse d’acheter les accessoires virtuels payants du jeu, l’un des personnages se met à pleurer. »

L’Autorité de régulation professionnelle de la publicité formule des dispositions générales, reconnues par l’ensemble des professionnels en France. Elle formule les obligations suivantes « 7.1 La publicité ne doit pas suggérer que la seule possession ou l’utilisation d’un produit donne à l’enfant un avantage physique, social ou psychologique sur les autres enfants de son âge, ou que la non-possession de ce produit aurait un effet contraire. » et « 7.2 La publicité s’adressant aux enfants ne doit pas susciter un sentiment d’urgence d’achat ou suggérer que cet achat possède un caractère indispensable. » Le constat est pourtant clair, cette application associe le refus d’achat à quelque chose de douloureux, en jouant sur l’émotionnel et l’affectif particulier développé des enfants. L’éditeur de l’application est garant des contenus publicitaires mis en avant dans son application. 

Mais un autre acteur mérite également une attention particulière : Google. Le géant du web distribue Doctor Kids depuis son magasin d’application. Avant d’y être disponible, les applications doivent répondre à certaines conditions. Les applications pour enfants doivent répondre au programme Designed for Families. Ce programme fournit un ensemble de contraintes liées aux contenus publicitaires notamment ce qui suit « Il doit être possible de distinguer clairement les annonces du contenu de l’application ». Dans le cas de Doctor Kids, il est indéniable que le contenu publicitaire est dissimulé dans l’univers du jeu puisqu’un personnage du jeu auquel l’enfant joue se met à pleurer lorsque ce dernier refuse d’acheter des accessoires. L’univers immersif des applications peut être un danger pour les enfants puisque la publicité est intégrée dans un environnement de divertissement. 

Malgré le fait que Google paraisse transparent sur sa politique envers la publicité, il n’empêche que des failles apparaissent dans la plupart des nombreux produits proposés par la firme. En témoigne notamment l’affaire sur les publicités ciblées envers les enfants de moins de 13 ans sur Youtube en 2016. La plateforme de vidéos en ligne officiellement interdite aux moins de 13 ans est tout de même une pépinière de dessins animés et de comptines pour enfants. YouTube semble délibérément tenter d’attirer ce jeune public sur sa plateforme. En effet, Little Baby Bum se classe comme la 9ème chaîne la plus populaire. La chaîne propose des vidéos où des personnages chantent des comptines. Cumulées, ces vidéos totalisent près de 18 milliards de vues. Vingt-trois associations de défenses des droits des enfants aux États-Unis ont attaqué la plateforme et la société-mère Google pour pratiques illégales. La loi américaine est relativement similaire à la loi française dans ce domaine : le Children’s Online Privacy Protection Act (COPPA) interdit la collecte en ligne d’informations personnelles sur les enfants de moins de 13 ans, sans le consentement vérifiable de l’un des deux parents. Néanmoins, le géant collecterait un nombre colossal de données sur les enfants pour les revendre aux publicitaires dont leur localisation, leur numéro de téléphone ainsi que le modèle d’appareil utilisé alors même qu’il se défend de faire de la publicité ciblée pour les enfants partout sur internet.  

Les enfants sont en effet une cible marketing particulièrement intéressante pour ces empires du net. Ils sont les acheteurs de demain. En les conditionnant dès le plus jeune âge à des comportements d’achat, les entreprises s’assurent des clients fidèles par la suite. Mais ils sont également des prescripteurs d’achat hors pairs. L’enfant a un réel rôle dans les comportements d’achat des adultes, il reconnaît les marques, il a des préférences. La marque Peugeot l’avait d’ailleurs bien compris avec son slogan pour sa voiture 806 : « 806, la voiture que les enfants conseillent aux parents.» En effet, selon Kantar Media en 2016, 47% des mères d’enfants de 0 à 14 ans estiment qu’il est bon de les consulter pour des achats qui les concernant tandis que 30% des mères achètent toujours les marques préférées de leur enfant. Le Baromètre Conso-Famille 2016 montre quant à lui que la prescription des enfants dans les achats alimentaires est particulièrement forte sur les produits pour le petit déjeuner et le gouter. 

Mais l’enfant est également celui qui dispose d’un certain pouvoir d’achat. « À partir de 8 ans, l’enfant commence à s’intéresser au monde des adultes, demande de l’argent de poche et davantage d’autonomie, recherche l’approbation de ses pairs. L’entrée au collège marque le passage vers l’adolescence et ses changements physiques, l’intégration de nouvelles règles, plus seulement celles de la famille mais émanant aussi du clan », résume Xavier Terlet, directeur du cabinet XTC World Innovation. Grâce à l’argent de poche, les enfants deviennent des cibles marketing avec une forte propension à payer pour un produit. Cet argent de poche représentait en 1,1 Mrd € en France en 2016 et LSA Conso note que les enfant n’ont aucun mal à doubler la valeur de leur argent de poche. En effet, cet argent est souvent gardé à la maison et ce sont souvent les parents qui avancent l’argent mais qui ne se font pas souvent remboursé des achats impulsifs de leurs enfants. Par ailleurs, selon Junior City, plus de 80% des 4-14 ans ont un livret d’épargne pour un montant moyen de 1 400 €. 

Ainsi les géants du net ont bien compris l’eldorado que représente la jeunesse connectée dans le ciblage marketing et semble redoubler de stratégies pour les atteindre de manière parfois pernicieuse. 

Valentine Tucoulat

SOURCES

https://www.michigandaily.com/section/research/university-study-finds-excessive-inappropriate-ads-apps-children

https://www.clubic.com/application-mobile/actualite-846883-apps-enfants-truffees-publicites-manipulatrices.html

http://www.lefigaro.fr/secteur/high-tech/2018/04/09/32001-20180409ARTFIG00154-publicites-youtube-accuse-d-avoir-illegalement-cible-des-enfants.php

http://www.lefigaro.fr/medias/2018/09/17/20004-20180917ARTFIG00160-little-baby-bum-l-empire-des-videos-youtube-pour-enfants-qui-vaut-des-millions-d-euros.php

https://www.arpp.org/nous-consulter/regles/regles-de-deontologie/enfant/#toc_0_7

https://developer.android.com/google-play/guides/families/

https://www.lsa-conso.fr/les-kids-petits-et-deja-grands-consommateurs-dossier,239946

LE DROIT A L’OUBLI POUR LES MINEURS

LE DROIT A L’OUBLI POUR LES MINEURS

En partant du constat que la nouvelle génération est hyper connectée, il convient de souligner que les mineurs sont les plus vulnérables car ils sont remplis d’insouciance et ne voit pas le mal.
En parallèle, cette jeunesse est prématurément présente sur les réseaux sociaux et toujours plus exposée pour mieux s’intégrer ou montrer son appartenance à une communauté. Les mineurs se doivent d’être protégés des « erreurs de jeunesse », ils auront l’occasion de les regretter dans le futur que ce soit sur un plan professionnel ou personnel.

L’objectif du droit à l’oubli est de protéger la vie privée de toute personne physique, mais ce droit est encore plus important pour la jeunesse.

En effet, une enquête Ipsos de 2017 révèle que 80% des 13-18 ans ont un smartphone, en 2016 ce chiffre était de 77%. Cette augmentation n’est pas sans conséquences et prouvent que les enfants sont très autonomes sur internet car ils ont de plus en plus accès aux terminaux comme les tablettes ou les smartphones.

Cet article fera un parallèle entre l’exposition voulue par les mineurs sur internet et la protection juridique qui leur est offerte avec un droit à l’oubli renforcé.

Une exposition souhaitée par la jeunesse

Dans la majorité des cas, les mineurs semblent conscients et consentants à publier des informations personnelles les concernant sur internet, mais cela soulève une interrogation sur la valeur du consentement exprimé et sur leur maîtrise des contenus.

Concernant la valeur du consentement exprimé, la justice se trouve face à une problématique déjà étudiée de nombreuses fois.
La question de la protection de l’enfant est assez délicate car il faut à la fois permettre une certaine indépendance et autonomie que le mineur acquiert automatiquement à ses 18 ans ; mais il faut aussi l’accompagner dans ces démarches.
Dans un premier temps, la famille et les parents représentent le premier cercle qui a le devoir de protéger les mineurs et les conseiller face à leur exposition sur les réseaux sociaux et sur internet de façon générale. En effet, les jeunes utilisent les réseaux sociaux et consentement à le faire.
La problématique est que juridiquement le mineur est considéré comme incapable, l’objectif étant d’accompagner le mineur vers une totale autonomie juridique. Les jeunes peuvent en effet accomplir des actes de la vie courante, c’est à dire qui ne leur feront pas courir de risque. L’utilisation d’internet n’est pas considérée sans danger, notamment à cause du partage des données personnelles. C’est pourquoi, le représentant légal du mineur doit donner son consentement.

Cette notion de consentement est d’autant plus importante depuis l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD) le 25 mai 2018. Le consentement des personnes est une base légale autorisant la mise en œuvre de traitements de données à caractère personnel. Ce consentement se définit par quatre critères cumulatifs, il doit être libre, spécifique, éclairé et univoque.

Ce règlement européen a permis aux Etats membres de choisir un âge minimum pour considérer l’enfant mineur sur internet, dans une limite entre 13 et 16 ans. La France a choisi que pour tout mineur âgé de moins de 15 ans, le traitement des données n’est licite que si le consentement est donné par le titulaire de la responsabilité parentale. Au-delà de 15 ans, la loi « Informatique et Libertés » permet de recueillir le consentement de la personne sans autorisation, c’est l’âge de la maturité numérique.

La difficulté de conformité à ce principe réside dans la possibilité de vérifier que les parents donnent réellement leurs autorisations d’accès à un site internet ou permettent la publication de certaines informations.

En ce qui concerne la maitrise du contenu en ligne, l’identification de l’âge de l’utilisateur avant de donner l’accès à un site web représente une autre problématique. Les sites internet interdits aux mineurs sont essentiellement ceux à caractère pornographique ou ceux qui concernent les jeux en ligne.

Les authentifications en ligne nous interrogent sur la véracité des informations fournies par les utilisateurs. Il est très difficile de savoir l’âge de l’internaute, ou son identité quand il suffit de cliquer sur « valider » tout en sachant que les sanctions suites à ce type de mensonges sont presque inexistantes.
Cependant des solutions existent avec des sites internet à authentification forte qui permettent de s’assurer de la véracité de la majorité d’une personne.
A titre d’illustration, il est possible de souligner le développement de certains sites français permettant l’accès à des organismes gouvernementaux qui peuvent nécessiter que la personne se déplace physiquement pour prouver son identité, accompagnée de sa carte d’identité. Cette solution pose un problème de protection du respect de la vie privée et d’un côté pratique. Mais cela reste une option envisageable pour s’assurer de la majorité d’une personne.

Ainsi, malgré le fait que les mineurs veulent s’exposer sur les réseaux sociaux ou internet, ils pourront faire une demande de déréférencement et faire valoir leur droit à l’oubli.

Le droit à l’oubli renforcé aux mineurs

Le droit à l’oubli sur internet est assez paradoxal car il y a dans l’esprit collectif une idée d’éternité avec les capacités infinies offertes par le numérique et cette potentielle mémoire éternelle.

Les premiers à s’être intéressés à cette notion spécifiquement pour les mineurs sont les Etats-Unis avec la loi californienne Erase Law du 1er janvier 2015 qui est la première tentative pour reconnaitre officiellement un droit à l’oubli dans le cadre de la protection des mineurs. Ces derniers peuvent demander le retrait définitif de certaines informations de leur identité affichée sur le web. 

Il est important de souligner que cette loi n’a pas permis le déréférencement, en revanche c’est ce qui a été rendu possible par le RGPD et la Loi du 7 octobre 2016 pour une République numérique. C’est la première fois que textuellement on écrit le mot « droit à l’oubli » dans ce RGPD.

Le droit à l’oubli est une notion qui a été étudiée par la Cour de Justice de l’Union Européenne et permet de rendre les moteurs de recherche responsables du traitement de données à caractère personnel et peut être tenu de supprimer ces données suite à une simple demande.

Depuis l’arrêt Google Spain rendu par la CJUE le 13 mai 2014, le droit au déréférencement est reconnu, ce n’est pas le contenu de l’information qui est supprimé mais son accessibilité via le moteur de recherche. Une personne physique peut exiger d’un exploitant d’un moteur de recherche comme Google ou Yahoo qu’il supprime certains liens. L’exemple type concret est de demander de supprimer les liens internet qui apparaissent après avoir réalisé une recherche en inscrivant son nom. Ce qui peut aussi poser problèmes, ce sont les liens vers des pages web publiés par d’autres utilisateurs qui feraient mentions de données personnelles.

L’article 17 du RGPD prévoit pour toute personne un droit à l’effacement de ses données personnelles après en avoir fait la demande. Désormais, l’article 40 de la loi Informatique et Libertés prévoit un droit à l’oubli spécifique aux mineurs et une procédure accélérée pour l’exercice de ce droit. Pour cela, il faut que la personne concernée ait été mineure au moment de la collecte des données, elle pourra demander de les effacer peu importe qui les a postées.

Si une plateforme refuse de répondre ou répond de façon négative dans un délai d’un mois, la personne pourra saisir la CNIL qui disposera alors de trois semaines pour répondre.

Techniquement, il est possible de demander aux moteurs de recherche certains résultats associés à son nom et prénom ou même à des photos ou vidéos.
Le droit à l’oubli pour les mineurs est en effet renforcé car il faudrait pouvoir demander aux sites internet d’effacer sans justification et rapidement toutes les informations personnelles d’un enfant mineur. Le déréférencement, c’est le fait de demander au moteur de recherche de supprimer le résultat de l’expression.

Enfin, il est possible de se poser la question de l’effectivité d’un renforcement de la protection du mineur, car en parallèle beaucoup de professionnels de l’éducation estiment qu’il est nécessaire d’éduquer les mineurs et que le droit actuel les surprotègent et les déresponsabilisent notamment dans des situations d’injures, d’harcèlements ou de diffamation causés par des mineurs sur internet. Beaucoup d’affaires prouvent que banaliser des actes contraires aux bonnes mœurs et qui peuvent même être pénalement répréhensible n’est pas constructif dans l’éducation de cette jeunesse connectée et peut être nuisibles dans leur avenir.

Caroline Oury

LES INFLUENCEURS VIRTUELS : L’AVENIR DE LA PUBLICITÉ DIGITALE ?

La façon de vendre un produit a évolué et les influenceurs sont une réelle opportunité pour les marques afin de faire connaître leur produit auprès d’une audience spécifique.

Vous avez dit « influence » ?

Action vieille comme le monde, l’influence voit ses premières pratiques théorisées dés le début du XXème siècle par Edward Bernays pour l’industrie. Le terme a peu à peu évolué pour s’individualiser (notamment grâce aux ciblages de plus en plus précis des algorithmes auprès des populations). Le Larousse définit l’influence comme un « pouvoir social et politique de quelqu’un, d’un groupe, qui leur permet d’agir sur le cours des événements et des décisions prises ».

Pour l’Autorité de régulation professionnelle de la publicité (ARPP) un influenceur« exprime un point de vue ou donne des conseils, par écrit, audio et/ou visuel, dans un domaine spécifique et selon un style ou un traitement qui lui sont propres et que son audience identifie». L’objectif affiché est clair : il faut marquer les esprits.

L’efficacité de l’influence

Même si 69% des consommateurs Français se déclarent plutôt libres dans leurs choix d’achats (faisant d’ailleurs plus confiance à leurs pairs qu’aux influenceurs pour prendre une décision d’achat) ; les millenials, plus influençables, restent attachés aux conseils (Etude internationale de Bazaarvoice, menée auprès de 4000 personnes en France, au Royaume-Uni et en Allemagne). Les 18-24 ans se montrent particulièrement sensibles aux discours et aux informations disponibles en ligne comme les commentaires ou les avis. Aussi, 80% des jeunes Français déclarent avoir découvert un produit ou une nouvelle marque directement via à un influenceur. Enfin, 70% des 18-24 ans pensent que le rôle des influenceurs va s’accroître dans les prochaines années (Etude Harris Interactive pour l’Obersvatoire Cetelem)

Ce qui fait dire à Flavien Neuvy, Directeur de L’Observatoire Cetelem, que le rôle des influenceurs virtuels va s’accroître, « cette tendance amène de plus en plus de marques à réfléchir sur la répartition de leur budget publicitaire. De très nombreux Youtubeurs spécialisés font des audiences supérieures aux chaînes d’information en continu avec un public très ciblé. Instagram, et désormais Snapchat, sont les terrains de jeu des influenceurs ». Les marques l’ont bien senti et les plus influentes ont investi massivement dans leur propre influenceur, sorte de robot virtuel au service des produits de l’entreprise.

Une révolution à pas de velours

Dans ce nouveau monde, oubliez les séances de shooting photo, les retouches maquillage et la mythique Jane Fonda (même si elle le vaut bien). Les marques se tournent de plus en plus vers des mannequins 2.0 pour assurer (et verrouiller) leur communication digitale. 

Vraie révolution dans l’univers de la publicité digitale depuis 2016, les influenceurs virtuels brouillent les pistes et naviguent entre fiction et réalité. Mais ce n’est que depuis quelques mois qu’ils débarquent massivement sur les réseaux sociaux. Instagram, avec plus de 800 millions d’abonnés, est leur terrain de jeu numéro 1. 

Sorte de personnes numériques animées, jamais malades, infatigables, polyglottes, malléables, sans limites de temps ou de lieux et éternellement jeunes, ces êtres virtuels ont de quoi séduire et rassurer les annonceurs. Avec eux, les marques gèrent au maximum la communication de leurs produits sur les réseaux. Alors qu’avec un influenceur classique elles ne maîtrisaient pas les photos prises et publiées, les marques ont ainsi trouver le moyen de répliquer en misant sur un influenceur virtuel maison.

Les marques et leur influenceur virtuel

Ces mannequins artificiels et animés envahissent les comptes des plus grandes marques (Dior, Prada, Louis Vuitton, Buccellati, Chanel, Converse etc) habillés et guidés par les services de communication. Alors que 71% des marketeurs considèrent le marketing d’influence comme stratégique (selon Traackr, In EBG Marketing digital 2018), le storytelling est millimétré, qualibré et différent selon les listes de publication pour toucher au plus juste. Tout peut être préparé, planifié des semaines à l’avance et testé sur des échantillons.

La plus célèbre, Miquela, a été créée par une start-up californienne, présentée comme une « agence de gestion de talents artificiellement intelligents ». L’entreprise a récemment levé plusieurs millions de dollars pour développer son activité. Le succès est au rendez-vous puisque Miquela est suivie par 1,5 million d’abonnés sur Instagram ( début janvier 2019, image au centre) .

« Égérie actuelle du joailler italien Buccellati, la top model digitale Noonoouri est apparue en février 2018 et cumule plus de 210 000 abonnés sur son Instagram. Elle est aussi influenceuse mode et s’invite virtuellement aux grands évènements liés au luxe. Lors du défilé Croisière 2019 de Dior, Noonoouri a pris les commandes du compte Instagram de la marque pour faire vivre le show à ses abonnés. Fin août 2018, le directeur artistique de Balmain, Olivier Rousteing dévoilait sa « Balmain Army » sur Instagram, un trio de choc composé de trois égéries virtuelles multi-ethniques. Les trois filles reprennent les codes traditionnels de la beauté pour porter les produits de la marque.

Un flou souhaité par les annonceurs ?

Misant la carte du numérique et du virtuel avec des entités sur mesure entretenant, les marques créent parfois la confusion. Le photographe londonien Cameron-James Wilson a annoncé que les images de la mannequin Shudu Gram, 160 000 abonnés, étaient le fruit d’une création 100% numérique. Mais après cette annonce, certains followers « continuent de penser que Shudu est une personne humaine, tandis que d’autres croient à une gynoïde (un robot qui aurait l’apparence d’une femme) » selon les constats du photographe créateur.

Selon certains spécialistes de la communication ce « flou artistique maintenu volontairement autour de ces célébrités biodigitales permet d’entretenir le mystère utile à la communication des marques. Le doute profite à ces influenceur·se·s d’un nouveau genre, qui font progresser la notoriété des entreprises de manière plus créative et en phase avec leur temps ».

Quoiqu’il en soit, la communication, et au delà, la publicité sur les réseaux sociaux est en train de vivre une nouvelle révolution. Grâce au virtuel, les marques se réapproprient leur communication sur les réseaux en créant des célébrités biodigitales collant à 100% à l’ADN de l’entreprise. Ce nouveau débouché est un formidable vecteur de croissance mais une source non négligeable de problèmes.

Le mariage du réel et du virtuel fait évoluer ces nouveaux êtres bio-digitaux dans l’inconnu. Selon certains spécialistes, on pourrait rapidement devenir « otage de ces créatures ». Que pourrait-il se passer en cas de piratage informatique ? En cas d’erreur de communication, est-ce à la personne virtuelle à s’excuser ou à la marque directement ? Qui est responsable de l’influenceur virtuel ? Son créateur technique ou celui qui le fait vivre au quotidien ?

Plus préoccupant encore, les influenceurs « classiques » en chair et en os devront-ils eux aussi adopter les nouveaux codes et langages corporels stéréotypés des personnages virtuels ? Même si certains y voient une formidable occasion de créativité, d’autres tirent la sonnette d’alarme.

Le 28 novembre 2018, l’ARPP (Autorité de régulation professionnelle de la publicité), s’est interrogée sur l’identification des publications comme des communications commerciales. Via son observatoire des pratiques publicitaires digitales, l’Autorité mène actuellement plusieurs études afin de réguler les posts de ces influenceurs virtuels.

Visiblement dépassés par le phénomène, les acteurs français de la régulation sont encore dans une phase d’observation active face à ces nouvelles « créatures » qui jonglent entre la communication visuelle classique (les rapprochant du comportement humain) et la communication technologique (produite par des procédés issus de l’informatique). Leur identité n’étant à aucun moment clairement définie. S’agit-il de modèles informatisés ? D’hologrammes ? D’êtres humanifiés ? D’avatars mis en scène ? De créatures virtuelles ? De robots ? La boîte de pandore semble ouverte, comme souvent avec le numérique…

Le droit dépassé par ces nouvelles créatures

Alors que les médias sociaux permettent de créer, de faire vivre et de suivre ces modèles artificiels, les questions juridiques sont nombreuses. Les influenceurs en chair et en os ont des partenariats protéiformes. Ils peuvent parler d’un produit en toute indépendance, être sponsorisés ou être dans une relation contractuelle (contrat de mannequin pour la plupart) avec une marque.

Comme souvent avec le numérique, les usages précédent le droit et la rapidité d’exécution ne laisse pas le temps de s’interroger sur les éventuels problèmes de ces nouvelles pratiques. En toute logique, l’influenceur virtuel est le fruit d’une oeuvre collective qui engage la responsabilité du chef. Mais qui du service informatique ou de celui de la communication portera la responsabilité finale des faits et gestes du mannequin ? Vers qui pourra se retourner un internaute ou une association qui se sentira visée par une publication d’un influenceur virtuel ?

Une frontière perméable entre le réel et l’imaginaire 

Plus largement, les journalistes Yoree Koh et Georgia Wells du Wall Street journal s’interrogent à savoir « dans quelle mesure peut-on être authentique si vous n’êtes même pas un être réel ? ». Contrairement à un film, où la frontière entre le réel et l’imaginaire est clairement établi, ici, l’influenceur évolue dans un univers fait de manipulation, d’artificialité et de tromperie sous couvert de coller le plus fidèlement à la réalité. C’est souvent à trop se regarder que l’on chute. La littérature en est témoins… Pour générer du trafic, les marques inventent une vie au personnage ; la narration déployée attire et suscite la curiosité pour une vie que l’on ne sait pas toujours artificielle. Mais jusqu’à quel point pourront aller les marques dans cette nouvelle guerre de l’influence ?

Se pose clairement la question de l’acceptation d’un être non humain au sein des réseaux sociaux. Réseaux dont la promesse est pourtant de miser sur les liens sociaux.

Éléments de réponse au pays du soleil levant où le succès de la chanteuse holographique Hatsune Miku ne se dément pas. L’artiste 2.0 se produit à guichet fermé. Toutefois, selon Natalie Dillon de société Maveron, le Japon a, de part sa culture, une avance considérable sur l’Europe et les Etats-Unis d’Amérique sur ce genre d’approche. Au delà de l’influence, c’est l’ensemble des domaines artistiques qui sont en train de voir apparaître une concurrence biodigitales, mélange d’humain et de numérique.

Florent CHABANEL

Bibliographie

  • Marketing digital 2018, EBG, Laetitia Theodore, Brice Blanquier
  • « Et si les futurs « influenceurs » n’étaient pas humains ? », Rémi Lévêque, usbeketrica.com.
  • « Ces 5 mannequins virtuels qui font un carton sur Instagram », Margaux Dussert, L’ADN.eu/media.
  • « Le business d’une influenceuse virtuelle, »Yoree Koh, Georgia Welles, L’opinion.
  • « ARPP Influenceurs et marques : quelles bonnes pratiques de loyauté et de transparence ? », Média Institute.
  • « COMMUNICATION D’INFLUENCEURS ET MARQUES, nouvelles dispositions adoptées dans la Recommandation ARPP Communication publicitaire digitale », ARPP.org.

AMAZON : LE NOUVEAU GÉANT DE LA PUB ?

 Actuellement, le marché français de la publicité online est accaparé par deux acteurs, que sont Google et Facebook. En effet, ces derniers captent près de 2/3 des investissements, mais plus pour longtemps… Un nouvel entrant est en train de bousculer la hiérarchie : il s’agit d’Amazon qui investit depuis deux ans dans une offre publicitaire baptisée Amazon Media Group. Ce dernier est déjà connecté aux principales places de marché : Google Adexchange, Appnexus, Rubicon Project…

Parviendra t-il à casser le duopole actuel ? 

Il faut savoir que la publicité d’Amazon se concentre sur des produits sponsorisés. Via Amazon Media Group, les annonceurs vont payer pour mettre en valeur leurs produits et accroître leur visibilité sur la plateforme. Concrètement, Amazon propose des bundles « media + data » (offre promotionnelle où un ensemble de produits complémentaires sont vendus ensemble par lot pour attirer les clients) aux agences. Le business model d’Amazon étant très orienté vers le commerce en ligne, Amazon s’efforce donc de créer des campagnes attractives qui renvoient vers l’espace commercial de l’annonceur au sein du site.

Des atouts indéniables

On le sait tous, la monétisation des données personnelles est désormais l’or noir du 21ème siècle, ce qui se vérifie avec les résultats de Google et de Facebook. Sur ce terrain, Amazon ne cache pas ses ambitions : avec près de 4,5 millions de visiteurs par jour et 10 à 21 millions par mois en France (source : Médiamétrie), Amazon est un siphon à data. 

Selon Gartner, l’entreprise a le potentiel nécessaire pour devenir un leader de la publicité numérique au même titre que Google et Facebook.

En fait, le modèle économique est très simple : le but est de récolter le plus d’informations personnelles sur les internautes afin de les revendre aux acteurs de la publicité, annonceurs et agences. Amazon aurait donc un double avantage concurrentiel avec les autres vendeurs d’espaces publicitaires : d’un côté une possession de data énorme, et de l’autre des clients vis-à-vis des marques qui achètent ces espaces publicitaires.

Ainsi, sa force réside dans toutes les informations qu’il détient sur ses clients : 40% des visiteurs d’Amazon sont des acheteurs, selon le PDG de Performics France. Or, cette data transactionnelle n’est pas possédée par Google et Facebook. 

Dès lors, les équipes commerciales travaillent ensemble à la création des clusters d’audience, en fonction de la cible visée. 

Par exemple : un annonceur qui cible les CSP+ pourra se concentrer sur les détenteurs d’American Express. 

Autre atout non négligeable, le programme de livraison « Premium » permet de « verrouiller » près de 4 millions de clients et de proposer aux annonceurs une data géolocalisée de qualité. La base de données d’Amazon serait segmentée à partir des adresses de livraison qu’il détient pour cibler des endroits particuliers (un quartier ou une zone précise de Paris). 

Concrètement, Amazon est prêt à payer chère une data transactionnelle qu’il est difficile de trouver ailleurs même si son coût est, de fait, plus élevé que celui de la donnée socio-démo standard.

Pour parler en chiffres, au cours du troisième trimestre 2018 clôturé fin octobre, Amazon a vu son chiffre d’affaires généré par la publicité exploser de +122% sur un an, passant de 1,1 milliard à 2,5 milliards de dollars. 

« Les annonceurs américains devraient dépenser 4,61 milliards de dollars sur Amazon au cours de l’année 2018 », (cabinet eMarketer). L’entreprise de Jeff Bezos obtiendrait alors une part de marché de 4,1% aux États-Unis, contre 20,6% pour Facebook et 37,1% pour Google.

Un modèle encore fragile pour le moment

Il a été dit plusieurs fois qu’Amazon était un des meilleurs dans le real-time bidding côté ROI, même s’il reste derrière Google AdWords et Facebook. 

Cependant, il est clair que le DSP (Demand Side Platform) d’Amazon laisse à désirer pour le moment puisque les « bugs » sont encore très présents. C’est sans doute la raison pour laquelle Amazon fait encore profil bas. En outre, les formats proposés sont encore très basiques, de la bannière display essentiellement, et la vidéo commence à être proposée en extension d’audience. Mais l’intégration aux deux principaux SSP (Sell Side Platform) vidéo du marché, Freewheel et Youtube, n’est pas encore proposée. 

D’importantes parts de marché vont être à prendre à mesure que les acteurs de la grande consommation vont basculer une partie de leurs investissements TV vers le digital. Ces derniers se tourneront sans doute naturellement vers une offre qui leur garantira un impact direct sur leurs ventes online. 

Microsoft et Oath Net dépassés pour la première fois

Si Amazon est encore un débutant dans la publicité en ligne, il se hisse à la troisième place, avec 4,15% de parts de marché, surpassant pour la première fois Microsoft (4,05%) et Oath Net (ex-Yahoo et AOL, désormais aux mains du groupe télécoms Verizon, 3,32%). En 2018, eMarketer prévoit que le groupe tirera 4,61 milliards de dollars de la publicité aux Etats-Unis.

Pourquoi un telle ascension ? Une raison plausible de ce constat serait que les consommateurs débutent de plus en plus leurs recherches de produits sur Amazon, plutôt que Google. Au deuxième trimestre, Amazon avait dégagé 2,2 milliards de dollars de chiffre d’affaires dans la catégorie « autres ventes » qui recouvrent essentiellement les recettes publicitaires. 

Quelle réaction pour les grands distributeurs ?

Il y a une très forte tendance à se rapprocher des nouveaux concurrents : Wallmart et Carrefour pactisent avec Google, Carrefour avec Tencent, Auchan avec Alibaba, Monoprix avec Amazon… Leur objectif est d’apprendre à travers ces partenariats, mais les risques sont évidemment importants.

Quels sont-ils ? Tout d’abord, que Monoprix perde l’accès à la data, moteur du nouveau modèle vertueux du retail en s’associant à la market place d’Amazon. Que Carrefour et Wallmart offrent potentiellement à un futur concurrent (Google), l’opportunité de développer sa courbe d’expérience dans l’univers du retail. Enfin qu’Auchan prenne le risque de donner les clés de compréhension de nouveaux marchés cible pour Alibaba.

Ainsi, le rapprochement avec des acteurs moins menaçants (de type Criteo, par exemple sur le volet publicitaire) serait probablement une démarche moins risquée pour apprendre les nouveaux codes de ce secteur.

L’avenir d’Amazon : vers de la publicité sur les enceintes connectées ?

Il est clair qu’Amazon s’efforce de se diversifier notamment dans les formats publicitaires. Elle aurait d’ailleurs annoncé le lancement d’un service de streaming gratuit (avec publicité quand même), via sa filiale IMDb. 

Cette stratégie offrira donc une nouvelle voie pour les annonceurs. Un risque demeure encore puisqu’on sait tous qu’il y a peu de plateformes de streaming gratuites qui sont économiquement viables. 

Mais a priori M.Bezos sait ce qu’il fait : il choisit un format attractif (la vidéo) pour attirer le plus d’annonceurs. 

Un des prochains axes possibles de développement serait la publicité sur les enceintes connectées. Amazon a été pionnier en la matière, avec son modèle Echo sorti dès 2015 aux États-Unis. 

« Tous les acteurs réfléchissent à la manière d’intégrer de la publicité sur les enceintes connectées, mais le bon format reste à trouver en terme de durée, de non-intrusivité et de ciblage », explique Caroline Huet (NPA Conseil).

En somme, Amazon tente de s’intercaler entre les deux géants et il y arrivera doucement mais sûrement comme le pense Marcus Wohlsen quand il affirme que «Si Facebook sait qui sont vos amis, Google sait ce qui vous intéresse ponctuellement sur Internet, Amazon sait ce que vous avez acheté et a une bonne idée de ce que vous pourriez vouloir acheter ensuite».

L’avenir nous le dira…

Camille Desroches

SOURCES :

Le futur de la santé se situe avec l’IA

Le développement de l’intelligence artificielle permet d’entrevoir un avenir prometteur pour l’E-santé. Nombreux sont les avantages que permettrait l’instauration d’une telle technologie dans le milieu médical. Ce marché, qui s’ouvre pour les entreprises spécialisées dans l’IA, promet une croissance rapide tant le secteur est demandeur de progrès et de gains de productivité.

L’algorithme au service de la santé

Les algorithmes développés avec l’intelligence artificielle pourraient permettre des gains de temps considérables dans la reconnaissance de symptômes. Les premières avancées ont été remarquées dans l’imagerie médicale et la dermatologie. La reconnaissance d’image automatisée permet d’apporter une assistance précieuse aux médecins en les aidant à identifier des symptômes rapidement. Rendue possible par une puissante recherche de corrélations avec des milliards de données, cette assistance deviendra donc, à terme, le prolongement du médecin.

L’oncologie est assurément le secteur de la santé sur lequel de gros progrès sont attendus. La reconnaissance de mélanomes et la personnalisation du traitement du patients bénéficie déjà du développement de l’IA même si de nombreux progrès restent à faire et que la technologie est encore trop jeune pour être fiable à 100%. Ces avancées ne concernent pour l’instant que quelques pathologies mais nous devrions voir dans les années à venir une technologie plus puissante et plus sûre.

Explorer des terrains inconnus ou méconnus

L’intelligence va donc permettre d’apporter des gains de productivité sur ce que le secteur médical sait déjà faire. En revanche, la vraie promesse de l’intelligence artificielle se situe surtout sur la compréhension de sujet que l’homme ne maîtrise pas ou ne connait pas du tout. La mise en corrélation de milliards de données pourra faire ressortir des points que nous n’aurions pas imaginer ou pourra mettre en lumière des sujets trop flous pour être correctement traités actuellement.

Lors de la conférence Netexplo de 2018 durant laquelle des prix sont décernés à des entreprises sur l’impact de la technologie dans la société, trois des dix lauréats entreprennent dans l’intelligence artificielle sur le secteur médical. Le projet australien Stentrode vise notamment à rendre possible le contrôle d’un exosquelette par la pensée, sans implant d’électrodes dans le cerveau. L’absence d’implant permet d’éviter les infections ou les rejets. Il faut donc être capable de capter les signaux électriques et de les associer avec des mouvements. L’intelligence artificielle avec le machine learning seraient capable de remplir de telles fonctions. Un autre lauréat propose, lui, d’installer une caméra dans une prothèse de bras afin de détecter l’objet à attraper et d’adapter la prise en fonction. Le machine learning et la comparaison de l’image avec une banque de donnée immense pourraient permettre de développer cette technologie de façon précise et efficace.

Améliorer le processus d’hospitalisation et de consultation

Le temps d’attente dans les hôpitaux est pointé du doigt depuis des années, soulevant des questions sur l’efficacité du processus que suit un patient tout au long de son parcours médical ou sur le nombre de personnes employés dans les établissements médicaux. L’instauration de l’intelligence artificielle au sein même de ce processus pourrait permettre une gestion optimale des emplois du temps et de la priorisation des tâches réalisées par le personnel médical. Des gains de temps et de productivité considérables pourraient ainsi être réalisés.

Dans son livre de fiction “Marseille 2040 – Le jour où notre système de santé craquera”, le journaliste Philippe Pujol décrit même une refonte complète du système médical actuel. Il imagine des médecins constamment accompagnés d’un assistant vocal via une puce, les aidant dans la gestion de leur emploi du temps et par l’établissement de pré-diagnostics en analysant des symptômes en amont des consultations. A quelle point se rapprochera-t-on de cette fiction ?

L’innovation et la gestion des données

Les start-ups représente une source d’innovation constante pour n’importe quel secteur d’activité. Tous les jours de nouveaux entrepreneurs souhaitent apporter des innovations majeures dans le milieu de la santé. Sur les cinq dernières années, le cabinet CB Insight a relevé 481 accords conclus entre des start-ups et des professionnels de la santé. Le montant total que représentent ces investissements est estimé, selon le cabinet, à 3.6 milliards d’euros. En revanche beaucoup de jeunes pousses françaises se retrouvent confrontés à un problème lorsqu’elles souhaitent accéder aux données sur la santé de français.

L’accès aux données médicales est extrêmement protégé et contrôlé. Si une entreprise veut accéder à ces données elle doit répondre à un motif d’intérêt public et montrer patte blanche. Il faut déposer un dossier qui sera traité par plusieurs autorités différentes, le processus pouvant être long, voire trop long pour une start-up. De plus, la numérisation des différents travaux médicaux n’est pas optimale en France, ce qui appauvrit la quantité des données disponibles. Hors avec l’intelligence artificielle, quantité rime avec qualité puisque la technologie a besoin du nombre de données le plus grand possible afin d’être précise et pertinente. L’accès aux données médicales en France est donc un sujet important à traiter si l’on veut que les jeunes entreprises françaises puissent innover dans l’hexagone et ne partent pas dans des pays où l’environnement sera plus propice à leur développement.

Hugues Morinet

Intelligence artificielle et aéronautique

Avec un revenu de 5,42 milliards de dollars aujourd’hui et de 59,7 milliards estimés pour 2025, l’intelligence artificielle connait une croissance exponentielle et touche tous les secteurs, de la domotique à l’environnement en passant par la finance. Près de 1550 startups dans le monde en ont fait leur coeur de métier. L’aérien n’est pas en reste : de nombreuses innovations ont vocation à changer la vie des usagers d’un côté, et des professionnels du secteur de l’autre. 

Intelligence artificielle et aéronautique avancent désormais ensemble dans la modernisation du secteur aérien. Se présentant comme la quatrième révolution industrielle, l’IA est considérée par de nombreux spécialistes comme le futur bouleversement que connaîtra notre société, semblable au numérique et à Internet. Dépendant notamment de la technologie dite du « machine learning », l’intelligence artificielle apprend d’elle-même et évolue seule, ce qui lui permet de pouvoir répondre à un maximum de sollicitations. 

De l’embarquement à la douane

Sébastien Couturier, responsable du pôle d’innovation d’ADP, a expliqué lors du AI Business Day d’Octobre 2018 la volonté d’entraîner le groupe Aéroports de Paris dans cette voie. Ailleurs dans le monde, différentes initiatives sont lancées en ce sens, à l’image des aéroports Changi à Singapour ou Logan à Boston bénéficient de technologies au service des usagers pour faciliter l’expérience et répondre à la croissance exponentielle du nombre de passagers. L’embarquementbiométrique, une des principales innovations, permet de reconnaitre les passagers sans le contrôle d’être humain, et permet de fluidifier le trafic.

En Europe, c’est une initiative soutenue par l’Union Européenne qui rentre en période de test dans plusieurs aéroports visant à fluidifier le trafic dans un passage stratégique : la douane aéroportuaire. Nommée « iBorderCtrl », cette intelligence artificielle se présente sous la forme d’une reconnaissance faciale et de documents. Le passager donne ses papiers d’identité et doit répondre à des questions via l’interface, et grâce à une analyse très perfectionnée permettra de dire si ce dernier ment.

Dans un second temps, l’intelligence artificielle aide le travail des professionnels de l’aérien, en sol comme en vol. Des technologies permettent de gérer au mieux les vols et la flotte disponible d’une compagnie selon des critères définis, comme l’expérimente la compagnie aérienne américaine Southwest Airlines, qui utilise ces technologies pour optimiser la consommation de kérosène avec les personnels navigants techniques et reprogrammer les vols de manière optimale en cas d’aléas avec le personnel au sol.

De nombreux enjeux

Ces différents projets soulèvent différents enjeux dans un secteur du transport aérien en pleine reconstruction suite à la crise de ces dernières années. Le premier est marketing : l’intelligence artificielle se trouve être à la croisée entre un phénomène de pop-culture et la nouvelle technologie. Cette dernière s’avère être un atout dans la communication de ces entreprises, renforçant l’image des acteurs de ce marché tout en les maintenant à la pointe et en garantissant la satisfaction des usagers. Au delà du volet de la sécurité et de la fluidité du trafic, l’IA est considérée comme un argument de vente par les différents transporteurs. 

Le transport aérien, en tant que secteur se voulant à la pointe des usages des passagers a tout intérêt d’aller en ce sens, en prolongeant l’expérience digitale de la réservation du billet chez soi à l’embarquement dans l’avion, en passe d’être automatisé. Ces innovations présentent cependant des risques pour le personnel technique, voyant d’un mauvais oeil ces ordinateurs à des postes à risques tels que la douane. Il n’y a donc qu’un pas entre la situation actuelle et le concept de singularité selon lequel un « emballement technologique » emmènerait l’IA vers une croissance qui induirait des changements imprévisibles sur la société humaine, et ainsi aux portes de la science fiction. 

Science fiction qui est aujourd’hui de plus en plus proche : l’avionneur Boeing a affirmé lors du précédent Salon du Bourget vouloir introduire de l’IA dans les cockpits dans le but de créer les premiers avions de ligne autonomes. Intelligence artificielle et aéronautique font plus que jamais bon ménage, affaire à suivre. 

Jacques-Antoine Lando

ON-LINE AD VISIBILITY

Current situation

The metrics with which today an effectiveness is measured, are strictly oriented to the visibility of the ad. The industry is focused on using visibility as the main indicator, therefore, quantitative metrics such as CPM or VCPM are used. Although, these metrics provide us with data about how visible advertising is from advertisers, they do not give us a clear and precise idea of the number of specific views obtained by ads.

According to the Media Rating Council (MRC) and the IAB, the new metrics must be focused on the second half of the following table.

 

Proposed approach

The new approach must be oriented in quantitative metrics. What is proposed is to apply « CPE » or « time based » metrics, which are performance oriented.

CPE

The cost-per-engagement, is a metric applied to the magnitude of involvement by the ad audience. This metric has a qualitative approach and is measured according to the degree of participation that users have with ad (ad). When the user performs some interaction with the ad, it is understood that the visualization is completed, and that the ad has been completely visible.

 

Time based (CPS)

The cost-per-second is a metric applied to the time a person visualizes and interacts with an ad. After having been visible and having been seen, the user has to interact with the ad for more than two seconds, starting from that time it starts to be measured as CPS. This metric is a quantitative metric that starts from a qualitative metric (CPE).

¿ What are the benefits of focusing on qualitative metrics?

The main benefit of using qualitative metrics is to know if the online campaign is fulfilling its visibility objectives. It can also be known if the campaign generates the expected performance for the advertiser, analyzing the results of the metrics and comparing them with the variations in inventories or income.

Likewise, by using a qualitative approach, it is possible to reduce the risk of possible frauds, since they are measured only when a user interacts with the ad, avoiding accounting for actions performed by « robots », « spiders », etc. This user-ad-advertiser contact is completely real and shows that the message has been delivered.

What does it take to be effective?

The effectiveness of a qualitative approach lies in the quality of the advertising campaign, the creativity of it and how attractive it can be for the user. If the campaigns do not have a good content, according to the interests of the public and is not striking, good results are not achieved.

Who uses an engagement-oriented approach?

Currently, the engagement-oriented metrics are used by some companies such as « Financial Times » or « The Guardian », mainly in branding campaigns.

 

 

MIGUEL SOTO G.

Snap Store : le e-commerce au centre de l’expérience sociale

Snap Inc. continue d’innover et vient d’annoncer une toute nouvelle fonctionnalité pour son application ; un Store proposant des produits dérivés. L’objectif n’est pas encore de générer des profits, mais on peut voir se dessiner une nouvelle stratégie. Le développement d’une telle fonctionnalité e-commerce peut se traduire par une volonté par l’entreprise de proposer des achats in-App à destination des annonceurs.


L’innovation ancrée dans l’ADN de la marque.

Aujourd’hui Vendredi 2 février, la société lance le Snap Store, qui se trouve dans la section Discover de l’application Snapchat. Ce store permet d’acheter des articles liés à l’univers Snapchat. Vous pouvez donc vous offrir le Hot Dog dansant version peluche pour 20$, un sweat-shirt BBBF (Bring Back Best Friend), un Tee-shirt Dog Lens pour 20$ et autre.

Ce store est facilement accessible via le Snapcode associé ou encore grâce à la section Discover de l’application. Pour viraliser le lancement, Snapchat propose tous ces articles en édition limité.

Cette fonctionnalité, telle quelle est présentée aujourd’hui n’a pas vocation à devenir une source de revenus majeure pour la société malgré le besoin plutôt urgent de générer des revenus supplémentaires. En effet le Chiffre d’affaire généré par Snap Inc. est en dessous des objectifs fixés pour le dernier trimestre 2017. Du coté de Snap, aucun commentaire sur ce lancement, la fonctionnalité aurait vocation à fidéliser la communauté en offrant la possibilité aux utilisateurs de posséder des objets produits par la marque.

La création de ce store et la vente de ces produits va pouvoir être utile à l’entreprise pour prouver le potentiel du e-commerce intégré à la plateforme ainsi que la capacité d’achat de sa communauté. Si les retombés sont positives, on peut parier sur l’ouverture de cette fonctionnalité aux annonceurs.

En termes de vente produits, la marque au fantôme n’en est pas à son coup d‘essai. En effet Snapchat a précédemment vendu quelques articles, comme un sac à dos Ghostface et des Hot Dogs dansant sur Amazon. Sans parler du succès mitigé des Spectacles malgré une campagne marketing d’envergure. Cette nouvelle tentative est sans doute la plus intéressante et la plus audacieuse car la marque s’appuie pour la première fois directement sur sa plateforme pour créer une expérience d’achat inédite.

 

Quels effets sur la valorisation de Snap Inc. ?

Ce n’est pas grâce aux quelques ventes de « Goodies » que Snap Inc. va réduire les attentes de ses investisseurs. Si aujourd’hui la valorisation de l’entreprise est estimée à 16.7 Milliards de $, il va falloir que l’entreprise trouve rapidement de nouveaux moyens de monétiser sa communauté pour enfin justifier cette valorisation élevée.

On observe ce matin une légère hausse du cours de l’action suite à ce lancement. A noté que cette hausse peut également être due à l’annonce de Facebook concernant le premier ralentissement de la croissance de sa communauté.

 

Vers un nouveau positionnement de la plateforme ?  

L’expérience d’achat créée par Snapchat est totalement intégrée à l’expérience habituelle, les produits sont présentés grâce à des vidéos verticales plein écrans, on retrouve les gestes qu’on a l’habitude de faire sur cette application (Swipe-up…). Lors d’un premier achat, on vous propose naturellement d’enregistrer votre carte, on se doute donc que Snap va consolider sa base de données grâce aux informations bancaires de ses utilisateurs. Cette nouvelle donnée va permettre à Snapchat non seulement de faciliter les futurs achats mais également d’affiner encore plus son ciblage publicitaire.

En dehors de quelques acteurs tels que Amazon, personne n’a encore réussi à créer une expérience d’achat satisfaisante sur mobile. Sites lents, redirection vers des pages non optimisées pour mobile, expérience globale chaotique… En intégrant totalement le processus d’achat à sa plateforme, Snapchat pourrait être en mesure de proposer une solution sérieuse à ces problèmes. De plus l’association de campagnes publicitaires sur l’application liées à la possibilité d’acheter directement le produit apparaît comme une solution très attrayante pour les annonceurs.

Snapchat pourrait se positionner comme un moyen pour les grandes marques d’atteindre un public d’adolescents premium. Reste à voir si cette communauté assez jeune va adhérer à ce nouveau moyen de consommation.

Simon NAUD

Réalité virtuelle et augmentée: nouveau terrain de jeu du marketing

La réalité virtuelle et la réalité augmentée sont des technologies aujourd’hui bien connues du public qui tendent à se développer et à se démocratiser à l’ère du numérique.

 

La réalité augmentée est une technique qui permet d’insérer en temps réel un élément 2D ou 3D dans une image réelle. Elle ne doit pas être confondue avec la réalité virtuelle qui consiste quant à elle en une technique permettant de plonger l’utilisateur dans un monde artificiel généré numériquement.

Des technologies présentes dans le gaming et le divertissement, mais pas seulement.

Principalement associées au gaming et au divertissement, la réalité virtuelle et la réalité augmentée s’ouvrent à bien d’autres domaines, tels que la santé, l’éducation, l’immobilier, et même la pornographie.

Avec l’apparition des adblockers et un désintérêt de plus en plus marqué des consommateurs pour la publicité traditionnelle, les marques ont de cesse de rechercher de nouveaux moyens de communiquer avec leur cible. En ce qu’elles enrichissent l’expérience humaine et offrent de nouveaux formats publicitaires, les techniques de réalité virtuelle et de réalité augmentée peuvent également s’avérer être de puissants outils marketing.

Des technologies au fort potentiel marketing…

En effet, de nombreuses marques voient en ces technologies un large potentiel et ont d’ores et déjà misé sur ces dernières en développant des opérations, plus ou moins importantes, de marketing dit marketing immersif.

C’est notamment le cas de la marque Volvo qui, pour la sortie de son 4×4 XC90, a mis en place une campagne de réalité virtuelle consistant en des vidéos immersives disponibles via une application mobile et donnant l’impression à l’utilisateur de conduire, lui offrant ainsi un « avant-goût » de ce qui l’attend s’il se laisse tenter par l’achat du produit.

Pour citer un exemple plus récent, on peut également évoquer la campagne de Jean-Paul Gaultier dont le but était de relancer deux parfums phares de la maison, à la suite de son rachat par PUIG, et ce de façon immersive et interactive. En parallèle de la campagne publicitaire, des cardboards avaient été distribués dans tous les points de contacts de la marque permettant aux clients de s’immerger davantage dans l’univers de la marque en découvrant l’Atelier du créateur et en y retrouvant les personnages de la campagne.

Si des domaines semblent plus enclins à utiliser ces technologies, tels que ceux du voyage ou de l’automobile, il est à noter que réalité virtuelle et réalité augmentée séduisent de nombreux autres domaines. C’est notamment le cas du domaine cinématographique et de l’audiovisuel, où des espaces dédiés à la réalité virtuelle ont été ouverts (notamment à Paris) au sein desquels l’utilisateur peut avoir accès à des contenus exclusifs en VR relatifs à un film. La série Stranger Things avait également eu recours à cette technologie dans le cadre de la promotion de sa seconde saison, et ce notamment par le biais d’un stand à la Paris Games Week en novembre dernier.

 

La réalité augmentée constitue également un outil de promotion pour les marques en ce qu’elle permet d’enrichir le produit et de développer davantage l’interaction avec le consommateur.

Parmi les promotions intégrant la réalité augmentée on peut notamment citer celle réalisée par la marque Pepsi à Londres, « Unbelievable ». La marque avait détourné un panneau publicitaire d’abribus, qui équipé d’une caméra, retransmettait instantanément l’image située derrière tout en y intégrant des éléments virtuels surprenant les passants, tels qu’un tigre ou une météorite.

Les produits eux-mêmes peuvent également servir de support de réalité augmentée. La marque Heineken proposait dès 2014 une expérience en réalité augmentée où le consommateur pouvait scanner une bouteille et découvrir un spectacle animé sur son smartphone. Toujours dans le même esprit, la marque Heinz offrait la possibilité de scanner le produit avec son smartphone et de découvrir plusieurs recettes associées à son produit alimentaire ce qui permettait également de soumettre au consommateur des utilisations alternatives du produit. Ainsi, le produit en tant que tel devient ici une nouvelle opportunité de communiquer avec le consommateur.

 

Accroître la valeur de la marque, étayer les caractéristiques du produit mais aussi attiser la curiosité ou marquer l’esprit du consommateur, partager des conseils et améliorer l’expérience d’achat sont autant d’avantages que peuvent offrir l’utilisation de ces technologies. Intégrer ces technologies dans sa stratégie marketing est également un bon moyen de développer une certaine continuité entre les campagnes d’une même maque ou d’un même produit. En outre, ces technologies constituent un renouveau en matière de publicité et offre une véritable interaction avec le consommateur.

A l’heure du numérique et étant portées par de grands acteurs tels que Facebook, avec notamment son casque VR Occulus, et Google, avec sa plateforme de développement pour la réalité augmentée, ARCore, les technologies de réalité virtuelle et de réalité augmentée sont également au cœur de la tendance.

Mais une portée limitée techniquement.

Toutefois la portée des campagnes intégrant les technologies de réalité virtuelle et augmentée peut apparaître comme limitée en ce que l’expérience humaine qu’elle apporte ne s’étend qu’aux personnes présentent sur place et ayant concrètement vécue cette expérience. En outre, une bonne campagne liée à ces technologies suppose un contenu de qualité ainsi qu’un certain budget de la part des marques.

 

Lauriane Colson

La reconnaissance faciale, une aubaine pour les entreprises, mais quid de notre vie privée ?

 

Aujourd’hui, un panneau publicitaire équipé de la technologie de reconnaissance faciale est capable d’identifier le genre et l’âge des passants, en scannant quasi instantanément leurs traits de visage. Mais la technologie va encore plus loin en permettant d’effectuer une analyse comportementale des individus qui passent devant le panneau publicitaire : détection des émotions et des réactions face au message, temps passé devant le panneau etc.

On comprend tout de suite l’opportunité réelle que représente, dans ce cas-ci, la reconnaissance faciale pour les annonceurs : obtenir des données à la fois démographiques et comportementales pour fournir un ciblage d’autant plus précis et personnalisé.

Les panneaux publicitaires équipés de la reconnaissance faciale ne sont qu’un exemple parmi d’autres. L’horizon des possibilités est bien plus large : la technologie permet non seulement aux entreprises de proposer de nouveaux services mais également de les vendre mieux, et tout cela en accumulant une masse toujours plus importante de données sur leurs utilisateurs.

Déjà présentes aux Etats-Unis et se développant en Europe, les technologies de reconnaissance faciale sont de plus en plus utilisées, aussi bien par les entreprises du web que par celles appartenant à des secteurs d’activité tels que l’agroalimentaire, dans leurs stratégies marketing et publicitaires.

 

« C’est incroyable tout ce que votre visage peut faire »

C’est un des nouveaux slogans lancés par Apple pour promouvoir la nouvelle fonctionnalité disponible sur l’Iphone X : Face ID. Le géant à la pomme permet maintenant à ses utilisateurs de déverrouiller leur Smartphone mais aussi d’utiliser Apple Pay grâce à la reconnaissance faciale.

Apple n’est évidemment pas seul à développer de nouveaux services basés sur les technologies de reconnaissance faciale, d’autres grands acteurs du numérique s’attèlent également à attribuer à notre visage de multiples fonctions. Facebook, grâce à son algorithme DeepFace, peut désormais informer ses utilisateurs qu’ils apparaissent sur des photos sur lesquelles ils ne sont pourtant pas tagués. Google dispose de FaceNet, fonctionnalité disponible sur Google Photos, qui classe les photos en fonction des personnes y figurant. Alibaba, la plateforme chinoise de e-commerce, propose à ses clients de valider leurs paiements AliPay grâce à la reconnaissance faciale.

Si toutes ces entreprises entendent garantir à leurs clients une plus grande sécurité (un visage se pirate moins facilement qu’un mot de passe) et un gain de temps non négligeable, leur objectif n’en est pas moins économique. Le recours à des technologies de reconnaissance faciale est un moyen de recueillir encore davantage de données que ne le font déjà les techniques courantes de tracking (identifiants, cookies etc). L’analyse des profils et comportements des utilisateurs devient ainsi bien plus précise et gagne en valeur aux yeux des annonceurs et des prestataires de services pour l’amélioration de leurs offres.

 

La clé d’un ciblage publicitaire ultra personnalisé

Grâce à la reconnaissance faciale, les entreprises améliorent leurs offres grâce à une meilleure connaissance client, ou optimisent l’expérience client en proposant de nouveaux services. Mais ce n’est pas le seul atout de cette technologie qui est également la clé d’un ciblage publicitaire ultra personnalisé.

La reconnaissance faciale a déjà commencé à investir plusieurs secteurs d’activité, allant de l’agroalimentaire au prêt-à-porter. Par exemple, Coca-Cola ou encore la BBC mesurent par webcam les expressions faciales d’individus volontaires face aux contenus publicitaires. Ou encore, Adidas prévoit d’installer dans ses magasins des murs digitaux capables d’identifier l’âge et le sexe des clients afin d’afficher les produits les plus adaptés, dans le but d’aider les vendeurs dans leurs démarches commerciales.

Ces initiatives témoignent d’une volonté croissante des annonceurs de maximiser leurs profits et de rentabiliser leurs investissements publicitaires. Conscients de cela, de nombreux acteurs développent justement des technologies de reconnaissance faciale dans le but de mesurer et qualifier l’audience des campagnes plus précisément, en particulier des campagnes outdoor. En effet, l’enjeu apparaît d’autant plus important que, contrairement aux campagnes publicitaires online, la performance de la publicité digital out of home ne peut être mesurée à l’aide d’indicateurs objectifs tels que le nombre de clics.

Parmi les acteurs du développement de la reconnaissance faciale au service du ciblage publicitaire outdoor, l’on peut citer la startup française Jacare Technologies. Son concept se traduit par l’intégration dans un panneau digital d’une caméra capable de détecter si la personne a vu le panneau et pendant combien de temps. L’annonceur peut alors connaître le temps d’attention et l’intérêt du consommateur pour la publicité. De plus, le logiciel est capable de qualifier l’audience en termes d’âge et de sexe, dans le but d’afficher en temps réel des publicités ciblées en fonction de ces caractéristiques. Ainsi, l’annonceur paiera sa campagne en fonction du nombre de fois où sa publicité a été affichée, sachant qu’une même publicité ne pourra être diffusée deux fois à la même personne, que la caméra reconnaîtra. Cet exemple permet donc de comprendre aisément l’intérêt que peuvent éprouver les annonceurs pour la reconnaissance faciale.

Au-delà de l’analyse de l’âge et du genre, des solutions de reconnaissance faciale tentent d’aller encore plus loin en proposant de détecter les émotions des individus : afficher une publicité selon l’humeur de la personne (si elle sourit ou non) ou encore faire payer chaque rire à ses spectateurs (initiative du Teatreuneu de Barcelone).

La reconnaissance faciale, fin du droit à l’anonymat ?

S’il est évident que la reconnaissance faciale représente de réelles opportunités pour les entreprises d’optimiser la connaissance et l’expérience client mais aussi leurs investissements publicitaires, il l’est également que le recours à cette technologie suscite d’importantes réactions chez les consommateurs, au nom du droit à l’anonymat. En effet, il est certes possible de laisser son Smartphone chez soi (pour éviter la géolocalisation et le ciblage trop personnalisé), mais son visage, c’est plus compliqué…

Les individus pouvant être identifiés partout et suivis en temps réel, la frontière entre la vie offline et celle online devient alors de plus en plus fine. Grâce à la reconnaissance faciale, les entreprises sont capables de faire le lien entre une identité numérique (un compte Facebook, une adresse IP etc) et un « individu réel » (une personne unique par son apparence). Autrement-dit, elles peuvent associer nos activités sur le web à nos activités dans le monde physique.

De ce point de vue, la définition (utopique) d’Internet comme un espace d’expression libre garantie par l’anonymat des individus apparaît clairement obsolète. En particulier, lorsque des technologies de reconnaissance faciale d’acteurs privés sont utilisées par des acteurs publics. L’on pense notamment à l’application FindFace, permettant de retrouver, à partir d’une photo, le profil de quelqu’un sur Vkontakte (le Facebook russe). NtechLab, développeur de l’application, a démarré une collaboration avec le gouvernement russe pour équiper les caméras de surveillance des grandes villes du pays de son algorithme de reconnaissance faciale.

Rappelons toutefois qu’actuellement de telles pratiques de surveillance des individus ne sont pas encore rendues possibles par le législateur européen qui impose strictement aux entreprises d’anonymiser les données utilisateurs, et interdit dans la même perspective la mise à disposition du DeepFace de Facebook et du FaceNet de Google sur son territoire.

Même si le RGPD, entrant en vigueur en mai 2018, a pour objet de renforcer la protection de la vie privée des individus, ses dispositions concernant la reconnaissance faciale se verront inévitablement bientôt dépassées par les évolutions de cette technologie. Il n’en sera alors que plus urgent de réaborder les questions de réglementation du droit à l’anonymat, du droit « à la vie offline ».

 

Hanneke Deterne

Qui se cache vraiment derrière la fraude digitale ?

Les investissements des annonceurs ne cessent de grimper. En 2016, ils représentaient plus de 3,5 milliards d’euros dans le monde (source WFA). A contrario, les effets pervers d’un tel phénomène se font sentir en souterrain. D’après la World Federation of Advertisers, la fraude en matière de publicité digitale toucherait 30 à 40 % de ces investissements.

 

Certaines fraudes d’ampleur significative ont fait parler d’elles dans l’univers de la publicité digitale ces dernières années. L’agence de cyber-sécurité américaine White Ops a révélé en 2015 l’existence de « Methbot », une vaste opération d’escroquerie des annonceurs et des régies publicitaires qui aurait été pilotée pendant au moins trois ans par une organisation de pirates russes. White Ops estime que les hackers auraient détourné plus de 180 millions de dollars depuis qu’ils auraient détecté la fraude. Les fraudeurs auraient eu recours au « domain spoofing ». Une des techniques de fraude les plus insidieuses et difficiles à détecter en programmatique. Des faux sites sont créés pour générer du faux trafique et mieux berner l’ensemble des acteurs de la programmatique. Les hackers usurpent le nom de domaine de sites premium. Le fraudeur rentre un faux nom de domaine pour tromper le DSP. Les annonceurs ont le sentiment que leurs publicités sont diffusées sur des sites premium alors qu’il s’agit en réalité de sites frauduleux. Le budget des annonceurs se retrouve donc rogné et le revenu des éditeurs usurpé. C’est ainsi que les commanditaires du Methbot se sont faits passer pour plus de 6 000 sites anglophones de médias et de marques ((CNN, CBS Sports, Fox News, The Huffington Post, Fortune, Facebook…). Les annonceurs auraient été prêts à payer 13 dollars pour 1000 vues, ce qui explique le chiffre mirobolant des pertes endurées.  Alors que les médias surnommaient le dispositif de «  détournement de publicité le plus profitable de l’Histoire », les hackers à l’origine de la fraude- restant inconnus du commun des mortels- se sont faits détrônés.

L’entreprise danoise « Adform » a détecté un dispositif de fraude qui aurait permis aux pirates de détourner rien qu’en l’espace de quatre mois, plus de 60 millions de dollars au détriments d’annonceurs et d’éditeurs premium anglo-saxons tels que le « Financial Times », le « Wall Street Journal », CNN ou encore « The Economist ».  Adform prétend qu’il s’agit, pour l’instant, du plus gros bot network de l’Histoire. Il serait 3 à 4 fois plus gros que le Methbot car les pirates ont usurpé le nom d’un plus grand nombre de domaines de sites premium et utilisé un plus grand réseau de bots pour générer du faux trafique. D’après Jay Stevens, le directeur financier d’Adform, il serait difficile d’estimer avec précision combien d’argent les commanditaires ont détourné d’argent. Néanmoins, il ne manque pas d’ajouter que le dispositif aurait généré jusqu’à $500,00 par jour.

 

Un vide éditorial frappant :

Or, si les médias insistent sur l’ampleur de ces dispositifs frauduleux, il est étonnant de constater que rare sont ceux qui s’intéressent à qui se cache précisément derrière ces dispositifs. En effet, les médias tentent d’expliquer le dispositif de la fraude et ses impacts sur les différents acteurs de la programmatique. Néanmoins, lorsqu’il s’agit particulièrement de gigantesques dispositifs de fraudes comme le « Methbot » ou « l’Hyphbot », l’identité des fraudeurs n’est jamais révélée. Le groupe de pirates Russes a été surnommé « AFK13 » par White Ops. Adform n’a pas révélé à la presse le nom de code attribué aux commanditaires de « l’Hyphbot ». Comme le défend le New York Times, l’opération methbot a été nommée ainsi en référence à la drogue Meth dans son code. Même si la presse dévoile peu d’informations à ce sujet, la Mafia serait ainsi derrière ces dispositifs de grandes ampleur.  Si la fraude digitale progresse à mesure que les investissements en publicité digitale augmentent, ce phénomène ne s’impose pas comme le fer de lance des médias digitaux, du gouvernement et des journalistes. En effet, les articles sur le sujet décrivent davantage les impacts de ces dispositifs frauduleux en omettant les mesures judiciaires prises à l’encontre des fraudeurs.

En effet, la fraude en matière de publicité digitale reste un phénomène obscur, retors. Si elle reste mal connu des journalistes, c’est bien parcequ’il s’agit d’un phénomène qui échappe souvent aux annonceurs et spécialistes de la publicité digitale.

Le terme même d’« ad fraud » est polysémique. Il regroupe à lui seul différents types de fraudes, s’exerçant à plusieurs échelles. Les acteurs à l’origine de telles pratiques peuvent aussi bien être des hackers anonymes, des intermédiaires (SSP ou DSP), ou encore des éditeurs.

Sans oublier que la multiplication du nombre d’intermédiaires en programmatique et la nature des échanges par essence automatisés rend l’identification des fraudeurs beaucoup plus complexe. La fraude est d’autant plus difficile à détecter que même des leaders du marché de la publicité digitale comme Google et Facebook ont été blâmés pour leur manque de transparence au regard « d’erreurs » de mesures d’audiences.

 

Le mystère règne autour de la mesure d’audiences de Facebook et Google :

Les performances des publicités diffusées sur Google et Facebook seraient auto-mesurées. En 2015, des chercheurs européens ont prouvé que Youtube (c’est à dire Google) a facturé des annonceurs alors même qu’ils étaient au courant que leurs publicités étaient vues par des robots. Facebook a également commis à de nombreuses reprises des erreurs de mesures. Depuis septembre 2016, facebook a dévoilé plus d’une douzaine d’erreurs de mesures. Le géant américain avait admis que l’une des données clefs utilisées par les annonceurs pour évaluer l’impact de leur publicité vidéo avait été artificiellement gonflée. Les durées moyennes de visionnage de vidéos avaient été surestimées de 60 à 80 %.  En novembre 2016, Facebook avait également admis une série d’erreurs dans ses mesures d’audiences. Les données agrégées sur 7 ou 28 jours pour l’audience des « pages » (créées sur son réseau par des entreprises ou des marques) oubliaient de « dé-dupliquer » les personnes étant revenues à plusieurs reprises durant ces périodes. Une fois la correction faite, le nombre de visiteurs devrait être revu à la baisse de respectivement 33% et 55%.

Facebook admet également avoir surestimé de 7% à 8% en moyenne, depuis le mois d’août, le temps passé sur les articles publiés par des éditeurs de presse en employant Instant Article (outil permettant d’accéder aux articles plus rapidement). Si l’on ne peut peut parler de fraudes à proprement parler, l’une des conséquences inévitables de ce genre de pratiques n’est autre que la perte de confiance des annonceurs. La plateforme semble prendre très au sérieux la menace de Marc Pritchard, le chief brand officer de P&G (Ariel, Gillette, Pampers, Oral-B, Tampax etc…) de se retirer des plateformes qui ne respectent pas les critères de visibilité du Media Rating Council.

C’est la raison pour laquelle Facebook fait maintenant appel à des partenaires tiers comme Moat, IAS et Comscore. Néanmoins, ils ne taguent pas les pages facebook comme les autres sites. Ils se contentent d’analyser les données brutes déjà traitées en interne par facebook. Ils ne posent donc pas leur tag Javascript autour de la publicité pour mesurer toutes les 100 millisecondes si la bannière est visible et dans quelles proportions.

Cette information a été relayée dans une étude spécialisée menée par les membres du Collège Technologies E-marketing du Collectif de la Performance & de l’Acquisition en septembre 2017. Or, peu de médias, même spécialisés, enquêtent sur cette problématique.

Si la fraude demeure la face obscure du marketing digital, les médias spécialisés devraient donc davantage lever le voile sur ses origines.

Sarah Ouaki

L’intelligence artificielle dans le domaine de la traduction: quelles conséquences sur les médias?

L’intelligence artificielle est aujourd’hui omniprésente et promet des changements radicaux dans la manière dont seront abordés divers domaines dans les prochaines années. Il est intéressant de se pencher sur l’utilisation de telles techniques dans le secteur de la traduction. On essaie aujourd’hui de doter la machine de caractéristiques profondément humaines afin de lui permettre de développer des capacités de compréhension et de restitution semblables à celles d’un être humain.

Depuis quelques années, les intelligences artificielles de traduction sont de plus en plus développées. Ainsi, Google, Facebook et Microsoft – entre autres – se sont dotés d’un système de « traduction neuronale ». Il s’agit d’une technologie reposant sur du « deep learning » : un réseau de neurones artificiels apprend au fur et à mesure grâce à des données et essaie de reproduire, le plus fidèlement possible, le fonctionnement du cerveau humain. Ainsi, Google, par exemple, a lancé en novembre 2016 « Google Neural Machine Translation ». Cette technique basée sur la traduction neuronale a permis de réduire les erreurs de traduction jusqu’à 85% par rapport à « Google Traduction ». En effet, contrairement à « Google Neural Machine Translation », « Google Traduction » n’est pas très fiable dans la mesure où il se base sur le big data, traduit automatiquement des phrases revenant le plus souvent dans sa base de données sans développer une approche globale de la phrase créant ainsi de nombreux contresens.

Le futur de la traduction semble être donc entre les mains de la traduction neuronale : cette technique, aujourd’hui principalement utilisée par les services classiques de traduction pourrait, demain, révolutionner le monde des médias.

 

Quelles sont les conséquences sur les médias de la présence du développement de l’intelligence artificielle dans la traduction ?

 

Concernant les livres, une intelligence artificielle est, en ce moment, pensée au Japon afin de traduire des œuvres de littérature. Ainsi, en mai 2017, Media DO – un distributeur d’e-books japonais – a indiqué qu’il s’associait à deux entreprises nationales spécialisées dans l’intelligence artificielle. Ces entreprises – « Internet Research Institute » et « Al Squared » devraient permettre à Media DO de proposer des services de résumés et de traduction automatique de ses e-books. Ainsi, Media DO souhaite tout d’abord créer des résumés de livres à publier sur son site internet grâce à une intelligence artificielle qui analyserait les relations entre les différents mots et phrases d’un texte donné et qui saurait en faire ressortir les principales notions, les mots clés. Par ailleurs, concernant la traduction, Media DO a pour objectif de proposer sur sa boutique en ligne un service de résumés traduits automatiquement en anglais. Dans un premier temps et afin de s’internationaliser, l’entreprise compte proposer une traduction de résumés du japonais à l’anglais. Par la suite, à plus long terme, l’entreprise voudrait traduire des e-books entiers en anglais.

Dans le domaine de la vidéo, une entreprise française, Mediawen, développe une solution de traitement et de doublage de vidéo automatique. En se basant sur l’intelligence artificielle, la start-up parisienne travaille sur la réalisation de sous-titrages. Ainsi, sous-titrages multilingues, transcriptions, doublages automatiques et voice-over sont proposés par Mediawen dans divers domaines. La start-up développe également un nouveau modèle de diffusion afin de s’internationaliser : elle se base sur un service cloud de diffusion mondiale et non pas sur un classique modèle de licences, perçues comme étant trop chères et n’offrant pas assez de souplesse. Selon Mediawen, sa solution basée sur l’intelligence officielle lui permet de réduire de 60% le temps passé en traduction par rapport à une entreprise classique. La start-up se vante également de pouvoir aujourd’hui travailler en soixante langues.

Concernant le doublage, on peut imaginer que d’ici quelques années, l’intelligence artificielle permettra de développer des technologies relatives aux assistants personnels ou encore au doublage de films. Par ailleurs, concernant le divertissement, des voix de synthèse pourraient permettre de remplacer les voix humaines pour la lecture de livres audio par exemple. En septembre 2017, « Google DeepMind » – filiale britannique d’intelligence artificielle d’Alphabet – a mis au point une méthode permettant de reproduire la voix humaine, par le biais de réseaux de neurones à la synthèse vocale. Ainsi, on peut rêver d’un futur où films, journaux télévisés internationaux ou encore émissions de divertissement seraient doublés, en temps réel, grâce à l’intelligence artificielle et aux systèmes de voix de synthèse aujourd’hui en développement.

La traduction orale semble donc être la dernière étape de la révolution de l’intelligence artificielle dans le domaine de la traduction. Cela consiste à traduire simultanément des dialogues soit dans le cadre de conversations par téléphone ou vidéo entre amis, soit dans un cadre plus professionnel permettant ainsi la traduction orale de conférences, de séminaires etc. Des prototypes d’intelligence artificielle pour la traduction orale existent. Ainsi, Skype, Waverly Labs ou encore Pilot – ce dernier développant une intelligence artificielle pour des oreillettes permettant la traduction simultanée – ont pensé à des techniques. Par ailleurs, Alex Waibel, professeur à l’Institut technologique de Karlsruhe entend également traduire ses conférences grâce à l’intelligence artificielle. Cependant, ces prototypes sont encore très perfectibles. Les entreprises se heurtent à deux principales difficultés. Tout d’abord, la traduction en elle-même demande une précision et une compréhension très poussées d’un discours. Cela est extrêmement complexe à aborder. Ensuite, il est très difficile de reconnaître la parole et donc de la transcrire en texte pour pouvoir la traduire par la suite : la spontanéité du langage peut bloquer l’intelligence artificielle. De fait, lors d’une prise de parole, on devra toujours faire face aux « intonations », aux « ponctuations », aux « hésitations dans un dialogue » comme l’a souligné le professeur Besacier de l’Université Grenoble-Alpes.

Malgré toutes les technologies actuellement en développement et les importantes conséquences des méthodes d’intelligence artificielle de traduction sur les médias, rien ne vaut – pour le moment – un traducteur humain. En effet, cela a été démontré en Corée du Sud où a eu lieu – en 2017 – une confrontation entre quatre traducteurs professionnels humains et trois programmes de traduction à base d’intelligence artificielle. Les participants avaient 50 minutes pour traduire quatre textes. Et le moins que l’on puisse dire, c’est que la machine n’a pas encore dépassé l’homme! Selon les organisateurs de la compétition, les intelligences artificielles font des erreurs grammaticales, ne comprennent pas suffisamment le contexte et surtout ont du mal à saisir les nuances et les émotions dans les textes. Alors, l’intelligence artificielle saura-t-elle résoudre cela et se présenter comme un concurrent à la hauteur de l’humain? Affaire à suivre… 

Claire Maîtrot

Quitter la version mobile