Les bulles de filtre : une influence sociale et politique ?

Parmi les nombreuses critiques récentes issues de la presse occidentale du réseau social TikTok, revient souvent l’idée que l’application du géant chinois Byte Dance favoriserait la création de bulles de filtre, et ce bien plus que ses concurrents comme Facebook, Instagram, Twitter ou même LinkedIn.

L’existence des bulles de filtre

Concept souvent répandu au sein des presses presque lobbystes « anti réseaux sociaux » mais finalement assez peu démontré, la bulle de filtre est décrite par Eli Rider comme « l’état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d’une personnalisation mise en place à son insu ».

Ainsi, en utilisant diverses données collectées sur les utilisateurs, des algorithmes déterminent les contenus qui leur seront accessibles. L’expression « bulle de filtres » illustre l’isolement résultant de ce mécanisme : chaque utilisateur navigue dans une version unique du web, adaptée à ses préférences et créant donc une « bulle » personnalisée.

Stratégies d’audience et algorithmes

En conséquence de leurs modèles d’affaires centrés sur le contenu et la data, les grandes entreprises d’internet développent des stratégies d’audience reposant sur la hiérarchisation des pages web dictée par l’implémentation d’algorithmes, comme le Page Rank de Google, qui offre plus de visibilité aux pages les plus citées, liées et commentées. Et l’on retrouve également ces mêmes types de stratégies sur les réseaux sociaux.

Dans A quoi rêvent les algorithmes ? , Dominique Cardon explique que « les calculateurs reproduisent l’ordre social ».

Ces algorithmes trient et hiérarchisent les informations, sans que l’on sache précisément leurs composantes techniques. Ces actions ont des visées commerciales, en présentant aux utilisateurs des publicités adaptées à leur profil. On assiste donc à une « personnalisation » de l’information.

De plus, les algorithmes renforcent la culture du « winner takes all » : grâce aux recommandations, plus un contenu est vu, plus il sera suggéré à d’autres utilisateurs. Celui-ci entre alors dans un cercle vertueux (ou vicieux ?), au détriment des autres contenus qui sont complètement négligés. C’est pour cette raison que les algorithmes ont tendance à rendre certaines informations invisibles. Et ces derrière ces deux concepts que se cache celui de la chambre d’écho, au cœur du débat sur les bulles de filtre. Cette notion fait référence à l’idée que les réseaux sociaux, en créant un environnement cognitivement homogène, nous renvoient une image emprisonnant de nous-mêmes, validant ainsi nos opinions et croyances préexistantes et annihilant notre libre arbitre.

Renforcement de l’entre-soi idéologique et fragmentation de la réalité sociale

Ce constat un tant soit peu dramatique est susceptible d’entraîner des conséquences directs sur la politisation des individus. L’entre-soi idéologique serait donc favorisé par Internet et plus particulièrement par les réseaux sociaux. Les forums tels que « jeuxvideo.com » sont connus pour abriter une communauté d’extrême droite ou de droite radicale, créant une chambre d’écho où ces idées sont renforcées. Les utilisateurs opposés à ces idéologies évitent généralement ce site, ce qui explique le faible nombre de signalements. En revanche, Facebook et Twitter rassemblent des communautés et opinions diverses, ce qui peut entraîner des confrontations idéologiques et plus de signalements de contenus discriminatoires. De plus, les algorithmes de recommandation sur des plateformes comme Instagram ou TikTok maintiennent ces bulles en utilisant les traces numériques telles que les likes, les re-visionnages ou les commentaires sur du contenu d’extrême droite par exemple. Le contenu suivant sera alors influencé par ces traces. Cela conduit à une information biaisée, concentrée sur des thématiques réactionnaires, identitaires, racistes ou xénophobes.

En fin de compte, les individus se retrouvent dans une réalité fragmentée, contribuant ainsi à la segmentation de la société. Les groupes sociaux continuent d’exister sur Internet et l’idée d’un internet en dehors du monde est illusoire. Les nouvelles technologies ne modifient pas fondamentalement les rapports sociaux hors ligne. Les conflits et dynamiques sociales existent indépendamment de l’Internet. Les individus ont une existence sociale qui dépasse le contexte en ligne et leur comportement sur Internet est souvent influencé par leur réalité sociale et leur identité en dehors de la sphère numérique. Cependant, cette existence sociale est renforcée par ces réseaux. Pendant les années 2015 et 2016, marquées par une vague d’attentats terroristes en France, le nombre de signalements de contenus haineux en ligne a connu une augmentation significative. Les catégories de contenus les plus signalées étaient celles impliquant des « provocations publiques à la haine et la discrimination raciale, ethnique ou religieuse », des « apologies de crimes de guerre et contre l’humanité », ainsi que des « injures ou diffamations xénophobes ou discriminatoires ».  Cette corrélation entre les événements majeurs tels que les attentats et l’augmentation des signalements démontre en partie que les réseaux sociaux peuvent refléter voire amplifier les phénomènes sociaux qui se produisent à l’extérieur comme en témoigne l’augmentation des rixes mortels entre jeunes dans les quartiers populaires.

Au-delà des limites des bulles de filtre : la démocratisation de l’espace public

Ce constat ne doit cependant pas devenir dogmatique car Internet reste selon Dominique Cardon un des meilleurs moyens de démocratisation  de l’espace public. Dans La démocratie Internet, Internet est décrit comme le moyen d’un élargissement de l’espace public, favorisant sa démocratisation. L’auteur soutient que l’apparition de nouveaux acteurs dans l’espace public a entraîné la levée des obstacles qui bloquaient l’accès à la parole, et a multiplié des formes des expressions publiques plus subjectives, personnelles et privées via les réseaux sociaux.

« Internet pousse les murs de l’espace public, tout en enlevant le plancher ».

Internet a bouleversé la hiérarchie des émetteurs de savoir et de vérité, autrefois presque incontestable dans les médias de masse traditionnels. Aujourd’hui, l’autorité ne repose plus uniquement sur quelques institutions médiatiques établies, telles que les journaux, les chaînes de télévision et les radios. Internet a permis à n’importe qui de devenir un émetteur potentiel de savoir et d’informations. Les plateformes en ligne, comme les blogs, les réseaux sociaux et les sites web indépendants, offrent à chacun la possibilité de partager ses idées, opinions et connaissances avec un public potentiellement mondial. Cette démocratisation de la production de contenu a donné lieu à une multitude de sources d’information accessibles aux individus, renforçant en théorie l’idée de neutralité globale des réseaux. Cela remet en question les médias de masse, les nouveaux médias étant perçus à différents moments comme une avancée, une libération des formes de communication traditionnelles, favorisant une meilleure interconnexion entre les individus et un nouveau lien social.

Fractures informationnelles et polarisation du paysage médiatique

Si le marché de l’information s’est profondément transformé avec l’émergence des réseaux, les médias traditionnels restent assez consommés en particulier en France. Il semble donc intéressant d’analyser la polarisation de l’espace médiatique français pour comprendre les fractures informationnelles auxquelles contribuent les bulles de filtres des nouveaux médias.

Selon un rapport publié par l’Institut Montaigne, Bruno Patino, Dominique Cardon et Théophile Lenoir affirment que le champ médiatique en France est structuré selon un axe vertical, avec d’un côté les médias du centre et de l’autre les médias périphériques, tandis qu’aux États-Unis, il est polarisé selon un axe gauche droite horizontal. Cependant, quel que soit le pays, les réseaux sociaux proches du centre sont utilisés par une population d’individus diplômés de l’enseignement supérieur : « C’est en fait un monde social qui élargit le champ des dominants : hommes politiques, journalistes, urbains, etc. ».

Ainsi, cette polarisation se répercute sur les réseaux sociaux. Dans les médias du centre, les plus institutionnalisés, dont Twitter et Facebook sont relativement proches, la circulation de l’information fonctionne différemment que dans les espaces les plus éloignés de ce centre. Une fraction de la population se voit exclue de l’espace public prédominant où elle forge sa relation avec le monde, en s’opposant aux médias centraux. Les « fake news » résultent alors d’une opposition sociale entre le public central et le public périphérique. Pour qu’une fausse information soit crédible, elle doit être soutenue par une personne ayant une certaine autorité. Ce phénomène, appelé « blanchiment d’information » développé par Dominique Cardon, implique que des personnalités influentes légitiment cette information. Les « fake news » ne peuvent se propager que si des individus y croient, les diffusent, les ciblent et les adaptent pour les intégrer à l’agenda médiatique, souvent en créant une communauté. Les milieux d’extrême droite identitaires utilisent principalement cette tactique en diffusant des informations exagérées, manipulées ou sorties de leur contexte, renforçant ainsi les bulles de filtres et confortant leurs partisans. Et on assiste de plus en plus à un glissement dangereux de certains médias et réseaux sociaux.

Une influence palpable pour qui ?

En conclusion, Internet et les réseaux sociaux reflète nos comportements dans le monde réel en les modifiant légèrement. Si un individu évolue dans un environnement socialement homogène, fermé ou de niche comme les mouvements identitaires, la « bulle » aura une influence significative amplifiante. Nonobstant, beaucoup de progrès techniques offrent désormais la possibilité aux individus même marginalisés de retrouver leur libre arbitre par un contrôle technique des filtres.

Mais pour la majorité de la population, il est compliqué de prouver que les réseaux sociaux via les bulles de filtre emprisonnent les individus. Les réseaux sociaux formeraient en fait une multitude de communautés où les informations circuleraient entre elles via les liens faibles augmentant ainsi la neutralité. En outre, l’irrationalité psychologique des individus est telle qu’il est difficile d’affirmer avec certitude que les propositions de contenu des algorithmes exercent une grande influence sur nos comportement sociaux et politiques, pour une majorité modérée aux sources informationnelles diverses en tout cas…

Bibliographie

  • Dominique Cardon : A quoi rêvent les algorithmes ?
  • Dominique Cardon : La Démocratie d’Internet
  • Institut Montaigne : Bruno Patino, Dominique Cardon et Théophile Lenoir
  • ENS Lyon
  • Wikipédia
  • Le Monde
  • Le Bilan
  • Le Figaro
  • Radio France
  • L’Obs
  • France Culture
  • Libération
  • Le Parisien
  • Le Journal du Net
  • La Gazette des Communes
  • L’internaute

Un article écrit par Jonathan Lévy Guillain

Twitter : des communautés engagées autour du Esport – Le cas Karmine Corp

La Karmine Corp : c’est quoi ?

La Karmine Corp est une structure d’Esport française formée le 30 mars 2020 par Kamel « Kameto » Kebir, alors déjà connu en tant que streameur. En novembre 2020, il est rejoint à la direction par Amine « Prime » Mekri, notamment connu pour sa carrière sur Youtube et dans le rap. La structure possède plusieurs joueurs professionnels regroupés au sein d’équipes, qui participent à des compétitions concernant les jeux compétitifs League of Legends, TrackMania, Teamfight Tactics et Rocket League dans le but d’atteindre la première place du podium et de remporter des titres ainsi que des prix.

Aujourd’hui, la Karmine Corp est suivie par près de 315 000 personnes sur Twitter, réseau sur lequel elle est le plus active, et par près de 100 000 personnes sur Instagram, mais la structure possède également une page officielle sur LinkedIn. Toutefois, le réseau social qui a vraiment permis de construire une communauté engagée d’« ultras » est Twitter.

Twitter : un engouement autour des sujets gaming et esport

D’un point de vue global, Twitter est un terrain favorable au développement de communautés engagées autour du gaming et de l’Esport. En effet, il s’agit d’un des centres d’intérêt importants pour les utilisateurs de Twitter. Ainsi, en 2021, 2.4 milliards de tweets ont été postés sur le réseau, d’après la Retrospective Gaming 2021 de Twitter. Twitter est un des endroits de prédilection pour les fans d’Esport qui y encouragent et y supportent leurs équipes fétiches, et y commentent leurs matchs favoris. En France, on retrouve notamment parmi les jeux et franchises les plus tweetés en 2021, League of Legends. C’est notamment un des facteurs explicatifs de l’engouement populaire autour de la Karmine Corp, qui est essentiellement relatif à son équipe (roaster) de joueurs League of Legends.

Un engouement populaire et la formation d’une communauté d’« ultras »

Les bonnes performances des équipes Karmine Corp, notamment de son équipe League of Legends, ne constituent pas le seul facteur explicatif de l’engouement autour de la structure sur Twitter.

A l’origine de la Karmine Corp, il y a d’abord deux personnalités populaires sur les réseaux sociaux. Kameto, le fondateur de la structure qui commente chacun des matchs de son équipe et s’exprime majoritairement sur celle-ci via Twitter, a notamment constaté un phénomène de conversion de son audience vers l’audience de la Karmine Corp : «Beaucoup de gens ont suivi par curiosité, raconte Kameto. Ils sont venus sur le stream, ont vu qu’il y avait une ambiance de fou et sont revenus toutes les semaines. C’est comme s’ils suivaient leur équipe de foot.». De nombreux abonnés de la Karmine Corp ont découvert le club (et parfois même le Esport) par le biais de Kameto. La base conséquente des abonnés de ce dernier a rapidement permis de constituer une base solide à la communauté Karmine Corp.

Au sein de son équipe League of Legends constituée de 5 individus, deux de ses membres se placent parmi les 10 joueurs Esport les plus tweetés au monde, d’après les données de Twitter pour le premier quart de l’année 2022. On y retrouve notamment le suédois Martin « Rekkles » Larsson  à la 3ème position, ainsi que Lucas « Cabochard » Simon-Meslet à la 6ème position. Des membres influents qui attirent l’attention sur la structure au-delà des frontières.

A l’instar de certaines compétitions sportives (telles que l’UFC), la rivalité et les show matchs sont courants dans le domaine du Esport et permettent de générer un grand nombre d’impressions sur Twitter ainsi que de populariser la structure en l’amenant dans les Top Tendances. La Karmine Corp a ainsi des rivaux au sein de la Ligue Française, tels que Vitality et Solary (autre équipe portée par des streamers), donnant lieu à des confrontations sur Twitter accompagnées de hashtags, portant les deux équipes en Top Tendances. Les rivalités s’exportent également avec des structures internationales à forte renommée et se transforment en show matchs extrêmement commentés sur Twitter, comme avec l’espagnole KOI, récemment lancée et dirigée par Ibai, l’un des streamers hispanophones les plus populaires au monde.

La Karmine Corp possède une large communauté de fans qui se définissent comme des « ultras ». Reconnaissables par le sigle KC présent devant leurs pseudos Twitter, pour les plus fervents, ils sont également nombreux à afficher une photo de profil représentant un mur bleu (blue wall), un visuel associé à la Karmine Corp en référence à un mouvement produit lors des matchs. Il s’agit notamment du nom choisi par l’association officielle de la Karmine Corp qui comptabilise plus de 15 000 abonnés sur Twitter et possède son propre canal Discord. Il existe d’autres groupes sur Twitter, telle qu’une page pour les supporters « ultras » qui regroupe plus de 40 000 followers. Une des raisons de l’engagement de la communauté Karmine Corp, c’est ainsi la capacité a créer un fort sentiment d’appartenance sur Twitter.

Toutefois, la communauté peut parfois souffrir de la mauvaise publicité faite par la minorité bruyante de Twitter. Le réseau social est peu modéré et les vagues de harcèlement sont un phénomène fréquent sur la plateforme de l’oiseau bleu. Ainsi, Laure Valée, journaliste et intervieweuse des compétitions League of Legends, a subi une vague de harcèlement après la diffusion d’une vidéo contenant une séquence montrant les mauvaises performances du joueur phare de la Karmine Corp, Rekkles. Certains « ultras » lui ont fait comprendre leur mécontentement, notamment via des propos sexistes et insultants, sous couvert de l’anonymat permis par la plateforme.

La Karmine Corp mise en lumière

Aujourd’hui, la Karmine Corp est considérée comme une des équipes les plus influentes au monde dans la compétition de League of Legends. D’après les données de Twitter pour le premier quart de l’année 2022, la Karmine Corp était à la 5ème position des structures Esport les plus mentionnées sur Twitter, et la seule structure française du classement.

Les performances rapides et excellentes, ainsi que l’engouement autour de la Karmine Corp dès son arrivée en première division de la Ligue Française, ont amené d’autres personnalités populaires sur les réseaux sociaux, à exprimer et afficher leur soutien envers la structure via Twitter, la mettant ainsi en lumière. C’est notamment ce qu’ont fait Squeezie (8,4 millions d’abonnés sur Twitter) et Gotaga (1,7 millions d’abonnés sur Twitter).

Cette mise en lumière dépasse même le cadre de Twitter, puisque l’existence et les performances de la Karmine Corp parviennent jusqu’à la classe politique, qui y trouvent un moyen de s’adresser à la jeunesse française. Ainsi, Emmanuel Macron a envoyé un message de soutien le 3 mai 2021 suite à la victoire de la coupe d’Europe via message privé sur Twitter à la Karmine Corp. Il a également récemment mentionné le club français, en citant le domaine de l’Esport comme « another field of French excellence with teams like Team Vitality or Karmine Corp ».

Sarah Collot

La publicité segmentée à la télévision française : contexte, opportunités, limites

© AFP / Riccardo Milani / Hans Lucas


Face à une concurrence extrêmement forte du digital sur le marché de la publicité, la télévision doit renouveler sa proposition. En effet, depuis le point de renversement en 2016 où le digital a dépassé la télévision sur son poids dans le marché publicitaire médiatique, les chaînes sont challengées sur leur attractivité. La crise sanitaire n’a pas aidé, mais le bilan est plus qu’honnête : en 2021, la télévision représentait sur les neuf premiers mois de l’année 2,4 milliards d’euros de recettes, se payant même le luxe d’être en légère progression de 2,6% par rapport à la même période en 2019 (avant crise)[1]. Toutefois, sur la décennie, ce marché a vu sa croissance passer de plus de 10% en 2010 à une relative stagnation depuis 2014, oscillant entre 0% et 2%. En face, le digital (display, search, social…) affiche une croissance insolente moyenne de 13% par an entre 2013 et 2019, passant ainsi de 2,7 à 6,1 milliards d’euros (+117%)[2]

Cela étant dit, il est normal que les chaînes de télévision tentent de faire sauter les dernières barrières qui les empêchent de proposer aux téléspectateurs un écran publicitaire personnalisé, unique, adapté aux centres d’intérêts de chacun. On appelle cela la publicité segmentée. Longtemps interdite en France, elle est désormais autorisée depuis le décret du 07 août 2020, suite au passage de la nouvelle loi de l’audiovisuel. Concrètement, elle permet d’adresser à chaque segment de public un spot différent au même instant. C’est donc plus qu’un véritable rapprochement entre la publicité traditionnelle et la publicité digitale, on peut parler d’une certaine fusion : le spot deviendra personnalisé, géolocalisable et propose ainsi une nouvelle attractivité pour les annonceurs.

Les régies publicitaires des différents groupes en ont fait un fer de lance, et présentent avec fierté les accords qu’elles ont conclu avec les FAI. Oui, l’arrivée de la publicité segmentée à la télévision française est une opportunité à saisir pour les diffuseurs, mais est-ce vraiment un el dorado qui va révolutionner ce marché assez traditionnel ? C’est ce que nous allons questionner dans la suite de cet article. 

Le principe de la publicité segmentée et son cadre légal

© SNPTV / IAB France / AF2M


La publicité segmentée ne peut fonctionner sur les téléviseurs classiques qui ne sont pas équipés pour la recevoir. Pour cela, il faut regarder le live via un flux HBBTV, disponible en regardant la télévision via les box FAI ou avec une télévision connectée (les fameuses smart tv). C’est grâce à ces matériels qui intègrent le digital que peut passer cette nouvelle manière de toucher le public. Ainsi, une question d’équipement des foyers se pose pour faire fonctionner ce nouveau marché émergent. En plus des équipements à domicile, la puissance des installations réseau (notamment internet) dans des régions isolées est capital, car sans un débit suffisamment puissant, il n’est par exemple pas possible de regarder la télévision avec sa box internet.

Cela fait longtemps que les diffuseurs réclament la possibilité de faire de la publicité segmentée. Depuis une législation de 1992, la seule chose qui leur était autorisée était l’expérimentation commerciale :  chaque régie peut développer des formats segmentés et les proposer à la commercialisation à destination d’une très faible part de la population. Par exemple, la régie publicitaire d’M6 a expérimenté sur la diffusion de quelques spots segmentés sur une base de 2,5 millions de personnes. De même, France Télévisions a expérimenté dans le cadre légal avec des sports thématisés en fonction du public. Au départ, les règlements européens comme le RGPD empêchaient les acteurs de différencier le spot selon la localisation du téléspectateur. Aujourd’hui, une fois son consentement donné, cette dimension de la publicité segmentée est autorisée. Enfin, il faut rappeler que l’arrivée de ce nouveau genre de publicité sur les télévisions françaises est limité à 2 minutes par heure pour les chaînes nationales, et interdit à proximité des émissions/programmes destinés à la jeunesse[3].

Une opportunité pour la télévision de renforcer son offre publicitaire globale …


Ces constats posés, il n’empêche que la publicité segmentée est une véritable aubaine pour la télévision : avoir une offre qui permet de toucher massivement tous les publics, toutes les cibles, toutes les régions, mais aussi une nouvelle offre complémentaire qui offre une capacité de ciblage inédite sur ce média traditionnel. Toujours selon le cabinet Oliver Wyman en 2019, la commercialisation de publicités segmentées représentait entre 2% et 5% du chiffre d’affaires des régies publicitaires dans des pays comme les États-Unis, la Belgique ou le Royaume-Uni[4]. En France, on estime le potentiel économique de ce nouveau produit publicitaire à un chiffre d’affaires fin 2023 de 220 millions d’euros (ce qui représenterait donc 10% des revenus publicitaires actuels des chaînes). 

Les annonceurs ont d’ailleurs bien reçu l’arrivée de cette nouvelle manière de communiquer. Ainsi, on estime que plus de 40% des achats en segmenté seront réalisés par des annonceurs non présents actuellement en télévision, contre 25% pour les gros annonceurs classiques (Renault, L’Oréal etc…) Ces écrans ont donc une capacité d’attraction très forte vis-à-vis d’annonceurs ayant délaissé le média TV pour sa faible capacité à cibler efficacement un public. Cette attractivité est d’autant plus forte que le parc adressable progresse chaque année. Selon les prévisions de l’AF2M, ce seront plus de 16 millions d’individus adressables fin 2022, et presque 20 millions fin 2023[5], soit presque la moitié de la population française regardant la télévision. Les annonceurs y voient ici une capacité de toucher massivement en plus d’offrir un ciblage efficace. 

… Mais qui semble être limitée niveau potentiel économique 


Malgré ces bonnes nouvelles pour un secteur en stagnation, il faut remettre en perspective l’arrivée de la publicité segmentée à la télévision face aux immenses défis qui l’attendent.

Premièrement, l’équipement des français : ce mode de réception est conditionné au renouvellement du parc de télévision et/ou de la réception de ce média par les box FAI. D’ailleurs, il fait noter l’importance et surtout le poids des FAI dans les négociations entre les régies publicitaires et ces opérateurs. Sans accord, les régies se privent d’une part énorme de la population (surtout quand on sait que Orange, Bouygues et SFR représentent à eux seuls 11 millions d’individus regardant la télévision et 18% des foyers français[6]). Certes, les équipements des français se renouvellent rapidement ces dernières années. Mais la massification de ces écrans ne pourra se faire que dans quelques années, le temps que l’industrie puisse se développer et que les foyers adressables se multiplient.

Ensuite, il faut rappeler un fondamental : le consommateur doit donner son consentement vis-à-vis du RGPD. Cet élément prend tout son sens dans une époque où les français font de plus attention et sont sensibilisés à l’utilisation qui peut être faite de leurs données. Une étude YouGov réalisée début 2020 ne donnait que 39% de personnes favorables à la publicité segmentée, contre 56% de personnes défavorables, notamment à cause de l’utilisation des données personnelles[7]. Ainsi, le public ne semble pas (encore) conquis par cette nouvelle proposition de publicité ciblée.

Enfin, le poids économique que représenterait la publicité segmentée reste très limité contrairement au chiffre d’affaires de la publicité TV, surtout en considérant les acteurs déjà présents en TV qui vont bénéficier de cette nouveauté. Rien ne dit que les dépenses publicitaires de ces acteurs vont être plus importantes, il est possible que la dépense faite en achat traditionnel soit scindée pour une partie segmentée. De plus, cette estimation de 220 millions de revenus n’est valable que si la géolocalisation est intégrée au projet final.

La publicité segmentée est donc un nouveau marché dont la perspective est intéressante, mais à ne pas idéaliser. Certes, nous avons vu qu’elle sera assurément un relai de croissance et surtout une manière de renouveler l’offre publicitaire que peut proposer la télévision aux annonceurs. Malgré cela, les limites de cette technologie restent nombreuses : équipements des français, poids des FAI dans la négociation, adhérence du public, restrictions législatives… Cette autorisation à grande échelle de la publicité segmentée est valable pour une durée de 24 mois, à la fin de laquelle un bilan sera dressé par le législateur. Nous devrions donc en savoir plus d’ici le mois d’août 2022 sur l’avenir de cette fusion entre publicité de masse et publicité digitale.

Emmanuel SCHMITT


Sources :

[1] IREP, Kantar, France PUB, Baromètre Unifié du Marché Publicitaire, septembre 2021

https://www.irep.asso.fr/wp-content/uploads/2020/03/Presentation-BUMP-2019.pdf

[2] SRI, UDECAM, 25ème observatoire de l’e-pub, cabinet Oliver Wyman, février 2021

[3] Henri Rivollier, La publicité segmentée autorisée, droitdelacom.org, 11 août 2020

https://droitdelacom.org/la-publicite-televisee-segmentee-autorisee/204894/

[4] Cabinet Oliver Wyman, L’avenir de la publicité segmentée en France, 2019

https://www.snptv.org/wp-content/uploads/2019/05/Avenir-de-la-publicite-segmentee-en-France_Etude-Oliver-Wyman_2019.pdf

[5] offremedia.com, TV segmentée : TF1 Pub prévoit une forte accélération en 2022 grâce aux nouveaux inventaires, à la hausse du nombre de foyers adressables et à ses moyens de commercialisation, 19 janvier 2022

https://www.offremedia.com/tv-segmentee-tf1-pub-prevoit-une-forte-acceleration-en-2022-grace-aux-nouveaux-inventaires-la-hausse

[6] groupe-tf1.fr, TF1 Pub et SFR signent un partenariat sur la TV segmentée, 17 décembre 2021

https://groupe-tf1.fr/sites/default/files/communiques/cp_groupe_tf1_-_tf1_pub_et_sfr_signent_un_partenariat_sur_la_tv_segmentee.pdf

[7] adintime.com, La publicité TV segmentée : un nouvel eldorado pour la publicité ?, 09 mars 2021

https://adintime.com/fr/blog/la-tele-segmentee-le-nouvel-eldorado-pour-la-publicite–n89

Études globales consultées : 

SNPTV, IAB France, AF2M, La publicité TV segmentée, 2021

Realytics, La TV segmentée : l’état de l’art en France, janvier 2022

Google Maps devient-il un réseau social ?

Google Maps : de la simple application de navigation au réseau social de proximité ?

            La puissance du géant du web Google n’est plus à débattre. Des smartphones à la publicité digitale, en passant par la santé, l’aire de jeu de la firme de Mountain View est vaste. L’un de ses terrains de prédilection est la cartographie et la navigation du fait du très populaire Waze, mais surtout de l’incontournable Google Maps. Selon un article paru dans Les Echos, l’application, lancée en 2005, représentait 67% du marché états-unien, en 2018. Le service a connu de nombreuses évolutions telles que la possibilité de personnaliser ses cartes, réserver une table dans un restaurant, et même trouver une trottinette électrique en location. Au cours de son existence, le service a agrégé de nombreuses données de déplacement et est passé d’un simple outil cartographique à une plateforme dédiée à la mobilité. Sa croissance ne semble pourtant pas terminée. Le journal Les Echos rapporte qu’un analyste de Morgan Stanley a estimé le chiffre d’affaires à 2,95 milliards en 2019 et qu’il atteindrait 11 milliards en 2023. La dernière mise à jour remet en question le positionnement de l’application au milliard d’utilisateurs actifs mensuels (chiffres du JDN). Google Maps semble encore évoluer et faire un pas supplémentaire vers l’univers du « social ». Désormais, un utilisateur dispose d’un profil et peut s’abonner à un compte tiers sur le même modèle qu’un réseau social traditionnel. 

Des fonctionnalités qui reprennent les standards des réseaux sociaux

            Le fil d’actualité est une fonctionnalité incontournable pour un réseau social. Il est maintenant présent sur Google Maps et constitue une véritable avancée pour l’application. Dans l’onglet « Découvrir », le fil propose les derniers ajouts d’utilisateurs ou des commerces de notre zone géographique. L’ajout du bouton « J’aime » s’avère utile pour réagir à un poste. De son côté, l’onglet « Actualités » informe, entre autres, des nouveautés (comme les restaurants récemment ouverts), mais il recommande aussi des Local Guides et permet de s’y abonner.

Exemple d’une page de l’onglet « Découvrir » de Google Maps (Capture d’écran)

            Par ailleurs, Google travaille depuis longtemps à développer une véritable communauté avec les Local Guides. D’après un article de l’entreprise Partoo, il s’agit d’un statut attribué à un utilisateur qui remplit certains critères. Via un système de points et de niveaux, l’individu est incité à générer du contenu sur la plateforme (commentaires, notes, photos, suggestions, etc). Plus l’utilisateur est actif, plus il obtient de points, et gagne des avantages comme une plus forte visibilité de ses postes. Selon Guest Suite et Google, le nombre de Local Guides dans le monde a atteint 120 millions en 2019. La firme de Mountain View n’y est pas pour rien dans cette croissance. Elle a entretenu un lien étroit avec ces utilisateurs, notamment grâce à un rendez-vous annuel nommé « Local Guide Summit ». Par ce biais, Google peut encourager l’engagement de ses Local Guides dont les contributions sont précieuses pour maintenir les informations de la plateforme à jour. 

         Avec sa dernière mise à niveau, Google Maps réitère sa confiance auprès d’eux. Avec les pages profils et la possibilité d’avoir des « followers », le service ne veut plus seulement développer une communauté de Local Guides mais plutôt encourager la création de communautés autour de ces derniers. Par conséquent, le nouveau système se rapproche du principe des influenceurs qui existent sur les réseaux sociaux connus.

Quelle utilité pour Google ?

            Alors que l’application est actuellement associée à un usage de recherche de lieu et de déplacement, elle pourrait bientôt devenir l’endroit idéal pour découvrir le nouveau restaurant tendance ou le fromager tant recherché dans son quartier. Ainsi, la nouvelle utilisation serait radicalement différente. En plus d’offrir des fonctionnalités uniques comme Street View, la partie sociale de l’application fidéliserait les utilisateurs et serait un argument supplémentaire en faveur de Google Maps. Cette fidélité ne serait plus forcément liée à des fonctionnalités pratiques, mais à une utilisation plus émotionnelle liée à l’attachement à d’autres internautes. Ce changement d’usage constituerait donc une source de différenciation forte vis-à-vis de ses concurrents.

            De plus, développer l’engagement signifie multiplier les contributions des utilisateurs qui alimentent la plateforme et assurent la pertinence des informations affichées. Par exemple, les internautes peuvent suggérer des modifications sur une fiche Google My Business si cette dernière n’est pas à jour, ou simplement publier un avis. Ces données générées par les utilisateurs sont précieuses pour la firme californienne puisqu’en plus d’être utiles au service de cartographie, elles sont utilisées pour les résultats de Google Search.

            Enfin, du fait d’une audience engagée et d’un usage tourné vers l’interaction, on peut imaginer que l’offre publicitaire de Google Maps pourrait être valorisée. D’après Presse Citron, en 2018, Google a lancé le format publicitaire « local » à destination des établissements souhaitant cibler une audience de proximité. Selon le même article sur la publicité (de Presse Citron), l’avenir semble très prometteur puisqu’il est rappelé que « l’intérêt des recherches locales est 350 fois » supérieur à celui des débuts de l’application. Une telle proposition semblerait donc pertinente pour les annonceurs et attirerait davantage de commerces de proximité. Si ces nouvelles fonctionnalités sont adoptées, alors les revenus publicitaires de la plateforme pourraient s’accroître à long terme. 

Quels enjeux pour les commerçants ?

            Du côté des entreprises avec pignon sur rue, Google Maps constitue une opportunité de gagner en visibilité, avec notamment l’optimisation de la fiche Google My Business. Cette dernière contient des données sur l’établissement. Par exemple, elle permet de connaître les horaires ou l’itinéraire vers un magasin, mais aussi de laisser un commentaire ou une note.

            Toutefois, la dernière mise à jour semble être en faveur du développement des Local Guides. Les avis de ces derniers sont mis en avant par rapport à ceux d’utilisateurs classiques. De ce fait, ils peuvent avoir un impact positif ou négatif sur l’e-réputation d’une entreprise. Les commerçants sont donc encouragés à actualiser les informations et répondre aux avis clients pour éviter que ce ne soit fait par des tiers. Le fil d’actualité peut, lui aussi, être un outil efficace pour communiquer avec les clients et les tenir informés de la vie de la boutique. Malheureusement, bien qu’elles soient importantes, ces tâches CRM représentent un temps d’investissement conséquent pour des commerçants dont l’emploi du temps est déjà bien rempli.

            De plus, en développant sa communauté, le Local Guide augmente son pouvoir d’influence. Ainsi, ceux dotés d’un grand nombre d’abonnés pourraient, à long terme, devenir des leviers de communications utiles pour une marque. Sur le même modèle qu’un influenceur avec du contenu sponsorisé, il est tout à fait possible d’imaginer qu’un Local Guide soit rémunéré pour promouvoir un commerce auprès de ses fans. Son impact sera, quant à lui, d’autant plus fort que sa communauté est grande.

Google et les réseaux sociaux : une histoire compliquée

         Il faut rappeler que ce n’est pas la première fois que Google s’essaie au développement d’un service à la vocation sociale. L’exemple le plus marquant est Google+, lancé en 2011. Dans son article, le quotidien Le Monde rappelle que, pour le géant états-unien, ce service n’était pas un réseau social mais « une couche sociale » ajoutée à Google. Il a pourtant été considéré comme tel par la plupart des personnes. Google+ offrait la possibilité de partager et d’interagir avec différents « cercles ». Cependant, cette nouvelle plateforme a très vite connu des déboires. Comme le souligne l’article du Monde, la maison mère ne communique pas sur le nombre d’utilisateurs actifs et son succès semble relatif. De plus, la firme a tenté plusieurs fois de doper la croissance de son réseau en proposant, à chaque internaute, la création d’un compte Google+ à l’inscription sur Gmail. Cependant, cela n’a pas permis au service d’engager ses utilisateurs qui sont, pour une grande partie, restés inactifs. En 2018, dans son papier, Le Monde souligne que le service n’a pas réussi à convaincre son public car, 90% des sessions étaient inférieures à 5 secondes. Cette même année, l’entreprise annonce la fin de l’aventure Google+.

Ainsi, bien que le passé ait prouvé qu’une nouveauté de Google ne rime pas toujours avec « succès », les nouvelles possibilités marquent une évolution dans la stratégie de Google Maps. Il semblerait que le géant californien veuille rendre sa base d’utilisateurs plus active en proposant des fonctionnalités engageantes. L’aspect social inédit de l’application lui permet de s’éloigner de sa simple utilité de navigation pour, peut-être, devenir le réseau social adapté à la vie de quartier. La concrétisation des éléments évoqués dépend maintenant des utilisateurs. Adopteront-ils ces nouveautés ?


Thomas Soares

Sources :

Damien Leloup, “Une brève histoire de Google+ », Le Monde, le 13/03/2015. Lien :https://www.lemonde.fr/pixels/article/2015/03/02/une-breve-histoire-de-google_4585853_4408996.html

Damien Leloup et Morgane Tual, « ‘Mais c’est quoi Google+ ?’ et autres questions sur sa fermeture », Le Monde, le 13/10/2018. Lien : https://www.lemonde.fr/pixels/article/2018/10/09/mais-c-est-quoi-google-et-autres-questions-sur-sa-fermeture_5366794_4408996.html

Matt Southern, “Google Maps goes social giving each user their own profile”, Search Engine Journal, le 30/072020. Lien : https://www.searchenginejournal.com/google-maps-goes-social-giving-each-user-their-own-profile/376194/#close

Auteur inconnu, « Google Maps devient véritablement un réseau social avec cette nouvelle fonction », Frandroid, le 01/08/2020.Lien : https://www.frandroid.com/marques/google/744573_google-maps-devient-veritablement-un-reseau-social-avec-ce-nouveau-bouton

Benoît Georges, « Google Maps les cartes au trésor », Les Echos, le 19/02/2020. Lien : https://www.lesechos.fr/idees-debats/editos-analyses/google-maps-les-cartes-au-tresor-1173111

Sarah Perez, “Google Maps tests a social networking feature with the ability to ‘follow’ Local Guides”, Tech Crunch, le 18/11/2019. Lien : https://techcrunch.com/2019/11/18/google-maps-tests-a-social-networking-feature-with-the-ability-to-follow-local-guides/

Els Bellens, « Google Maps solidement étoffée par des fonctions sociales et des numéros de maison », Datanews, le 04/12/2020. Lien : https://datanews.levif.be/ict/actualite/google-maps-solidement-etoffee-par-des-fonctions-sociales-et-des-numeros-de-maison/article-news-1365431.html

Caleb Potts, “You can now follow people on Google Maps, the company’s newest social network”, Android Police, le 30/07/2020. Lien : https://www.androidpolice.com/2020/07/30/you-can-now-follow-people-on-google-maps-the-companys-newest-social-network/

Julio Cachila, “Google Maps is now a social network”, International Business Times, le 31/07/2020. Lien : https://www.ibtimes.com/google-maps-now-social-network-3020405

Andrew J. Hawkins, “Is Google Maps trying to be a social network”, The Verge, le 13/02/2017. Lien : https://www.theverge.com/2017/2/13/14581028/google-maps-location-list-share-social-network

Shayak Majumder, “Google Maps now allows users to follow each other’s recommendations”, Gadget 360, le 31/07/2020. Lien : https://gadgets.ndtv.com/apps/news/google-maps-follow-social-profile-page-topic-filters-update-feature-2272019

Ben Smith, “Project Strobe: protecting your data, improving our third-party APIs, and sunsetting consumer Google+”, Blog de Google, le 08/10/2018. Lien : https://www.blog.google/technology/safety-security/project-strobe/

Arthur Vera, « Google Maps, nouvel Eldorado de la publicité en ligne ? », Presse Citron, le 26/02/2020. Lien : https://www.presse-citron.net/google-maps-nouvel-eldorado-de-la-publicite-en-ligne/

Charlie Perreau, « Google : un anniversaire, des records », Journal du Net, le 04/092018. Lien : https://www.journaldunet.com/ebusiness/publicite/1211137-les-20-chiffres-de-google/

Lucas, « Qu’est-ce qu’un Local Guide Google My Business ? Quels avantages et impacts sur les fiches ? », Partoo. Lien : https://help.partoo.fr/fr/articles/1785698-qu-est-ce-qu-un-local-guide-google-my-business-quels-avantages-et-impact-sur-les-fiches

Karlee Onstad, “How can Google Maps benefits your business”, Evolve Systems. Lien : https://evolve-systems.com/how-google-maps-can-benefit-your-business/

Steven, « La publicité sur Google Maps », Grizzlead, le 28/02/2020. Lien : https://www.grizzlead.com/la-publicite-sur-google-maps/

 « Points, niveaux et badges », Support Google. Lien : https://support.google.com/local-guides/answer/6225851?hl=fr

Page du Local Guides Summit. Lien : https://maps.google.com/localguides/event/connectlive

Austin Wells, “Discover new places with gelp from top Local Guides”, Blog de Google, le 15/11/2019. Lien : https://www.blog.google/products/maps/discover-new-places-with-help-from-local-guides/

Loïc, « Local Guide Google My Business : définition et fonctionnement », Guest Suite, le 12/07/2020. Lien : https://www.guest-suite.com/blog/local-guide-google-my-business

Podcasts natifs : quelles opportunités pour les groupes de presse historiques ?

En janvier dernier, le média Brut annonçait le lancement de sa gamme de podcasts d’actualité, disponibles en exclusivité sur Spotify. Une nouvelle activité à première vue assez éloignée du format vidéo qui a rendu célèbre le pure player. A l’image de Brut, de nombreux médias ont quelque peu délaissé leur savoir-faire historique pour s’aventurer dans la production de contenus audios, à commencer par les éditeurs de presse traditionnelle. Si Libération a fait figure de précurseur en 2007 en lançant ses premiers podcasts (56kast, Silence on joue), ils sont aujourd’hui nombreux à avoir tenter l’expérience : le Parisien (Code Source), Le Monde (Sept ans de trahison), le Figaro (La semaine des médias) … et la liste s’allonge chaque année. Le podcast serait un moyen pour la presse historique de se renouveler et de s’adapter aux usages, surtout à ceux des nouvelles générations ultra connectées : d’après une étude de Médiamétrie, les podcasts seraient en effet davantage écoutés par les 15-24. Ce format est alors pensé comme un produit d’appel susceptible d’amener les jeunes vers l’écrit, mais aussi comme un nouveau moyen d’engranger des recettes publicitaires à l’heure où les annonceurs désertent les médias traditionnels pour le digital. Il faut dire qu’aux Etats-Unis, où la tendance est née après le succès retentissant de Serial (340 millions de téléchargements), puis de The Daily (2 millions d’écoutes quotidiennes), deux podcasts créés par le New York Times, le marché du podcast semble prometteur : les revenus publicitaires ont augmenté de 65% entre 2015 et 2018, et devraient s’élever à 863,4 millions de dollars en 2020 d’après une étude menée par PwC.  

Mais qu’est-il du marché français ? Les contenus audios représentent-ils une véritable opportunité économique pour des titres de presse traditionnelle en souffrance, ou un simple mirage qui s’estompera une fois la tendance essoufflée, comme le fut le web documentaire au début des années 2010 ? 

Mais au fait, qu’est-ce qu’un podcast ? 

Résumé simplement, un podcast est un contenu audio numérique que l’on peut écouter n’importe où. On distingue ensuite les replays d’émissions de stations de radio mis à disposition à la demande (on parle alors de “radio de rattrapage”) des “podcasts natifs”, contenus ayant été conçus en vue d’une diffusion à la demande sans passage à la radio.  En termes de contenu, le genre le plus écouté est le podcast d’actualité : en France, 34% des épisodes les plus populaires disponibles sur Apple appartiennent à cette catégorie. C’est d’ailleurs sur ce genre que les éditeurs de presse écrite ont concentré leurs efforts, et en particulier sur le format d’approfondissement, dont le Daily du New York Times est le parfait exemple. Ce blockbuster audio a d’ailleurs été une source d’inspiration majeure lors de la création du podcast “La Story” par Les Echos en partenariat avec Binge Audio. L’objectif du format selon Pierre Chausse, directeur adjoint des rédactions au Parisien (groupe Les Echos): “raconter quelques histoires différemment, avec un podcast d’actualité quotidien d’une vingtaine de minutes”. Mais le développement de ces nouveaux formats représente un investissement important, alors même que les podcasts peinent à trouver un business model pérenne. 

Un business-model encore balbutiant et une rentabilité incertaine 

Le Parisien et les Echos disposent d’une équipe de 4 ou 5 personnes dédiée à la création des podcasts quotidiens (tandis que le New York Times en emploie 15 pour la production de The Daily). La production de contenu de qualité exige également des investissements en termes de matériel et de formation professionnelle pour les journalistes venant de l’écrit. Mais comment rentabiliser ce format plus coûteux qu »il n’y parait ?  

La première solution est le financement par des annonceurs, via la vente d’espaces publicitaires au CPM ou via un système de parrainage. Pour séduire les annonceurs, le podcast disposent de plusieurs avantages : les données des éditeurs suggèrent que les auditeurs de podcast écoutent en moyenne entre 60 et 90% d’un programme, et le font de manière active. Les podcasts se distinguent ainsi à la fois de la radio linéaire, consommée souvent passivement par les utilisateurs qui la mettent en simple fond sonore, et d’Internet où la qualité d’exposition de l’utilisateur à la publicité n’est pas garantie. « Prenez un podcast et une vidéo de cuisine, analyse Charlotte Pudlowski, ancienne rédactrice en chef du site d’information Slate et confondatrice de Louie Media, et comparez leur audience. La vidéo va faire des millions de vues sur Facebook. Mais elles se seront lancées automatiquement et les usagers ne vont pas se souvenir de ce qu’ils ont vu.” Les podcasts offrent également aux annonceurs des audiences très qualifiées : Les Echos ont ainsi choisi de cibler l’écosystème entrepreneurial avec son podcast Tech Off. Enfin, ils promettent aux annonceurs un espace “brand safe”, où les utilisateurs sont exposés à peu de publicités et passent rarement les pré-rolls, comme le suggère une étude de Médiamétrie. Cette qualité de l’exposition explique que les espaces au sein des podcasts se vendent généralement à un coup plus élevé que dans l’écosystème digital classique : le CPM se situe entre 15 et 20€ pour un spot de 30 secondes en pré-roll. Le parrainage, modèle dans lequel un unique annonceur finance la production du podcast pendant une période de temps donnée, est une alternative utilisée entre autres par le groupe Challenge, qui a réalisé une série de podcasts sponsorisés par Renault. Mais cette monétisation par l’apport des annonceurs connait un frein majeur à son développement : le manque de données.  Comparé à la vidéo, le podcast ne permet pas, ou peu, de récolter les données sur le comportement des auditeurs une fois le podcast téléchargé, rendant ainsi difficile la qualification des audiences. Mais les choses évoluent, notamment avec le développement d’outils de mesure à l’image du dispositif américain Podtrac :  Médiamétrie propose depuis 2019 à ses clients eStat Podcast, un outil capable de qualifier les téléchargements, tandis l’ACPM (l’Alliance pour les chiffres de la presse et des médias) a présenté en novembre dernier sa certification des mesures de diffusion des podcasts natifs et réécoutés.  

Une autre piste en matière de financement est la stratégie du paywall, qui envisage le podcast comme une valeur ajoutée pour les utilisateurs abonnés. Dans les petits marchés où l’intérêt des annonceurs se fait désirer et où la rentabilité à long terme est plus que douteuse, comme en France, le podcast est finalement souvent envisagé comme un outil promotionnel et marketing . ‘It’s more about opening the top of our funnel and bringing Times journalism to a new audience who we think will eventually become our next generation of subscribers,’ déclare ainsi Erik Borenstein du New York Times. Même son de cloche chez l’Equipe, qui a lancé en 2018 un podcast sur le rugby et sur le golf : “le podcast propose quelque chose de différent : il a un mode de développement qui est basé sur la souscription, il y a une démarche de fidélisation. Nous sommes dans une attitude de test, nous cherchons à attirer une nouvelle clientèle, moins volatile », explique Jérôme Cazadieu, directeur de la rédaction du quotidien.

Les plateformes : un partenariat à double tranchant 

Pendant longtemps, la plateforme d’Apple a été l’agrégateur de podcasts dominant. Ces deux dernières années, elle a néanmoins vu son hégémonie faiblir avec l’apparition de nouveaux acteurs sur ce marché, notamment Deezer et Spotify qui représentent désormais 20% du marché français. Le leader mondial suédois de la musique en ligne a ainsi remarqué que ces utilisateurs consommateurs de podcasts passent près de deux fois plus de temps sur la plateforme que les autres, d’où l’annonce en 2019 d’importants investissements destinés à l’acquisition de contenus tierces mais également à la production de contenus originaux. L’arrivée des plateformes pourrait bien transformer en profondeur la technologie du podcasting : en alliant leur capacité d’audiences importantes à la puissance de leurs algorithmes de recommandation, elles permettraient d’ouvrir l’accès à ce format dont le caractère encore très confidentiel et “de niche” a rebuté nombre d’annonceurs. La production de contenus pour les plateformes pourrait-elles être une piste de développement pour les titres de presse ? Les éditeurs restent sceptiques : source de financement d’un côté, les plateformes pourraient toutefois subtiliser aux éditeurs la relation directe avec leur public et s’arroger leur création et la donnée client si nécessaire à l’amélioration du produit et la valorisation des audiences. Radio France a ainsi fait le choix en 2019 de retirer ses contenus de Spotify et Majelan afin de mieux contrôler leur distribution et le partage de la valeur créée.  

Dans l’état actuel du marché français, le podcast peine encore à démontrer son intérêt pour les groupes de presse historiques. Toutefois, le développement d’outils de mesure certifiés, l’intérêt des plateformes, mais aussi l’arrivée des enceintes connectées et des voitures autonomes sont autant de signes que ce secteur recèle encore de nombreuses potentialités. Si le podcast parvient à dépasser son statut de produit de niche destiné à une audience jeune et éduquée pour devenir un phénomène de masse, il pourrait bien être un élément déterminant du renouveau de la presse historique. 

Camille Cohen

Références 

EUTROPE, Xavier. “Pourquoi les journaux français ne font-ils (presque) pas de podcasts ?. Ina Global, février 2018. Disponible sur : https://larevuedesmedias.ina.fr/pourquoi-les-journaux-francais-ne-font-ils-presque-pas-de-podcasts 

FOUQUENET, Maelle. “Podcasts et presse écrite: comment les financer et gagner de l’argent”. ESJ Pro, mars 2019. Disponible sur: https://esj-pro.fr/podcasts-et-presse-ecrite-comment-les-financer-et-gagner-de-largent/ 

MALCURAT, Olivier. “Podcasts: un poids, deux mesures”. La lettre pro, novembre 2019. Disponible sur : https://www.lalettre.pro/Les-Dossiers-5-Podcasts-un-poids-deux-mesures_a21157.html 

NEWMAN, Nic., GALLO, Nathan. “News Podcasts and the opportunities for publishers”. Digital News Project, décembre 2019.  

PwC. “FY 2018 Podcast Ad Revenue Study: a detailed analysis of the US podcast Advertising Industry”. Juin 2019. Disponible sur: https://www.iab.com/wp-content/uploads/2019/05/Full-Year-2018-IAB-Podcast-Ad-Rev-Study_5.29.19_vFinal.pdf 

Mesurer l’audience à la radio

Un jeu d’équilibriste entre exactitude et exhaustivité

Les résultats d’écoute de la radio ont été publié le 14 janvier 2019 et ils étonnent ! France Inter réalise à nouveau un record d’audience et le groupe Radio France progresse dans l’ensemble alors que la grève sévit dans la Maison Ronde et que de nombreux programmes sont annulés. C’est l’occasion pour la concurrence et divers commentateurs de remettre en cause la « 126 000 Radio » de Médiamétrie, mesure publiée quatre fois par an et qui fait référence sur le marché. Ainsi François Pesenti, ancien directeur général de RMC Sport invite l’institut à moderniser sa mesure créée en 1986. Didier Maïsto, président de Sud Radio en dénonçait en mai dernier les méthodes : « Cette mesure est contestable et contestée. Même sa méthodologie est opaque. À notre demande et en appliquant les mêmes règles, IFOP n’est pas arrivé au même résultat, nous créditant de 3,5 fois plus d’auditeurs ». Réclamant 23 millions de dommages et intérêts, le média voit pourtant sa requête refusée devant la Cour d’Appel de Paris le 8 janvier.

Twitter – 14/01/2020 – Compte de François Pesenti – https://twitter.com/FrancoisPesenti

Pour les autres, la sortie de la « 126 000 » est l’occasion de communiquer en masse sur les chiffres qui leurs sont les plus favorables. Il faut dire que l’enjeu est de taille et que les résultats sont scrutés par les annonceurs afin d’optimiser l’efficacité des publicités qui constituent le revenu principal des radios (à l’exception de Radio France). Il n’est alors pas rare de découvrir deux « 1ere radio de France » : RTL et France Inter qui communiquent selon deux indicateurs différents, la part d’audience pour l’une, l’audience cumulée pour l’autre.

Article France Culture – 24/01/2020 – Crédits : RTL, France Inter https://www.franceculture.fr/medias/audiences-radio-pourquoi-les-stations-se-proclament-toutes-premiere-radio-de-france

Ces batailles trompeuses ne viennent pas éclaircir le débat. Comment Médiamétrie mesure-t-elle l’audience radio ? Tient-elle compte de l’évolution des pratiques liées au numérique ? Quelques explications donc sur la méthode de cette mesure maîtresse et pourtant fustigée après une visite du centre d’appel de l’institut à Amiens.


LA « 126 000 RADIO » QU’EST-CE QUE C’EST ?

Aujourd’hui la « 126 000 Radio » c’est 400 interviews réalisées chaque jour par plus de 90 enquêteurs sur un panel représentatif de la population française de plus de 13 ans afin de détailler la consommation radiophonique quotidienne des Français. C’est aussi une quinzaine de minutes passées au téléphone à essayer de se souvenir des programmes, par quart d’heure, écoutés dans la journée. L’enquête est massive et rodée mais elle aussi déclarative, fastidieuse et nécessairement imparfaite. Il est aujourd’hui de plus en plus difficile de joindre les gens sur leur téléphone fixe ; Médiamétrie appelle maintenant des numéros portables mais garder un panel suffisant et représentatif est un défi quotidien pour l’institut. Pour les cibles plus précises (tranche d’âge, région, ville) et les plus petites antennes, les mesures fluctuent beaucoup d’une vague à une autre car la population test peut être insuffisante. Médiamétrie alerte ses clients et souligne l’importance des intervalles de confiance ou de la significativité des écarts. Les différentes radios sont donc invitées à être prudentes sur l’interprétation des chiffres et les usages qui en sont fait.  

L’ampleur et la régularité de la référence « 126 000 » en fait cependant une mesure robuste. Malgré les critiques aucun autre acteur ne vient réellement concurrencer l’institut dont « le capital est détenu par trois groupes distincts : les télévisions, les radios et les centrales d’achat des annonceurs ». Ceci ne plait pas à tous et certains dénoncent un petit monde clos de médias et annonceurs qui approuvent la mesure tant qu’elle leur est favorable.  

VERS UNE MESURE PLUS EXHAUSTIVE ?

Depuis quelques années, la mesure de l’audience radio tend à évoluer. Des tests réalisés en 2013, 2016 et 2018 ont annoncé progressivement l’arrivée d’une nouvelle mesure : l’audimétrie individuelle portée (AIP).  Déjà utilisée pour la mesure de l’audience à la télévision, la technique consiste à intégrer une marque inaudible et identifiante dans le signal audio d’une station. Un capteur, porté par l’auditeur, est alors capable de reconnaître la station ainsi que la date et l’heure de diffusion du programme. L’AIP devait être déployée en France à la rentrée 2019 mais rien ne s’est finalement passé. De nombreuses difficultés et interrogations viennent remettre en cause l’efficacité de cette nouvelle méthode qui fait débat.

« Cette technologie pourrait révolutionner la mesure d’audience de la radio, en passant à un mode de calcul de l’audience passif, automatique, à la minute près, sans marge d’erreur » affirme Agathe Beaujon, journaliste chez Challenge dans un article de novembre 2019. D’autres interrogent l’intérêt de mesurer les écoutes passives, celles qui se font dans les supermarchés ou dans un taxi alors que la personne n’est pas attentive au fond sonore. Ils revendiquent une mesure de l’écoute qualitative qui valoriserait davantage le travail des rédactions. Par ailleurs, l’AIP risquerait de dévoiler une audience plus fractionnée, avec des durées d’écoutes plus faibles qui pourraient casser les prix des spots publicitaires (fixés sur l’audience au quart d’heure moyen) ; les médias curieux de ce nouvel outil redoutent cependant un retournement de situation qui leur serait défavorable.  

Plus concrètement les obstacles techniques et financiers sont aussi multiples. L’écoute de la radio au casque ne serait pas perçue par l’audimètre et bien qu’un adaptateur soit envisagé il ne conviendrait pas à l’usage du Bluetooth (de plus en plus répandu). Par ailleurs l’ergonomie du boîtier de mesure reste perfectible. Puisque la radio s’écoute tout le temps et partout, l’auditeur devrait transporter avec lui le boîtier dans les différentes pièces de son domicile et lors de ses déplacements. Accroché à la ceinture, autour du cou ou en bracelet : différentes solutions sont envisagées mais toutes sont relativement contraignantes, demandant une implication considérable du panéliste. La mesure de l’audience des matinales, qui se superposent souvent au temps de préparation (réveil, douche, aller et venus entre plusieurs pièces, etc.), serait difficile et risquerait d’être sous-évaluée. Enfin, cette solution technique s’appliquerait à un panel plus réduit que l’enquête de la « 126 000 Radio » et pourrait être problématique pour la mesure de petites audiences de radios indépendantes. Ces dernières rencontreraient une seconde difficulté d’ordre financier : le financement des émetteurs à 4000 euros (conséquent pour un groupe comme Les Indés Radios qui réunit 130 radios thématiques indépendantes, locales ou régionales). Le nouveau service de Médiamétrie serait par ailleurs facturé 15% plus cher que ne l’est la « 126 000 ».

ET LE NUMÉRIQUE DANS TOUT CA ?

Evidemment avec le numérique les habitudes de consommation de la radio ont évolué et le streaming (écoute en live du flux principal d’une radio ou de webradios) ainsi que les podcasts prennent une ampleur considérable. Selon Médiamétrie plus de 25 millions d‘internautes consultent un site ou une application de radio et musique sur ordinateur, smartphone ou tablette. « Cette nouvelle donne questionne les modèles préexistants, aussi bien en termes de mesure de l’audience que de marché publicitaire. Ces enjeux s’appliquent autant aux acteurs historiques de la radio, à savoir les stations présentes sur la bande FM, qu’aux nouveaux venus, qui ont fait le choix du tout numérique et même parfois de la délinéarisation ».

La mesure Internet semble a priori plus simple et évidente. Des outils techniques, des tags placés sur chaque contenu, émission ou webradio permettent de mesurer le trafic des visiteurs des sites et applications et des auditeurs dans leur globalité. Peu coûteuses et automatisées, ces mesures présentent pourtant bien des limites. Les chiffres sont rapidement gonflés par des écoutes fractionnées (arrêt/reprise de l’application, du player ou autre) ou téléchargements intempestifs (automatiques à la sortie d’une émission récurrente sur une plateforme de podcasts par exemple) ou des bots. Il est difficile de mesurer le nombre de visiteurs uniques et l’écoute réelle des auditeurs. De plus, les méthodes de mesures diffèrent d’une station à une autre. Des systèmes de certification comme celui de l’ACPM (Alliance pour les Chiffres de la Presse et des Médias) permettent d’attester les chiffres et de les comparer aux autres. Cependant, toutes les radios ne souscrivent pas à cette certification (RTL par exemple) et on ne peut pas parler de « mesure marché » qui considèrerait l’ensemble des acteurs. Ces certifications sont par ailleurs critiquées pour la légèreté de leurs critères.

Les mesures de ce type permettent d’envisager des volumes (qui plus est considérables) mais elles ne permettent pas de connaître vraiment son audience. Sur les sites de radio, rares sont ceux qui imposent un login comme le font les chaînes de télévision sur 6Play ou MyTF1 par exemple. Cette méthode est très efficace pour collecter de l’information sur les consommateurs et ainsi affiner son offre et surtout cibler la publicité proposée. Pour aller plus loin et proposer une mesure d’audience numérique précise, Médiamétrie a lancé en 2017 la mesure Internet Global. Cette mesure complète la « 126 000 » et fonctionne sur un panel de plus de 30 000 personnes, elle détaille les usages numériques de la radio sur portable, ordinateur ou tablette. C’est une mesure cross-device qui permet de connaître les visiteurs uniques ainsi que diverses informations socio-démographiques sur l’auditoire du digital.  


Finalement, aucune de toutes les solutions évoquées ne semble parfaite. Si le numérique est de plus en plus important et pris en compte, les solutions techniques associées ont bien des limites. Les mesures par panels permettent, elles, de mieux connaître les auditeurs toutes en reposant sur des conventions et des choix qui pourraient être remis en cause. Pourtant, ces mesures sont indispensables au marché dont elles donnent le pouls et ainsi Médiamétrie et les autres instituts d’études orientent chaque jour les stratégies éditoriales et marketing des chaînes.

Estelle Patat


Comment l’IA va révolutionner le visionnage TV ?

Youtube, Facebook Watch, Stories d’Instagram, Snapchat… le format vidéo ne cesse d’envahir nos dispositifs numériques, défiant toujours plus le vieux médium télévisuel sur ses contenus.
Mais la convergence et l’évolution des technologies pourraient sauver la télévision en changeant le mode de consommation de celle-ci.

La multiplication des plate-formes de visionnage OTT (Netflix, Quibi, Hulu et bientôt Apple..) changent profondément notre manière de consommer du contenu et remet en question le modèle plus traditionnel et linéaire de la télévision.
La « Catch-up TV », comme réponse à cette nouvelle menace des géants du streaming ne suffit plus à garder les téléspectateurs fidèles à une grille de programmes toujours plus archaïque des chaines de télévision.

C’est notamment grâce à l’intelligence artificielle qu’il sera peut-être possible de changer les pratiques de visionnage du dispositif télévisuel.
En effet, c’est en laissant le choix au téléspectateur du contenu à visionner, que la télévision pourra se frayer un chemin dans cette compétition avec les acteurs du marché des contenus dé-linéarisés.

L’intelligence artificielle est déjà utilisée pour personnaliser le panel de choix des contenus à regarder pour chaque spectateur. Une technologie de recommendation qu’utilise Netflix pour être toujours plus proche du consommateur et coller à ses goûts.

Mais de quelles façons la télévision peut-elle introduire ces technologies d’intelligences artificielles pour mieux cibler ses téléspectateurs ?

Le secteur de l’audiovisuel bénéficiera prochainement plus largement de cette nouvelle technologie, toutefois, l’enjeu des données est très important dans le déploiement de l’IA pour les médias. En effet, les données alimentent l’IA qui prend connaissance de la Data laissée par l’utilisateur pour lui permettre d’agréger un contenu qui lui correspond. C’est déjà le cas pour a publicité digitale et la méthode de programmatique, qui utilise le Real Time Bidding pour cibler davantage les clients potentiels en fonction de leurs usages d’internet.

Un des enjeux de l’IA dans la consommation télévisuelle réside tout d’abord dans le choix :
Le basculement de la télévision linéaire au format plus numérique a donné lieu à une consommation hyper-personnalisée des contenus, sans contrainte de temps ni de dispositif.
En témoigne une étude datant de 2017 du CNC sur l’économie de la télévision de rattrapage : 6,9 milliards de vidéos ont été vues en replay.

La surabondance des contenus disponibles sur des plateformes multiples obligent les éditeurs de contenus à adopter des stratégies pour mieux cibler leur audience, de plus en plus volatile.
L’IA peut donc aider à personnaliser les choix, via des recommandations toujours plus fidèles aux goûts des spectateurs.

L’IA au service de la programmatique TV :
Un autre enjeu plus connexe à celui de la consommation télévisuelle concerne la publicité. À la manière de ce qui existe déjà sur le marché de la publicité en ligne, la programmatique TV permettrait , encore une fois de cibler plus finement l’audience en lui adressant des publicités plus cohérentes en fonction de ses habitudes et de son statut socio-professionnel.
Ce qu’on appelle la « TV adressée » ou encore « segmentée » pourrait bousculer la manière dont les annonceurs organisent leurs campagnes publicitaires et changerait profondément les logiques de programmation et de diffusion de contenus.
Programmes télévisuels et publicité ayant longtemps été corrélés dans un souci d’efficacité, en fonction des logiques d’audiences et de temporalité, avec l’IA et la programmatique, on pourrait non pas parler, comme c’est le cas sur internet de Real time bidding, mais de « near time bidding » c’est à dire une diffusion publicitaire quasi-instantanée qui permettrait un ciblage de l’audience plus efficace.
La programmatique TV permettrait enfin une redéfinition de la monétisation de la publicité en fonction du contenu diffusé et de l’audience touchée.

Le dispositif télévisuel toujours plus influencé par l’IA
Récemment, Samsung a annoncé la création de sa TV QLED 8K dotée d’une intelligence artificielle. Ce nouveau dispositif, déjà commercialisé depuis octobre pour un prix oscillant entre 5000 et 7000 euros, est dotée d’une nouvelle technologie : la 8K AI Upscaling, une intelligence artificielle capable de s’adapter au format du contenu avec une qualité 8K. Une mise à jour et une évolution qui propose un visionnage de qualité, et qui permet à ce type de télévision de se différencier des autres plateformes de visionnagee par sa qualité d’image et sa haute définition.

La marque LG s’y est aussi mise en dévoilant récemment une nouvelle gamme de téléviseurs appelée ThinQ. Ces télévisions devraient être dotées de l’IA d’Amazon, Alexa, et notamment d’un micro pour les commandes vocales.

L’IA de plus en plus compétitive chez les FAI
L’enjeu futur des modes de consommation de la télévision réside également dans l’accès aux contenus proposés.
Récemment, Free a dévoilé la Freebox Delta, une box améliorée qui a abandonnée le lecteur DVD bluray pour d’autres fonctionnalités comme un système de pilotage et de commande par voix humaine, un accès gratuit au catalogue de Netflix, un débit dix fois plus rapide que l’ADSL, et une diffusion de programmes numériques.
La convergence de la TV linéaire avec les usages d’internet, tout cela, grâce à l’intelligence artificielle, n’a pas fini de changer notre mode de consommation de la télévision.

Toutefois, il reste un enjeu indéniable qui concerne moins la façon dont nous consommons la télévision mais plus particulièrement ce que nous regardons…
En effet, les programmes diffusés par les chaines TV traditionnelles doivent s’adapter aux nouveaux formats déjà présents sur le web. Des formats plus courts et plus dynamiques et un renouvellement du catalogue et des grilles TV permettraient d’engranger une audience plus grande. La multiplication des contenus et des canaux de diffusion pose encore un enjeux de taille pour les chaines : la fidélisation du téléspectateur. Mais à l’heure où les contenus sont disponibles « Any Time Anywhere, Any device » comment concurrencer un nouveau marché insaisissable qui disrupte complètement celui qui auparavant, régnait en maître sur nos usages ?

Un constat reste indéniable : le consommateur est au centre des préoccupations des éditeurs de contenus. Il influence le marché audiovisuel par sa demande de plus en plus spécifique et abondante en terme de contenus à visionner.

La télévision et le mode de consommation de cette dernière n’est peut-être pas vouée à disparaitre mais de profonds changements son à prévoir dans le fond comme dans la forme pour pallier à une chute d’audience toujours plus grandissante et à une concurrence toujours plus accrue des contenus OTT.

Léa Bernabeo

L’audience TV face à la multiplication des écrans

Dans le cadre de la présentation de son traditionnel bilan de l’année TV pour 2018 le 23 janvier dernier,   Médiamétrie a annoncé le renforcement de  Mediamat d’ici 2020.  L’évolution de sa mesure des audiences télévisées va intégrer  les programmes visionnés sur les «  écrans internet » à savoir smartphones, ordinateurs et tablettes, et en la complétant avec ceux regardés en dehors du domicile.

Médiamétrie mesure l’audience TV depuis 1985

Succédant en 1989 à l’Audimat ( créé en 1985)  , Mediamat de Médiamétrie est une mesure de référence en matière d’audiences télé en France. Médiamétrie a équipé  5000 foyers , soit près de 11500 individus âgés de plus de 4 ans  représentatifs de la population,  d’ un boîtier installé sur le poste de télévision et d’une télécommande  spécifique permettant à chaque membre du foyer ainsi que leurs invités de s’identifier individuellement lorsqu’ils regardent un programme devant la télé.  Ces informations sont transmises quotidiennement aux serveurs de Médiamétrie entre 3h et 5h du matin et  sont par la suite traitées,  contrôlées  et extrapolées pour obtenir une audience nationale . Leur restitution se fait à partir  de 9h aux clients souscripteurs de la mesure Médiamétrie (  directions de programmes ,  régies pub, agences média , annonceurs …).

Les résultats sont précis et détailles : pour chaque programme, chaque tranche horaire ,  on peut savoir à quelle catégorie il a le plus plu ( homme , femme , âge , CSP) et savoir si un programme a plu à la cible souhaitée.  Le calcul se base sur le temps d’écoute. Pour Médiamétrie, un téléspectateur est une personne qui regarde l’intégralité d’un programme.

Ces résultats permettent d’analyser les habitudes de consommation télé et leurs évolutions.

L’année TV 2018 en  quelques chiffres clés Mediamat

  • 44,1 millions de Français regardent la télévision quels que soient l’écran et le lieu, dont 4,5 millions qui le font via les « écrans internet » smartphone , ordinateurs, tablettes( +29% en deux ans)
  • Taux d’équipement : 93% pour la TV ; 76% pour l’ordinateur (+11,2pts en 3 ans)  et la console connectée atteint presque 20% d’équipement
  • 40% des foyers sont équipés des 4 écrans .
  • 85% des Français regardent la TV sur un téléviseur au moins 1 soir par semaine
  • Les Français ont passé 3h46 par jour devant les programmes TV en 2018 tous écrans confondus dont  3h36 devant le téléviseur
  • 90% de leur  durée d’écoute TV est faite de façon linéaire classique.
  • Pour les 15-24 ans, cette durée passe à 79% d’écoute TV linéaire classique. Les 21% sont constitués de replay, de TV hors écran de TV ou de TV hors domicile.
  • Chez les 15-24 ans, la TV en live sur téléviseur est passée à 43% de l’usage TV, contre 53% en 2017. 28% de la fréquentation est consacrée aux vidéos en ligne contre 24% l’an dernier.
  • Plus de 4 millions et demi de Français regardent désormais chaque jour un programme en vidéo par abonnement
  • Le replay a progressé de +26% en 2 ans et touche 7,2M de Français ( +d’1 heure par jour). La fiction constitue 50% de la consommation en replay
  • La SVOD progresse , 30% des internautes ont utilisé un service de SVOD en 2018 ( croissance de 10% en 1 an .

Au regard de la baisse de la consommation en live sur le téléviseur  (- 3% chaque année), de la hausse des nouveaux usages en replay sur ( +20%) ,et hausse ( +20%)  de la consommation  télé sur les « écrans internet » , l’évolution de la durée d’écoute révèle une transformation du mode de consommation de la télévision.

La TV reste un média puissant

La télévision  linéaire reste cependant un média stratégique pour les annonceurs car :

  • Elle est un média de masse permettant une force de frappe auprès d’une large audience variée.
  • Son environnement de diffusion brand safety grâce au contexte de programme connu d’avance rassure.
  • Sa capacité à développer rapidement la notoriété et l’image des marques est indéniable : la Télévision est toujours perçue par les annonceurs comme un outil indispensable pour bâtir et construire la notoriété des marques à long terme

Les nouveaux usages «  écrans internet » pèsent 10% de la consommation TV et 20% chez les 15-24 ans . Cette nouvelle audience sur nouveaux écrans  reste certes minoritaire face à la suprématie du poste de télévision mais  elle n’est pas pour autant négligeable. D’où l’idée de Médiamétrie, qui fournit déjà aux chaînes des données concernant les écrans internet, de les intégrer d’ici à 2020 au Médiamat .

Le transfert de valeur et les nouveaux modes de consommation expliquent l’évolution de la mesure  Mediamat.

L’étude réalisée par le cabinet Bearing Point , Medias et publicités en ligne 2017,  rendue publique par le  CSA démontrait déjà le changement stratégique des annonceurs dans leurs dépenses publicitaires au détriment des activités traditionnelles des médias dits « historiques » . Cette étude révélait que :

  • Depuis 2016, la télévision n’est plus le premier support des recettes publicitaires : le support Internet est passé en première position. La part de la télévision dans le mix média est passée de 32% en 2000 à 29% en 2017.
  • Les recettes publicitaires des supports de la Télévision, de la Presse imprimée, de la Radio, de l’Affichage extérieur et du Cinéma ont diminué d’un tiers entre 2000 et 2017. Sur la même période, la publicité sur Internet s’est développée en attirant plus d’un tiers du total des recettes publicitaires plurimédias
  • Les pertes de la Télévision linéaire ne sont pas compensées par les revenus générés sur Internet, les chaînes historiques n’ayant pas réussi à encore réussi à monétiser correctement leur audience sur le digital. Entre 2000 et 2017, les recettes publicitaires de la Télévision ont baissé de 17% en passant de 3,9 à 3,2 milliards d’euros.
  • Les annonceurs ont fait des transferts massifs d’investissement entre supports. En 2017, les investissements Internet représentent 35% des dépenses médias. Les recettes publicitaires dans les supports historiques, notamment la Presse et la Télévision ont baissé respectivement de 71% et 17%.

Les récentes évolutions de la mesure d’audience :

Depuis 2011 Médiamat intègre l’audience en différé des programmes sur l’écran de télévision, puis en 2014 la mesure s’est étendue à la catch up TV (ou replay). Depuis 2016 Médiamétrie , propose en complément de la mesure télé Mediamat , la mesure de l’audience des programmes TV sur les 3 écrans :  ordinateur, smartphone et tablette ( Internet Global 3 écrans) . Chaque jour, les clients souscripteurs de la mesure , peuvent ainsi connaître, pour chaque programme des chaînes qui ont marqué leurs contenus avec le tag eStat Streaming, le nombre moyen de téléspectateurs avec le détail par écran et par mode de consommation (live, différé ou replay).

Mediamétrie souhaite également mesurer l’audience télé en dehors du domicile, par exemple un match qu’on regarde dans un bar, ou un programme qu’on suit sur un lieu de vacances. Une expérimentation est en cours dans  3 000 foyers équipés d’un petit audimètre portable, capable de reconnaitre via des technologies de reconnaissance audio les programmes télé écoutés, où que soit la personne qui le porte.

La multiplication des écrans diffusant des contenus TV et la fragmentation progressive de l’audience rendent plus complexe la mesure de l’audience nécessaire aux annonceurs , régies et responsables de la programmation . Il est donc bien plus complexe de toucher cette même audience à l’aide des méthodes qui ont toujours été appliquées pour la télévision traditionnelle.

La quête d’une mesure plus efficace et acceptée par tous  

L’évolution des usages et de la distribution du contenu a fait perdre aux acteurs historiques la maîtrise de la mesure de leur audience. La reconquête de la valeur, devenue un des principaux objectifs des groupes audiovisuels et de leurs régies commerciales pourrait s’opérer à travers une mesure des audiences plus efficaces et reconnue par tous les acteurs .

Cette  mesure de l’efficacité publicitaire n’est  pour l’heure pas uniforme sur le marché de la publicité Internet malgré plusieurs initiatives .Médiamétrie et les acteurs du marché tentent de construire une norme commune qui permettra de faire le lien entre télévision et digital avec notamment  le GRP vidéo ,une  évolution du standard GRP déjà pratiqué en France mais limité à la diffusion télévisée.  Le GRP Vidéo, établi par Mediametrie  en partenariat avec Integral Ad Science depuis 2015,  est une mesure de l’audience vidéo partagée entre la Télévision et Internet qui prend en compte l’intensité du contact (  durée et la visibilité du visionnage) . La mesure n’a pas été adoptée par les agences ni par les annonceurs à cause de son coût et de  l’absence de coopération de Google et de Facebook qui rendaient la mesure partielle.

Les initiatives d’optimisation de la mesure de l’efficacité publicitaire seront efficaces dès lorsqu’elle seront  adoptées et acceptées par tous les acteurs .

Pour aller plus loin :

www.mediametrie.fr

Etude Médias et Publicités en ligne : Transfert de valeur et nouvelles pratiques publiée en juillet 2018 ( CSA – Bearing Point)

Rédigé par Agathe Melingui

Les alliances data, une solution pour les éditeurs face aux GAFA ?

Le 21ème siècle ne sera pas celui de la publicité print, c’est maintenant une triste évidence confirmée. Alors que les géants Facebook et Google s’accaparent la croissance du marché de la publicité, les éditeurs s’en retrouvent dépossédés, laissant leur industrie à la dérive.

L’ère des alliances data

En effet, en 2017 Google et Facebook captaient 78% des dépenses publicitaires du marché français (19e édition de l’Observatoire de l’e-pub, 2017), et 91% en 2018, alors que ces dernières ne cessent d’augmenter elles-aussi (le marché de la publicité digitale ayant dépassé pour la première fois les 4 milliards d’euros en 2018, selon BFM Business). Une situation pouvant s’apparenter à un véritable changement structurel de l’industrie, avec l’encrage d’un duopole du marché publicitaire digital.

Face à cette menace, l’Europe et notamment la France ont vu ces dernières années naître de premières alliances data : elles se nomment Gravity, Verimi ou encore Skyline. L’enjeu : investir dans le marché programmatique afin de ne pas en laissant l’exclusivité aux deux géants.

Gravity, une alliance de rassemblement de grands groupes français, se veut ainsi offrir des solutions alternatives aux solutions dominantes proposées par les acteurs transnationaux. Elle rassemble 150 éditeurs membres partenaires, qu’ils soient issus du milieu de la télévision, de la presse écrite ou encore des télécoms : on y retrouve Marie Claire, BFMTV, L’Equipe, L’Express, Les Echos, le groupe M6, Orange… D’après Fabien Magalon, Directeur Général de l’Alliance Gravity, les facteurs clefs de succès des GAFA sont la massification des audiences et la création de valeur sur la data.

Pour faire face à ces adversaires, Gravity compte donc sur sa stratégie d’union, la capacité à atteindre de grosses volumétries, l’ADN médias premium des marques ou encore le label Digital Ad Trust. En effet, alors que les plateformes Facebook et Youtube ont bien du mal à offrir une véritable brand safety à leurs annonceurs (fake news, commentaires haineux, contenu douteux mal régulé…), les alliances data revendiquent une publicité de meilleure qualité et maîtrisée. Un second vent positif vient souffler en faveur des alliances : à l’heure où le contenu est roi, et où la contextualisation du message fait ses preuves en tant que facteur impactant l’effectivité des publicités, les alliances partent alors avec un avantage sur les GAFA. En effet ,alors que ces derniers ne sont que diffuseurs de contenus, les éditeurs en sont producteurs. Or, une publicité serait bien plus impactante dans un environnement éditorial que sur une plateforme sociale : il s’agirait d’une augmentation de 27% d’intention d’achat (e-marketing, 2017).

Et en 2019 ?

Mais à quoi ressemblent vraiment les chiffres en 2019 ? D’après Fabien Magalon, l’alliance Gravity adresserait 53% de couverture quotidienne sur internet, soit un internaute sur deux  et 90% de couverture mensuelle (Médiamétrie, 2018). Elle recueillerait chaque mois 10 milliards de données. En comparaison, Google et Facebook couvrent respectivement 60% et 70%  de la population au quotidien, Google atteignant les 96,5% par mois. Le Groupe Figaro, lui, en s’associant avec Le Monde au sein de Skyline, revendique une couverture mensuelle de 80% de la population française avec 35 millions de visiteurs uniques sur les trois écrans (e-marketing, 2017). Un bilan qui se veut, pour le moment, très positif.

Une question se soulève tout de même quant à la crédibilité et la puissance de ces alliances face aux GAFA. Nous assistons en effet en cette fin 2018 / début 2019 à une multiplication des alliances, nationales mais également européennes, à l’image de la naissance de Verimi en Allemagne, mastodonte rassemblant les données de Lufthansa, Allianz, Samsung et la Deutsche Bank. Or, toutes sont conscientes que leur force se trouve dans l’union, l’enjeu étant d’égaler les deux géants sur la massification de l’audience touchée. Ainsi, une multitude d’alliances ne mènerait-elle pas logiquement à un affaiblissement face à Google et Facebook ? Pourquoi ne pas créer une seule alliance Française, voire Européenne ? Le manque d’un projet global de rassemblement des éditeurs pourrait être la raison d’un échec futur face aux GAFA.

Autre possible échec de ces projets : l’adoption de la RGPD en 2018. En effet, ce texte européen qui renforce et unifie la protection des données individuelles et personnelles au sein de l’Union Européenne vient bouleverser les piliers de fonctionnement de ces alliances : la collecte et l’utilisation de millions de données personnelles.

Cependant, selon François Magalon, PDG de Gravity, il n’y a pas de quoi s’inquiéter. Selon lui, si la RGPD va impacter les volumétries des données exploitables au travers d’un consentement plus libre et plus explicite, elle améliore également la qualité des données exploitables (Gravity, 2018). Elle consisterait donc à assainir le marché. Et en effet, les alliances semblent bien toutes avoir pleinement adopté la RGPD et être en accord avec la nouvelle régulation. Chacune d’elles respectent sur leur site les principes de transparence (il faut désormais expliquer concrètement d’où vient sa data ) et de consentement imposée par cette dernière (il faut également expliquer comment les consentements sont obtenus, transmis et modifiables). A titre d’exemple, un système de opt-out direct est à présent sur le site de Gravity. Par ailleurs, dans son règlement, l’alliance affirme que ses technologies de ciblage ne permettent pas de tracer l’activité des internautes sur d’autres sites, ni de collecter de données permettant d’identifier un individu.

Mais plus encore : l’implémentation de la RGPD favoriserait les collaborations directes entre éditeurs et annonceurs, selon Grégoire Fremiot, Chief Revenue Officier de Mediarithmics. Alors que Facebook peine à faire face aux régulations européennes et aux condamnations de l’Union Européenne, les alliances, conçues dans le cadre du respect de la RGPD, assurent la traçabilité de bout en bout des données et permettent de gérer ces dernières en temps réel, en accords avec les normes européennes. Ces plateformes, grâce à un modèle de cross-DMP, permettent ainsi à chaque acteur de maîtriser l’accès à sa donnée propriétaire d’une part et d’activer des campagnes sur tous les membres d’autre part.  Ainsi, le paysage concurrentiel s’en voit bouleversé, et l’heure n’est plus au volume seul mais à la qualité et légalité de la data.

Enfin, n’oublions pas que 2018 a surtout vu émerger une troisième grande plateforme publicitaire : Amazon. Son chiffre d’affaires publicitaire attendrait les 16 milliards de dollars en 2021 : bien assez pour en faire une troisième solide menace. Ce mastodonte de la donnée vient donc assombrir l’écosystème des alliances data, et affaiblira certainement ces dernières…2019 sonnerait-elle donc l’heure d’un projet data global à l’échelle européenne ?

Lucie Franco

Quitter la version mobile