Coup de mou dans le dynamisme de France Télévisions

Coup de mou dans le dynamisme de France Télévisions La télévision publique coincée entre valeurs d’hier et enjeux de demain Chacun le sait, la consommation de télévision aujourd’hui n’est plus ce qu’elle était. Tous les groupes médias sont confrontés à la délinéarisation de la télé. Le constat est simple. La télévision s’efface au profit de la vidéo. Les rendez-vous donnés par les chaînes, aux téléspectateurs sont de moins en moins rentables. Elle apparaît de plus en plus comme un média « has been ». Par ailleurs, on assiste à une explosion de la consommation de contenus à la demande. Ces enjeux, les professionnels les connaissent et ils semblent dépassés par cette mutation. L’arrivée de Delphine Ernotte à la tête du groupe public laissait présager un virage dans la stratégie du groupe, notamment en ce qui concerne le digital et les nouvelles pratiques. L’ancienne numéro deux d’Orange a été nommée à la tête du groupe, pour son projet. A l’heure de la convergence entre les médias et les télécoms, cette nomination s’annonçait comme du pain béni.

Une cadre de l’ancien opérateur public de télécommunications représentait une réelle valeur ajoutée. Orange a mené d’une main de maître son passage dans le secteur privé mais a aussi su se positionner pour ne pas s’écrouler face à l’arrivée sur le marché, de l’entreprise Free. Les temps ont été durs mais cette époque là est révolue et Delphine Ernotte a fait partie avec Stéphane Richard du comité exécutif qui a su réorienter la stratégie d’Orange pour contrer les politiques agressives des nouveaux arrivants sur le marché des télécoms.
Un manque criant d’innovation et de dynamisme Pour le moment, l’image dynamique mise en oeuvre chez l’ex-France Télécom, n’a pas été transposée chez France Télévisions. Certes, Delphine Ernotte est en poste depuis le mois d’août 2015 et il est encore très tôt pour pouvoir faire le bilan de son mandat. Mais lors des dernières conférences de presse du groupe, il ne se dégageait pas l’idée d’une mutation ou d’une évolution. Des petits changements cosmétiques ont été apportés aux grilles des différentes chaînes. Ce n’est pas ce que l’on attend! Nous aimerions que l’on nous propose la télévision de demain. Des programmes innovants, une offre de télévision publique repensée pour les nouveaux usages sur le digital. Or, ce qui a été annoncé c’est une volonté de développer les images de marque des différentes chaînes composant l’entité France Télévisions. S’y ajoutent la volonté de créer des « rendez-vous » avec les téléspectateurs en deuxième partie de soirée et la création d’un « label » France pour les fictions françaises. La révolution n’aura pas lui tout de suite! Il semble que les patrons de chaînes n’aient pas saisi l’enjeu des défis de la télévision de demain. Certes, un « Plan création » a été annoncé à l’horizon 2020 (les chaînes porteront leurs investissements dans la création digitale à 10 millions d’euros par an).

Mais, avoir l’ambition de donner des « rendez-vous » alors qu’aujourd’hui les pratiques pour les contourner se multiplient, semble illusoire. Par ailleurs, si l’on souhaite faire revenir les téléspectateurs et gagner de l’audience il serait intéressant de développer une télévision qui colle plus à l’image des français. Delphine Ernotte a révélé il y a quelques jours qu’elle rêverait d’embaucher Laurence Haïm et Yann Barthès. Les animateurs c’est une bonne chose, mais un concept d’émission et de l’innovation c’est mieux. Les audiences sont en souffrance y compris suite aux aménagements mis en place à la rentrée de septembre. Depuis début janvier, les après-midis de France 2 ont été à nouveau modifiés. Sur le digital, pas de changement depuis quelques temps. Outre une cellule de prospective, extrêmement dynamique et un blog (« meta-media ») très intéressant et novateur, pas de révolution à signaler. Un changement attendu avec la nouvelle plateforme « Pluzz » La nouvelle plateforme « Pluzz » devrait être mise en service à partir du mois de mai 2017. La patronne de France Télévisions l’a annoncé à la mi-janvier. Tout d’abord elle changera de nom. Mais sera aussi repensée dans un format plus adapté à l’époque pour un usage simplifié. Elle permettra de visionner les programmes en replay, la VàD et un service VOD. Ce service est l’une des nouveautés annoncées. A priori, il devrait être mis en service à l’automne prochain. Peu
d’informations ont été dévoilées sur ce projet.

Lors du FIPA, à Biarritz, le patron de la RTBF, JeanPaul Philippot a annoncé une éventuelle participation à l’offre de vidéo à la demande par abonnement. On sait également que la patronne du groupe public négocie actuellement ce projet avec plusieurs producteurs, sur le principe du partage des revenus. Les discussions sont en cours notamment avec Banijay Zodiak, Cyber Group Studios, Lagardère Studio, Makever, Mediaparticipations, Univers Ciné, Newen Studios, Millimages, Xilam et Tétramedia. Le business plan de ce projet stratégique n’a pas encore été approuvé en Conseil d’administration. Le service se retrouvera confronté à des concurrents français et internationaux bien installés Enfin, la grande inconnue, et pas des moindres, vont-ils mettre en place une forme de collecte de data à travers le nouveau « Pluzz »? Delphine Ernotte n’a pas évoqué le sujet. Toutes les télévisions de rattrapage demandent au consommateur un minimum de données pour visionner les contenus. Ce n’est pas le cas de France télévisions. On peut accéder aux services en ne donnant aucune information. Or, on se demande si service public et récupération des données de l’utilisateur sont conciliables. L’avenir et les audiences se jouent sur ces informations. Il s’agirait de rattraper le retard accumulé dans le domaine voire même de trouver un compromis entre le fait d’optimiser les audiences via les données tout en préservant la confiance du public. Tisser et préserver un lien avec le spectateur, aujourd’hui, cela passe notamment par le digital.

Charlotte Tomaka

Clue, le futur de la santé est-il connecté ?

 

La startup berlinoise Clue, dont l’application a été lancée en 2013, a réuni un total de 30,3 millions de dollars lors de ses multiples levées de fonds. L’application mobile met la science et la donnée au service de connaissances personnelles actionnables dans le domaine de la santé féminine.

La cofondatrice Ida Tin est partie du constat que depuis 60 ans, première commercialisation de la pilule contraceptive, aucune innovation majeure n’a eu lieu en la matière. Et si la technologie pouvait entrer en jeu ?

Clue, mais qu’est-ce donc ? Voici des indices !

L’application mobile s’est positionnée comme un traqueur du cycle menstruel et une aide à la contraception et la fertilité. L’application est disponible dans plus de 190 pays, 15 langues et comptabiliserait selon elle 5 millions d’utilisateurs actifs. L’application repose sur trois technologies principales : le machine learning, les big datas et le cloud. Clue devrait proposer à l’avenir du hardware avec notamment l’utilisation de la technologie de réseau de capteurs sans fil.

L’application Clue peut être utilisée avec ou sans création de compte utilisateur :

  • Sans compte (opt out) : les données sont stockées localement sur le mobile de l’utilisateur, certaines fonctionnalités et la récupération des données sont impossibles. Les données ne sont partagées avec aucun tiers.
  • Avec compte (opt in) : les données sont stockées sur les serveurs propriétaires de Clue. Les données personnelles collectées sont anonymisées et sont utilisées pour la recherche par des universités partenaires comme Oxford University ou encore Columbia.

Les applications de suivi du cycle représentent la deuxième catégorie la plus téléchargée après les applications de running dans la catégorie forme et santé de l’App Store. Il existe à ce jour une centaine d’applications mobiles sur cette thématique sur le store français. Quels signaux sont actuellement envoyés sur le marché de la santé connectée et quelles stratégies peuvent y émerger ?

La santé connectée : un marché attractif !

Selon Statista, le marché global de la santé numérique a été évalué à 60 milliards de dollars en 2013 et devrait être multiplié par quatre d’ici 2020, pour atteindre les 233,3 milliards de dollars. Le marché devrait être plus particulièrement tiré par la m-santé, santé connectée grâce au mobile, la santé sans fil (« wireless health ») qui regroupe tous les usages de technologies sans fil au service de la santé et enfin la télémédecine qui désigne l’usage des NTIC pour permettre l’exercice de la médecine à distance. Le segment de marché de la m-santé devrait générer 55,9 milliards de dollars en 2020.

Le culte du « quantified self », déjà une habitude de consommation…

La mesure de soi, « quantified self », n’est pas née avec le numérique. Cependant, le numérique a permis sa généralisation et son partage. Ce terme désigne l’ensemble des méthodes et technologies permettant à l’utilisateur de mesurer ses données personnelles pour mieux se gérer lui-même. Cela peut regrouper la gestion de sa productivité, de son bien-être ou encore de sa santé. L’émergence et le succès d’applications permettant de suivre la santé de ses utilisateurs sont indissociables de l’accélération du phénomène de mesure de soi.

… Malgré une méfiance à l’égard des produits de santé connectée !

Il existe néanmoins un enjeu fort de confiance envers les services et produits du marché la santé numérique. Une étude Statista montre qu’un quart des consommateurs américains entre 35 et 44 ans sont soucieux du fait que leurs données de santé, et plus particulièrement leurs dossiers médicaux, soient stockés dans le cloud. Les générations les plus jeunes sont plus enclines à partager leurs données que leurs ainées.

Quant au partage des données de santé de manière anonyme pour faire avancer la recherche médicale, le clivage entre la génération des 18-24 ans et des 25-34 ans est particulièrement marqué puisque 40% des 18-24 ans y sont favorables tandis que les 25-34 ans sont parmi les générations les moins enclines à partager ces données (28%).

Enfin, la confiance des médecins est primordiale pour apporter de la légitimité aux produits et services de la santé numérique ainsi que favoriser leur développement et leur usage. L’enjeu actuel est de rassurer les médecins sur la manière selon laquelle les données sont traitées puisque la principale préoccupation des médecins en Europe est la mauvaise interprétation des données.

L’importance de se positionner en « good data company »

Face à ses concurrents, Clue affirme être une « Good data company » et être très vigilante quant aux données de ses utilisateurs. Son concurrent Ovia Health espère valoriser ses données auprès des compagnies d’assurance et la réputation de Glow a été dégradée lors de l’été 2016 dans un rapport du site américain Consumer Reports démontrant des failles de sécurité concernant les données des utilisateurs, depuis démenties par Glow.

L’actualité juridique est particulièrement riche dans ce domaine avec l’entrée en vigueur du règlement européen sur la protection des données personnelles en 2018. Clue devra dès lors intégrer toutes les contraintes législatives à venir, en assurant une protection effective des données de ses utilisateurs dès la conception du hardware, en intégrant la notion de privacy by design.

Une stratégie de verrouillage des utilisateurs et de coopétition avec Apple

La stratégie de Clue est une stratégie de verrouillage et de mise en place d’un switching cost psychologique. L’utilisateur peut accéder grâce à l’application à toutes les données qu’il a entrées depuis le début d’utilisation de l’application. Le machine learning permet d’avoir des données dont la pertinence augmente avec l’utilisation de l’application. Si l’utilisateur quitte l’application, il perdra non seulement ses données, mais surtout la fiabilité des prédictions proposées par l’application. Clue ne verrouille pas ses utilisateurs de manière agressive : il est possible d’exporter ses données pour pouvoir les emmener en consultation médicale par exemple. Le verrouillage réside également dans le design de l’application puisque l’utilisateur est habitué à l’interface et en changeant d’application, il sera obligé d’apprendre à utiliser la nouvelle interface, ce qui peut constituer un switching cost psychologique.

L’arrivée d’Apple sur le marché a incité Clue à développer une logique de coopétition avec cet acteur. Plutôt que d’affronter frontalement Apple, Clue a décidé de coopérer avec lui en permettant de synchroniser les données de santé reproductive de Clue avec l’interface Health Kit de Apple. Cependant le passage par l’application Clue propose davantage de catégories que ce qui est pris en charge par le Health Kit, pour favoriser l’usage direct de l’application.

Du software au hardware, les prémisses du modèle d’affaire

Ida Tin, depuis les débuts de Clue, croit dans l’utilisation des capteurs sans fils, en plus des algorithmes et du machine learning, au service de la santé. Clue permet le suivi des données entrées par les utilisateurs eux-mêmes. En complément de l’application, il est déjà possible de se synchroniser avec FitBit, et Health Kit et ainsi, de prédire par la fréquence cardiaque, quand l’utilisatrice est plus fertile. Clue espère grâce à l’utilisation d’objets connectés, favoriser l’émergence d’une alternative aux moyens contraceptifs classiques.

Clue pourrait à terme constituer une alternative aux contraceptifs hormonaux, sous réserve d’études et tests cliniques rigoureux prouvant l’efficacité et la fiabilité de ce nouveau mode de contraception par rapport aux contraceptifs traditionnels. L’enjeu majeur est d’instaurer la confiance auprès des utilisatrices. Les alternatives actuelles restent contraignantes puisqu’elles nécessitent la prise de température basale et un suivi du mucus quotidiennement.

Le modèle d’affaire de Clue repose dès lors sur le hardware et non sur l’application seule. Le service proposé pourrait être à l’achat du support hardware et/ou à l’abonnement au service lié à l’usage du hardware. A date, aucune information descriptive sur l’objet connecté en cours de création n’a été communiquée, le projet restant secret et devant d’après les cofondateurs présenter une « innovation scientifique majeure ».

De l’application mobile au dispositif médical

Selon la directive Européenne 93/42/CEE, on qualifie les accessoires utilisés avec des dispositifs médicaux comme des dispositifs médicaux eux-mêmes. Avec le développement du hardware, il y a requalification de l’application Clue et les règles qui s’y appliqueront seront dès lors plus contraignantes. Clue semble avoir néanmoins déjà pris en compte en partie cet aspect juridique puisque tous les contenus rédigés sur l’application sont suivis d’une bibliographie citant la littérature scientifique ayant permis leur rédaction.

La course à l’innovation est lancée sur le marché de la santé connectée !

Le time to market du produit hardware semble long puisque la startup a été fondée il y a quatre ans. L’innovation technologique, la date de lancement du produit ainsi que les stratégies de pricing, communication et distribution seront déterminantes dans la réussite du modèle d’affaire de Clue. L’enjeu règlementaire viendra complexifier davantage les règles qui s’appliqueront à Clue, plus particulièrement sur le territoire européen. Plusieurs modèles d’affaires sur la m-santé féminine devraient s’affronter et l’avenir nous montrera s’ils pourront cohabiter ou si de gros acteurs comme Apple avec son softwares HealthKit ou encore Google, qui investit dans la recherche et développement de hardwares liés à la santé, capteront l’essentiel du marché.

 

Alice Fauroux

Le marketing digital au service de la politique

Le marketing politique a la particularité d’utiliser les techniques du marketing commercial classique pour promouvoir des idées. Ainsi, il agit sur le produit, en l’occurrence un candidat ou une idée, de manière à favoriser son adéquation avec les consommateurs (l’électorat, le citoyen, l’adhérent), créer la différence avec le produit concurrent, le faire connaitre par le plus grand nombre de consommateurs et avec un minimum de moyen afin d’optimiser les achats (suffrage, soutiens, adhésions). Il existerait donc un marché électoral, caractérisé par une offre, une demande et des marques.

Dès lors, il est possible d’assimiler la communication politique au marketing mix articulé autour des 4P :

Product : candidat – programme – parti

Price : Frais de campagne – nombre de voix

Place : lieux visités par le candidat – lieux de tractage et de promotion du candidat

Promotion : affiches – tracts – meetings – médias

S’il s’apparentait plus à un marketing de communication avant l’explosion du digital, il a pris une toute nouvelle dimension avec l’exploitation des capacités et outils du marketing digital. Comment la politique s’est-elle appropriée les techniques du marketing digital au point qu’elles en deviennent indispensables à la victoire ?

Le branding

Le marketing est le propre des marques, et l’essence de celles-ci, c’est la concurrence, ce qui est également l’essence de la politique dans une société démocratique. Le terme de branding désigne une logique d’action marketing ou publicitaire qui cherche à positionner une marque commerciale dans l’esprit du consommateur. A l’aune de cette définition, on pourrait se demander si les partis et les hommes politiques ne seraient pas devenus des marques comme les autres. Selon Marcel Botton, « les partis et a fortiori les hommes politiques sont des marques » : même besoin de notoriété et d’attractivité, mêmes outils marketing et même combat concurrentiel.

Le personnal branding prend d’ailleurs souvent le pas sur l’image des partis, toujours selon Marcel Botton « Marine Le Pen incarne son parti, tout autant que George Clooney incarne Nespresso »[1]. Très attachée à son image, Marine Le Pen a, par ailleurs, pratiqué le « rebranding » du Front National en donnant naissance au « Mouvement Bleu Marine » lors des élections présidentielles de 2012, exemple d’une adaptation du discours et de l’offre au contexte d’une campagne et aux attentes de nouveaux électeurs potentiels.

Le community management

Le réseau social aux messages en 140 caractères s’est imposé comme l’outil de marketing digital privilégié des personnalités politiques. D’abord utilisé pour créer une relation de proximité avec les internautes, Twitter est devenu le lieu incontournable du buzz. Toutes les marques ont ainsi créé un compte et investis dans des community manager pour tenter de sortir leur épingle du lot dans le flux d’information continu du réseau social. Ils entretiennent ainsi leur image de marque afin de pénétrer le quotidien des internautes, dont la majorité a tendance à voter pour une personnalité plus que pour un programme politique.

Les politiques ont misé sur une présence importante sur Twitter, et il le leur rend bien : le réseau social a bien souvent influé sur le résultat des élections. Récemment, Jean-Frédéric Poisson, pourtant inconnu du grand public, a déchainé la twittosphère et ainsi gagné une notoriété inespérée, les hashtags « poisson » et « clashpoisson » ayant écrasé ceux concernant ses concurrents.

Les applications smartphone

Développer une application smartphone est un élément incontournable pour cibler les fameux « millenials ». Tout comme les annonceurs, les politiques tentent désespérément de séduire les jeunes.  Hillary Clinton l’a bien compris et a lancé une application qui renouvelle la façon de mobiliser les militants. Réalisée par des développeurs de DreamWorks, cette application propose des défis quotidiens à remplir : s’inscrire à la mailing list, reposter une publication d’Hillary Clinton sur les réseaux sociaux ou encore se rendre au siège local du Parti démocrate pour aider à la campagne sur le terrain. Pour chaque mission accomplie, le supporter reçoit des points qu’il peut échanger contre un autographe de la candidate. Cette stratégie semble intelligente dès lors qu’elle rend l’expérience partisane ludique et permet au parti de récolter de nombreuses datas.

 

Le data mining, nouveau levier d’action politique

La qualification ultra-ciblée des bases de données permise par les outils de gestion de communautés citoyennes deviennent des atouts majeurs du marketing politique. Démocratisées par Barack Obama lors de sa campagne de 2008, de nouveaux programmes de gestion/CRM optimisés permettent aux politiques de mieux qualifier leurs bases de données et cibler davantage leurs actions sur le terrain comme sur le web. A l’époque, le candidat américain s’était entouré de jeunes informaticiens venus de Google et Facebook qui avaient mis en place un projet data reposant sur trois piliers :

  1. L’agrégation de données sociodémographiques et nominatives sur une base géographique (données publiques)
  2. Corrélation prédictive des votes en fonction de l’historique des résultats électifs précédents par zone géographiques (données publiques)
  3. Corrélation avec les sondages d’opinions et les études ad hoc réalisés afin de connaitre les thèmes de bascule propres à influencer le vote des électeurs indéterminés en fonction des zones d’habitation.

En France, les candidats à la primaire de la droite, Alain Juppé en tête, ont suivi les traces de l’ancien président américain, et ont fait appel à Nation Builder pour optimiser leur campagne. Cette plateforme permet d’administrer un site, de collecter des contacts et des données et d’organiser des campagnes militantes. L’aspect interactif est essentiel : les équipes d’un candidat sur le terrain l’alimentent avec les informations qu’elles recueillent et le candidat peut envoyer ces équipes faire campagne auprès de publics ultra-ciblés. Il n’y a pas de limite à un outil qui permet maximiser toute information personnelle afin de décrocher un vote, un don ou un coup de main pour une opération de tractage.

Ces nouveaux outils basés sur la data, permettent d’optimiser les dépenses marketing en e-mailing. Tout comme le font les annonceurs commerciaux, l’e-mailing politique pratique le retargeting (notamment à destination des indécis) et l’A/B testing (deux versions de courriels sont envoyées à deux panels de sympathisant et un bilan est réalisé pour savoir laquelle est la plus efficace : ouverture, taux de clics sur la pièce jointe, réponse etc.) 

La stratégie digitale à suivre : le cas Beppe Grillo

Tout commence en 2005 avec la création de son blog. Beppe Grillo caricature et dénonce les classes politiques italiennes, et partage ses coups de gueule. Son blog est l’un des plus lus d’Italie et atteint la 9ème position des blogs les plus populaires au monde. Il mise sur l’international en enrichissant d’une version anglaise et japonaise son blog, dont les visites augmentent au niveau mondial. C’est près de 150 000 et 200 000 visiteurs par jour en Italie.

Celui qu’on surnomme le « messie » utilise les réseaux sociaux et son blog pour créer des rassemblements contestataires dans toute l’Italie. Dès 2007, il parcourt l’Italie avec son « Vaffanculo Day ». Il utilise le portail du réseau social Meet Up pour former des groupes locaux à travers le monde (aujourd’hui 856 groupes, dans 14 pays qui comportent environ 120 000 membres) et créer des leaders d’opinion. Boycottant les plateaux télé, ses différents meetings du « Tsunami Tour » sont retransmis en direct sur son site, ainsi que sur sa chaîne Youtube (La Cosa). Son écosystème digital est prolifique, le relayage des informations sur les différents sites permet de créer un nouveau moyen de répandre ses idées en dehors des médias traditionnels. Il a également développé sa propre application. Aujourd’hui sa page Facebook compte 1,2 millions de fans, 1 044 491 followers sur Twitter et près de 110 millions de vues sur ses vidéos Youtube.

[1] Marcel Botton, « Les hommes politiques sont des marques comme les autres », 2008

 

Noémie Hennig

Data 1st party : Ce que les médias devraient apprendre des GAFA.

Dépasser ses first party data pour mieux vendre de la publicité.

En acquérant CCM Benchmark au mois d’octobre 2015, le Groupe Figaro avait pour objectif de devenir le groupe digital leader en France, en terme de visites d’une part, avec 24 millions de visiteurs uniques mensuels, et de data d’autre part, en diversifiant ses données 1st party. Son alliance avec l’éditeur de sites communautaires lui permet, en effet, de récupérer un autre type de données first party, comme les logs des internautes sur les forums. Une belle promesse publicitaire.

Le groupe, à l’instar des autres médias en presse et en télévision, a pris conscience d’une nécessité nouvelle : la  qualification véritable de son audience. Ainsi, avec le passage du média planning à l’audience planning, et la généralisation des DMP chez les annonceurs, ces derniers sont devenus exigeants. Les médias ont une promesse à tenir : une audience qualitative, et donc qualifiée. Exit les abus des premières heures de la publicité en ligne, pour le moins en apparence ; les éditeurs de contenu jurent avoir réglé les soucis de visibilité, de brand safety, et de fraude.

La combinaison de la data 1st et 3rd party : « connaître les inconnus ».

Internet a permis aux éditeurs de récolter de nouvelles données 1st party, plus précises, grâce aux web analytics : les données nominatives pour les utilisateurs loggés, les données comportementales pour tout visiteur (temps passé sur le site, durées d’écoute ou de lecture, moments de « décrochage » de lecture ou de visionnage, etc), la géolocalisation. Néanmoins, pour pouvoir vendre de la publicité ciblée, cette donnée 1st party de l’éditeur ne suffit plus car, si elle permet d’analyser le trafic et les comportement en ligne des internautes, le pourcentage de personnes loggées en presse écrite ou en radio reste très faible, ce qui ne permet pas de les identifier précisément. C’est notamment la raison pour laquelle les plateformes de catch-up TV de chaînes comme M6 ou TF1 obligent désormais leurs utilisateurs à se créer un compte afin de visionner des contenus.

Il a donc fallu enrichir ces profils avec de la data 3rd party, vendue ou louée par des acteurs tiers. Celle-ci apporte un autre type d’information sur l’internaute anonyme qui arrive sur un site, grâce aux « traces » qu’il a laissé lors de sa navigation, hors du site. Les acteurs de la 3rd party data, tels que Weborama, collectent les données des cookies et des tags, afin de définir des profils d’audience.

La combinaison de la data 1st et 2nd party  – Mieux cibler le consommateur visé par l’annonceur grâce à ses données.

Afin de parfaire le ciblage publicitaire, un autre type de données est injecté dans les plateformes d’achat d’inventaire : la donnée 2nd party, c’est-à-dire les données du partenaire commercial. L’annonceur peut ainsi tenter de cibler précisément, chez le média, les profils de sa base de donnée. Le croisement de la data 2nd party (de l’annonceur) avec la data 1st party (de l’éditeur) permet donc d’améliorer la qualité et la valeur du ciblage publicitaire : ce n’est plus la quantité d’impressions délivrées qui est valorisée, mais la qualité du ciblage du prospect.

D’un point de vue publicitaire, les médias traditionnels s’emploient donc à rattraper leur retard sur la collecte de données en ligne et le ciblage publicitaire. En revanche, ils sont encore loin d’optimiser la valeur de cette data, notamment 1st party, en les mettant au service de leurs contenus.

Traiter ses datas au service du contenu également.

Collecter des données ne suffit pas, c’est leur traitement qui apporte de la valeur à la data. Les données collectées sur l’audience en ligne pourraient permettre aux médias de recréer des marques fortes en optimisant le contenu et le personnalisant pour chaque utilisateur. Utiliser la data à des fins uniquement publicitaires est un palliatif fragile à la baisse des revenus : si l’audience déserte les contenus, c’est également à terme la disparition du « temps de cerveau disponible » si cher aux annonceurs. Or pour l’instant, les DMP semblent avoir du mal à quitter les régies pour rejoindre également les rédactions.

Pour la majorité des éditeurs, les algorithmes de recommandation autour du contenu sont encore loin d’être une réalité à l’exception de Melty, premier groupe médias chez les jeunes. Son business modèle repose ainsi sur « Shape », son algorithme prédictif. Celui-ci permet au média en ligne d’anticiper les sujets qui plairont à l’audience et deviendront viraux. Il influence aussi bien le fond, en s’inspirant des requêtes Google des tranches d’âge concernées et en faisant évoluer l’article en fonction des comportement de lecture, que la forme, en conseillant la sémantique la plus à-même de faire remonter l’article dans les moteurs de recherche.

 C’est pour s’aligner avec Google News ou la recommandation du News Feed de Facebook que les éditeurs traditionnels cherchent, de plus en plus, à créer une page d’accueil évolutive et personnalisée. Le Washington Post, depuis son rachat par Jeff Bezos, utilise ainsi deux nouveaux outils pour renforcer son audience en ligne. D’une part, Bandito lui offre la possibilité de publier un article avec cinq titres, photos et traitements de l’histoire différents, arbitrés par un algorithme en fonction de la combinaison générant un engagement maximal du lecteur. D’autre part, Loxodo lui permet de mesurer son « lead » : la qualité perçue d’un article par rapport à ceux d’autres éditeurs, ou la réaction provoquée par une notification mobile.

En améliorant leur contenu grâce au traitement de la donnée, les « marques» média tels que Le Elle, les Échos ou le Figaro susciteraient une attention plus captive. Ce cercle vertueux autour de la data permet aussi une diversification : opérations spéciales, événements, location ou vente d’emailing à des entreprises partenaires. Néanmoins, l’utilisation de la 1st party data à des fins d’amélioration et de personnalisation des contenus n’est pas encore une réalité pour la majorité des éditeurs dits « traditionnels ». Ceux-ci se limitent encore à une valorisation publicitaire.

Les GAFA et NATU, très en avance sur le traitement des données.

Face à eux, des acteurs tels que Google ou Netflix ont construit leurs business model autour de la donnée 1st party. Ils n’excellent pas seulement dans le traitement de leur data, via des algorithmes auto-apprenant (deep learning et machine learning) et de recommandation qui permettent d’améliorer constamment l’expérience de l’utilisateur, ils ont également pris une longueur d’avance sur la quantité de données stockées. On pourrait presque évoquer un phénomène de « vinification » des datas, dans le sens où, Facebook, comme Google, a segmenté, croisé, fait « macérer » des données comportementales, émotionnelles, transactionnelles, contextuelles depuis dix ans.

Si les médias aujourd’hui, commencent à « profiler » leur base de données, la supériorité des GAFA[1] est donc incontestable en terme d’expérience dans la connaissance de leurs utilisateurs (consumer centric).

La vraie supériorité : avoir une donnée 1st party assez puissante pour se passer de la 3rd.

 Ces nouveaux acteurs ont donc dépassé la nécessité d’acquérir une donnée autre que leur 1st party data grâce à leur expérience son traitement. Des entreprises, telles que Netflix,  dont l’algorithme est devenu la proposition de valeur, peuvent se passer d’intermédiaires de la 3rd party en intégrant leurs outils à leur algorithme propriétaire.

Celui de Netflix développe ainsi de la 1st party data dès son premier contact avec son utilisateur : il se log dès le premier mois d’abonnement (gratuit sur le modèle freemium), ce qui permet à la plateforme d’associer précisément la donnée nominative et comportementale, affinitaire, émotionnelle ou transactionnelle. Si la data ne permet pas de produire des contenus originaux, elle guide les choix de production et leur suggestion au consommateur[2]. L’algorithme de recommandation se base sur les goûts et le profil du client ainsi que sur un système de filtrage à partir de profil similaire (look-alike). Netflix ne faisant que croître, ce modèle éditeur est devenu un best case, au regard de l’importance du traitement de la 1st party data.

En conclusion, la question n’est pas tant de se demander pourquoi aller au delà de la first party mais quelle sera sa nature, qui la possèdera et comment l’utiliser. La vraie bataille sera celle de la data, entre nouveaux détenteurs de la données (GAFA, FAI) et médias, qui en auront besoin tant pour orienter leurs contenus que pour les monétiser. L’importance d’aller au-delà de la 1st party data découle aussi de l’emprise des FAI sur cet actif naturel des médias.

 

[1] Google, Amazon, Facebook, Apple

[2] Pour se faire les programmes sont “taggés” et “séquencés” pour en déduire des dénominateurs communs à partir de facteurs tels que : le rythme de visionnage, le contenu de ces programmes ou le genre notamment.

Claire Manzano

TELEGRAM, le marketing digital de l’ère post-snowden

« When you say I don’t care about the right to privacy because i have nothing to hide, that is no different than saying I don’t care about freedom of speech because i have nothing to say (…) ». Qui citer d’autre, pour définir l’ère post-snowden, qu’Edward Snowden lui même ?

L’on associe traditionnellement la question de la vie privée à celle du secret des correspondances : la tradition se perpétue même si les techniques de correspondance changent pour devenir essentiellement numériques. Ce statu quo est impeccablement illustré par le nom de l’application de messagerie chiffrée qui a inspiré cet article, Telegram, créée en 2013 en Russie.

L’ère post-snowden est significative en ce qu’elle globalise la question de la protection des données  à caractère personnel tant verticalement (dans les relations entre institutions politico-économiques et les individus) qu’horizontalement (dans les relations entre individus ou groupes d’individus). Apparait alors un marché considérablement élargi, à l’instar de la masse des personnes potentiellement concernées par ce désir de protection : Telegram a été téléchargé près de 50 millions de fois en 2016.

Illustrant succès et limites de la dynamique entrepreunariale post-snowden, l’intérêt de Telegram va plus loin puisque l’application a su utiliser cette dynamique pour se reconvertir en social media, modèle plus pérenne.

Garantir la protection des données à caractère personnel : une stratégie marketing initiale efficace mais en perte de vitesse ?

Affaire Snowden, développement exponentiel des techniques de hacking, guerre numérique à échelle mondiale dont les dernières élections américaines sont un exemple évocateur, remise en question des pratiques commerciales de certaines grandes multinationales (…), tout ceci a contribué à distiller une véritable doctrine de la protection des données à caractère personnel qui ouvre un marché prometteur pour tous moyens de communication s’engageant à la garantir. Ce marché est en outre propice à un marketing opaque vue la difficulté pour les utilisateurs, même sensibilisés à l’informatique, de vérifier si les applications qu’ils utilisent sont bel et bien strictement sécurisées. Il s’agira alors de se démarquer de ses concurrents en communicant d’une façon convaincante sur un degré de sécurité prétendument supérieur : Telegram base sa stratégie sur le constat d’échec de ses principaux adversaires, Facebook et WhatsApp, à protéger les données  à caractère personnel qui y transitent. «Unlike other services, when we say we don’t share your data with third parties, we mean it », peut on lire sur le compte twitter de l’application qui, à la différence des autres,  fonctionne grâce à un cloud, ne stockant ainsi (presque) rien sur le téléphone. Opération réussie : début 2014, WhatsApp subit une panne mondiale de plusieurs heures ; le malheur des uns faisant le bonheur des autres, Telegram annonce alors avoir enregistré plusieurs millions de nouvelles inscriptions près de 24 heures après le bug, soit une augmentation de près de 2500%.

La question du financement et donc de l’appartenance boursière est également au coeur de la tactique marketing de Telegram : l’application se revendique auto-financée et indépendante (« Telegram can’t be sold ») tandis que Facebook rachète WhatsApp, en 2014, pour 19 milliards de dollars provoquant instantanément de sérieux questionnements -voire des investigations- sur le partage de données entre les deux entreprises.

Il ne reste plus qu’à décrire Pavel Durov, co-fondateur de la messagerie : créateur en 2006 de Vkontakte, le Facebook russe, menacé par le Kremlin (à qui il a, notamment, refusé l’accès aux profils des manifestants de Maïdan), exilé, ami des hackers …, tout jusqu’à son physique et son nom incarne et crédibilise l’image de Telegram comme arme contre le totalitarisme. Le charme opère puisque 15 milliards de messages sont envoyés chaque jour depuis l’application, et ceci sans le moindre investissement marketing significatif.


Mais cela ne tient que tant que la crédibilité de Telegram, comme messagerie inviolable, perdure. Là réside probablement la limite du marketing digital de l’ère post-snowden. Il faut s’assurer que la technologie utilisée est toujours la plus fiable, alors que les hackers sont de plus en plus performants et innovants. Pavel Durov tente de s’en assurer en offrant de 300 000 dollars à toute personne qui trouverait une faille dans son système. Il n’est pas sûr que cela ait été totalement efficace puisque l’application a été récemment pointée du doigts pour avoir été victime d’un piratage de grande envergure en Iran (15 millions de numéros de téléphone aurait été collectés), information partiellement démenti par Telegram[1]. L’application pourrait également, selon certains, avoir joué un rôle lors des prétendues tentatives des services secrets russes pour compromettre le nouveau président américain (rappelons qu’aucune des ces informations ne sont, actuellement, confirmées ou vérifiables).

De nouvelles applications, réputées plus sécurisées, commencent d’ailleurs à voir le jour, à l’instar de Signal (recommandée par Snowden lui même mais victime de problèmes techniques) téléchargée 3,62 millions de fois, ou Wicker-Me (3,8 millions).

Autre épine, l’utilisation assumée de l’application par des terroristes, dont certains impliqués dans les attentats récemment perpétrés en France, qui pose des questions éthiques et suscite des tentatives de réaction de différents gouvernements (« Les échanges de plus en plus systématiques opérés via certaines applications, telles que Telegram, doivent pouvoir (…) être identifiés et utilisés comme des éléments de preuve (…) » déclare Bernard Cazeneuve, alors ministre de l’intérieur, qui souhaite « armer véritablement nos démocraties sur la question du chiffrement », suggérant que « la Commission européenne étudie la possibilité d’un acte législatif pour rapprocher les droits et les obligations de tous les opérateurs »). Le droit national, régional et international est donc à la recherche d’armes juridiques pour lutter contre ces nouveaux canaux de communication. Si Telegram réagit timidement (suppression de 78 comptes liés à l’EI suite aux attentats de novembre 2015, création de la chaine IsisWatch qui publie des rapports réguliers sur le nombre de canaux ou de bots pro-Daesh bannis de la messagerie), il est évident que cela n’est pas dans son ADN, ni dans celui de Pavel Durov, qui déclare refuser de se plier à des « restrictions locales à la liberté d’expression ».

Plus globalement, l’on peut se demander si le concept premier sur lequel repose Telegram n’est pas fondamentalement incompatible avec l’effet de réseau que génère l’application. Si la confidentialité promise attire des masses conséquentes d’utilisateurs, ces masses attireront à leur tour la convoitise et le système se fera prendre à son propre piège. Associé à une inviolabilité quasi-impossible sur le long terme rendant inévitable la naissance de concurrents hautement compétitifs, et à la pression éthique, politique et juridique que subit le modèle, l’on doit s’interroger sur la pérennité de la vision qu’a Telegram du marketing digital de l’ère post-snowden.

Renouvellement de la stratégie marketing : utiliser la dynamique de l’ère post-snowden pour se reconvertir en social media et en plateforme digitale.

Il semble que Telegram ait assumé et anticipé cette plus ou moins inéluctable perte de vitesse, puisque l’entreprise entame une mutation intéressante et choisit d’utiliser bénéfiquement son effet de réseau pour se reconvertir en social media. Outre le service de messagerie individuelle ou groupée (un groupe pouvant contenir jusqu’à plusieurs milliers de personnes), Telegram propose des «  chaînes », listes de diffusion non limitées en taille, publiques ou privées, accessibles à partir d’URL permanents. Le diffuseur de n’importe quel message ou lien peut voir, en live, le nombre de vues qu’il suscite et le nombre de transmission à des membres extérieurs à la chaine.

Ce support détient un intéressant potentiel commercial et marketing pour les marques, engendrant une convoitise qui, si elle est problématique à gérer pour une application de messagerie sécurisée, devient potentiellement une force pour un social media : c’est peut-être la solution qu’a trouvé Telegram pour échapper à son paradoxe.

Telegram tend également à devenir une plateforme digitale complète et centralisatrice. D’abord, son utilisation ne requière pas d’espace de stockage puisque l’application utilise un système de cloud, servant initialement à éviter la présence de datas dans la mémoire de l’appareil utilisé. Ceci permet notamment d’envoyer des fichiers beaucoup plus volumineux que ceux pouvant transiter via d’autres systèmes de messagerie. Ensuite Telegram fournit deux types d’API à d’éventuels développeurs : des « Bot API », permettant de connecter des bots (systèmes interactifs robotisés avec lesquels l’on peut tchatter) au système de messagerie et des « Telegram API » permettant de développer des applications sur la plateforme. Enfin, l’on peut citer, à titre d’exemple des divers services maintenant offerts par Telegram (qui dispose d’ailleurs depuis peu d’une version disponible sur ordinateur), une option pour transférer de l’argent disponible en Russie et au Brésil ou des stickers crées sur mesure par des artistes … D’aucun pourrait répondre qu’il manque encore la possibilité de passer des appels via l’application : c’est en cours !

L’évolution de Telegram atteste donc d’une stratégie marketing pragmatique. Il reste que cela sonne vraisemblablement le glas de l’idéologie entrepreneuriale initiale, résumée ainsi : « its non-profit model means that it was not created to make the billions that other companies strive for : it was build to offer a better messaging service to the people ».

[1] Droit de réponse de Telegram : https://telegram.org/blog/15million-reuters

 

Athur Terry

Data et programmatique : un couple gagnant ?

Face à une expérience en ligne extrêmement dégradée, la publicité programmatique se révèle être une perspective d’avenir intéressante. L’augmentation constante du taux d’équipement des adblockers en France pousse les annonceurs et les éditeurs à réinventer le modèle publicitaire en ligne. Ces dernières années IAB a avoué privilégier l’optimisation des revenus publicitaires et les outils de retargeting qui permettaient de conserver des CPM et CPC rentables. Cette stratégie a conduit à accroître la pression publicitaire sur les internautes qui sont maintenant plus de 30% à être équipés d’adblockers.

Depuis 2015, IAB fait marche arrière et Scott Cunigham prêche pour un standard publicitaire dit « LEAN », plus léger, moins intrusif qui laisse le choix aux internautes. Aujourd’hui éditeurs et annonceurs tentent de se renouveler en pariant sur des formats innovants, la brand utility et la personnalisation de la publicité. L’association du big data et l’évolution de la publicité programmatique sont les deux éléments essentiels de cette transformation. La France est l’un des pays prescripteurs en termes de ventes d’annonces automatisées, fin 2016, les ventes mobiles représentent 43% des ventes annuelles soit 239 millions et une croissance de plus de 60%. Cette tendance continuera de se renforcer, emarketer estime à 518 millions de dollars les dépenses en programmatique en 2018. Le couple data programmatique est au coeur de cette évolution réussie.

Du marketing de masse au marketing à la performance

Le terme de programmatique désigne, dans le cadre du marketing digital, l’automatisation de l’achat et de la vente d’espaces publicitaires sur n’importe quel device.

La publicité ciblée, une révolution permise par le RTB sur Ad Exchange

La programmation RTB (real time bidding) que l’on pourrait traduire par « offres en temps réel » est comparable à une salle de marché boursier sur laquelle se vendent et s’achètent des espaces publicitaires en ligne. La vraie révolution intervient avec le modèle du Ad exchange : les transactions, qui s’effectuaient sur un Ad Network jusqu’à lors, ne concernent plus des espaces publicitaires mais des audiences. Ainsi, le même espace publicitaire n’est pas commercialisé aux mêmes personnes avec le même message : l’annonceur peut désormais cibler une audience. En effet, grâce à un logiciel de bourse en temps réel, l’annonceur propose des flux d’informations concernant la cible qu’il aimerait toucher et ne va payer que pour des audiences qui correspondent à ses critères. D’un autre côté, les éditeurs proposent des inventaires dont ils ont qualifié l’audience, plus cette dernière est connue et précise, plus elle peut être vendue chère aux annonceurs, il existe donc un véritable enjeu au de la donnée de l’audience.

En pratique, l’annonceur va contacter une agence (sauf s’il dispose d’une équipe marketing compétente en interne) qui utilisera une Demand Side Plateforme afin de fixer les paramètres de la campagne publicitaire (cible, budget etc.). C’est le DSP qui fera le travail en faisant automatiquement et en temps réel des offres d’achat d’impressions. Pour cela, il se connecte à un Ad Exchange, lui-même connecté à différentes Sell Side Plateform. Ces dernières permettent aux éditeurs de vendre leurs inventaires disponibles en automatisant leur gestion selon la stratégie qu’ils ont définie et d’optimiser leurs revenus publicitaires. La suite du processus se déroule de la façon suivante :

La programmatique RTB sur Ad exchange constitue une véritable révolution dans le domaine de la publicité digitale dès lors qu’elle offre l’opportunité à l’annonceur de cibler le bon client final en lui proposant une publicité personnalisée grâce à la data.

L’enrichissement des données, clef de voûte d’un marketing performant

Le véritable enjeu de la programmatique c’est la data. La prise de décision en temps réel de répondre à l’achat ou non d’un espace publicitaire repose toujours sur les données. La data s’avère donc être la clef de voûte du marketing digital : l’annonceur cherche à atteindre la bonne cible, l’éditeur cherche à maximiser la donnée et le prestataire veut faire du profit grâce à la valeur de sa revente dans les ad exchange. Il existe plusieurs formes de collecte de données : celles concernant l’individu lui-même (formulaires, life logging, cloud etc.), celles concernant d’autres individus connectés au premier (liens, commentaires, contacts), les traces (données de navigation implicites ou explicites, cookies, tags, logs) et les collecteurs historiques (CRM, achat de bases de données). Il faut néanmoins souligner que toutes les données des réseaux sociaux sont considérées comme des données personnelles par la loi française et leur utilisation est subordonnée au consentement de la personne (« opt-in »).

« L’Oréal, l’achat programmatique dynamise les ventes »

L’Oréal s’érige en véritable modèle de réussite  dans la transition du marketing de masse au marketing segmenté. En 2012, le groupe se lance dans la programmatique avec l’objectif d’optimiser les taux d’engagement de ses pubs grâce au ciblage des audiences. L’Oréal renonce donc à toucher un public le plus large possible mais tente de segmenter son audience pour mieux connaître les consommateurs et leur délivrer les bons messages au bon moment. La marque de cosmétique a relevé le défi avec  Shu Uemura qui ne parvient pas à atteindre sa cible sur le marché américain. Pour la campagne Shupette, L’Oréal désire développer la notoriété et intensifier les visites du site Shu Uemura.

La première phase de l’opération consistait à identifier l’audience existante grâce à Google Analytics Premium et Double Click Bid Manager. Cette étape cruciale a permis d’acquérir de nouveaux prospects grâce aux annonces ciblées sur les réseaux sociaux et le display.

L’acquisition correspond à la seconde phase, pour ce faire Shu Uemura utilise DoubleClick Bid Manager pour le remarketing de la gamme Shupette.

Grâce à sa data interne et l’achat programmatique, le chiffre d’affaires atteint le double des estimations, aux Etats Unis, le CPA va jusqu’à dépasser les objectifs à hauteur de 73%.

Cette opération montre à quel point data et programmatique sont indissociables pour une évolution vers la personnalisation de la publicité.

L’optimisation du budget marketing

L’automatisation de la vente et de l’achat de médias a conduit à une réduction du gaspillage et permis une plus grande optimisation des coûts et des opérations, selon les conclusions d’une enquête que l’IAB. Avant, l’annonceur devait définir un groupe cible, une série de critères, rencontrer une agence marketing en mesure d’identifier les éditeurs pertinents pour l’affichage et seulement quelques semaines plus tard un contrat était signé. Le processus était lent et inefficace en matière de ciblage. Avec le traitement automatisé de la data au sein d’une DMP et un échange en temps réel sur un Ad exchange, les entreprises font des économies : d’une part parce qu’elles évitent le recours à des acteurs payants et parce qu’elles optimisent leur marketing. En effet, dès lors que les annonceurs achètent une audience qualifiée ils offrent une publicité personnalisée directement au client final avec la possibilité de retargeter, redimensionner. Ils économisent ainsi le budget marketing alloué initialement à la masse dont la plupart est désintéressée du produit.

Une alternative qui séduit :

Selon l’étude de l’IAB susmentionnée, une majorité d’acteurs de l’industrie de la publicité déclare avoir adhéré aux méthodes programmatiques de vente et achat média. 900 acteurs parmi annonceurs, agences et éditeurs, situés dans 29 marchés différents ont été interrogés dans le cadre de cette étude : seuls 8% des éditeurs, 13% des annonceurs et 7% des agences interrogées ont déclaré ne pas avoir recours au programmatique. 90% des professionnels interrogés affirment vouloir augmenter les investissements dans ces méthodes dans les 12 mois prochains.

Selon l’agence IPG MediaBrands, la publicité programmatique devrait représenter près de 33 milliards d’euros en 2019. Elle constitue d’ores et déjà près de 40% du display, qui lui-même représente, rappelons-le, environ un tiers de la publicité digitale (un marché toujours dominée par le search).

 Data et programmatique : un couple inséparable

Il y a encore quelques années l’achat en programmatique avait mauvaise presse parce qu’il servait principalement à écouler les espaces invendus des éditeurs. Le programmatique n’est pas tout à fait débarrassé de cette image « d’achat media low cost » qui pose la question de  brand safety. Pourtant, la rencontre entre data et programmatique permet d’améliorer l’expérience d’achat automatisé pour l’annonceur. Ce dernier a la possibilité d’affiner ses acquisitions, il n’achète plus uniquement des impressions, mais bien des profils de consommateurs sur lesquels il collecte des informations. Selon Béatrice L’hospitallier, directrice data du groupe Les Echos-Le Parisien, cette évolution permet aux annonceurs de sortir du modèle de performance et d’utiliser le programmatique pour des opérations de branding afin de profiter d’audience qualifiée. Mutualiser les données acquises par les annonceurs et les éditeurs ouvrent également le champ des possibles et donne le pouvoir de détecter les jumeaux marketing qui sont similaires aux audiences déjà identifiées et susceptible d’avoir les comportements d’achat identiques.

D’autre part, la data est synonyme de fiabilité pour les annonceurs. Les annonceurs ont longtemps été réticents à investir dans l’achat programmatique pour des raisons de brand safety mais aussi à cause des phénomènes de fraudes aux impressions. Les bots auraient coûtés 6,3 milliards de dollars en 2015 aux annonceurs pour des pubs qui n’ont jamais été visibles par les internautes. Aujourd’hui, Sophie Poncin affirme que les réticences des annonceurs se font moindres et laissent place à une approche très qualitative.

 

  Anouar Lmabrouk

@anouar_smh

Deepomatic, un nouveau moteur de recherche au service de la mode, 100% français

Deepomatic est une start-up française dédiée à l’intelligence artificielle et à l’image. Son domaine de prédilection est la mode et l’équipe a pour ambition de répondre à un besoin grandissant des internautes, avoir accès à tout, tout de suite en créant un moteur de recherche de reconnaissance d’images.

Les prémices de la start-up

Deepomatic est née de la rencontre de trois amis, à l’école Normale Sup de Lyon : Augustin Marty, Alois Brunel et Vincent Delaitre. Leur première idée est de monter Smyle. Le but était de créer une marketplace qui récupère tous les sacs et les chaussures disponibles chez les e-commercants francais et de permettre aux utilisateurs de naviguer à travers cet immense catalogue pour trouver des articles qui se ressemblent. En clair : une envie d’un sac Marc Jacobs alors que les économies font défaut ? Il suffisait à l’utilisateur de rentrer une photo du modèle voulu et Smyle se chargeait de trouver un article similaire, à prix bien évidemment plus avantageux.

Les trois amis, un peu trop ambitieux, ont décidé d’arrêter cette affaire et de se concentrer sur ce qui savent faire le mieux : le développement de la technologie de recherche par image. Deepomatic voit alors le jour.

Les trois compères sont partis de trois constats. Premièrement, le mode de consommation de prédilection est désormais le ATAWAD (any time, anywhere, any device),  74% des français lisent au moins une marque de presse en version numérique, et 54% sont des lecteurs sur mobiles ou tablettes[1]. Deuxièmement, le e-commerce est en plein essor. Selon le dernier baromètre de la Fevad (Fédération du e-commerce et de la vente à distance) 35,5 millions de français achètent sur internet, et 6,6 millions d’entre eux ont déjà effectué des achats à partir de leur mobile[2]. La mode représente une part importante du marché du e-commerce, l’habillement et les chaussures ont effectué en 2016 5,2 milliards d’euros de chiffre d’affaire. Troisièmement, les français deviennent de plus en plus allergiques à la publicité. Un sur trois affirme avoir déjà installé un bloqueur de publicité[3]. Cette aversion envers la publicité numérique est une préoccupation pour les annonceurs qui doivent s’adapter et chercher de nouvelles solutions de publicité.

L’objectif de Deepomatic est donc de répondre aux envies tous les clients des sites de e-commerce tout en satisfaisant également les éditeurs et les e-commerçants.

Deepomatic, comment ça marche ?

Deepomatic est installé directement sur les sites des éditeurs de magazines féminins. Grâce au deep learning, l’algorithme développé repère les différents éléments qui composent les photographies présentes sur les sites internet visités par les internautes : la robe, les chaussures, le chapeau, les lunettes etc. L’algorithme recherche ensuite sur les sites de e-commerce la pièce en question (le “perfect match”), ou bien d’autres articles similaires (forme, couleur, motifs).

Cette technologie tend à satisfaire tous les acteurs de la chaine, les éditeurs, les e-commerçants ainsi que les consommateurs finals. En liant des images des sites internet des éditeurs à des produits achetables, l’algorithme permet aux médias de monétiser automatiquement leur contenu tout en apportant un trafic qualifié aux e-commerçants. Les internautes, quant à eux, ont désormais la possibilité de trouver facilement leurs produits de mode préférés, sans avoir à se disperser sur les dizaines, voire les centaines de sites des e-commerçants.

L’outil Deepomatic est disponible sur le site « Puretrend », qui poste plusieurs centaines de photo par jour. Et avec plusieurs millions de visiteurs uniques par mois sur le site, ce nouveau système de référencement représente une manne potentielle pour les sites commerciaux.

La publicité, un ras le bol grandissant

Le modèle publicitaire actuel est obsolète et contraint d’évoluer. L’objectif est de Deepomatic est de donner à la publicité en ligne une forme innovante. Pour cela, l’équipe installe un iframe discret au sein des pages articles, avec la possibilité d’être redirigé vers la boutique de l’e-commerçant. Cette publicité in-content est pour l’éditeur une valeur ajoutée qui permet de rompre avec le modèle d’une publicité intrusive pour l’internaute. La publicité devient moins agressive, le but étant réellement de cibler le public. La publicité est alors contextualisée et interactive. Ce sont les internautes qui viennent chercher le service, qui décident d’interagir avec l’image et de s’engager dans une démarche commerciale.

De plus, Deepomatic propose aux e-commerçants de développer ensemble de nouveaux leviers d’acquisition de trafic grâce au shoppable content. L’univers éditorial est tout à fait capable de générer une performance significative. Dans la mesure où Deepomatic rend un service à l’internaute, les CTR sont élevés et apportent un trafic important au site d’e-commerçants. Les tests réalisés par frenchweb ont montré que du shoppable content sur une vidéo promettait des taux de clic entre 7 et 11% et entre 3 et 5% sur des photos shoppable[4].

Comment la start-up se rémunère-t-elle ?

Deepomatic se rémunère par le biais d’une commission de 5% sur le prix des articles vendus via l’outil proposé. Le modèle d’attribution choisi est le modèle du last click. Il ne s’agit pas du modèle idéal car de nombreux articles peuvent sortir de leur champ d’attribution. Le modèle d’attribution de Deepomatic serait donc à repenser, mais un obstacle de taille est venu semer le doute dans la traçabilité des internautes. Le 11 janvier dernier, la Commission européenne a dévoilé son projet de révision de la directive de 2002 sur la « e-privacy »[5]. Bruxelles prévoit que les cookies tiers (ceux qui ne servent pas au fonctionnement direct du service, mais qui permettent de connaître les habitudes des internautes) devraient être bloqués par défaut et que leur activation dépendrait de l’utilisateur. Cette mesure fait trembler l’industrie publicitaire. Le but est louable : renforcer la sécurité des données personnelles, mais il met en péril le système publicitaire. Il serait alors impossible pour Deepomatic de tracer les achats effectués grâce à l’algorithme…

Une vocation à devenir le véritable « Shazam » de la mode ?

Dans un futur plus ou moins proche, Deepomatic a pour ambition de mettre à disposition cette technologie innovante entre les mains du consommateur. L’équipe fait le pari qu’il y aura de plus en plus de recherches par voix ou par image, comme le démontre à l’heure actuelle l’essor des assistants vocaux, tels que Siri, Google Voice ou encore Amazon Echo.

Technologie prometteuse avec un système d’utilisation très simple. Via une application Deepomatic, chaque utilisateur pourra photographier un vêtement dans la rue, sur une affiche, voire sur une personne et retrouver d’un clic, grâce à l’algorithme, la pièce recherchée ou encore des articles semblables sur tous les sites de e-commerce. Le bonheur à portée d’un clic ? En effet, quelle femme n’a jamais rêvé d’avoir la même robe que son ennemi sans avoir à lui demander où elle l’a trouvée ?

Alice Petit

[1] ACPM, One Global, 2016 V4

[2] http://newspaper.fevad.com/wp-content/uploads/2016/09/Plaquette-Chiffres-2016_Fevad_205x292_format-final_bd.pdf).

[3] Baromètre sur les Adblocks sur le marché français, vague 2, novembre 2916 http://www.iabfrance.com/content/etude-sur-les-adblocks-presentation-de-la-v2.)

[4] http://www.frenchweb.fr/5-enseignements-a-tirer-du-shoppable-content/268479

[5] http://www.lefigaro.fr/medias/2017/01/05/20004-20170105ARTFIG00300-en-menacant-les-cookies-bruxelles-inquiete-l-industrie-publicitaire.php

Comment s’opère la concurrence Google et Facebook ?

 Depuis plus d’an et demi, Facebook a accéléré le nombre de produits mis à la dispositions de ses utilisateurs gratuitement ou non de manière intense. Cette diversification des activités, n’est pas novatrice pour certaines d’entre elles. En effet beaucoup d’entre elles étaient déjà proposées par Google. Les deux géants américains s’affrontent désormais sur des terrains concrets et bien identifié.

Continuer la lecture de « Comment s’opère la concurrence Google et Facebook ? »

La Vidéo On Line, nouvelle économie de l’attention pour les annonceurs ?

Mais qu’est ce que la VOL publicitaire ?

La vidéo online publicitaire est un format vidéo que l’on inclut dans un contenu digital pour mettre en avant une publicité. Deux types de formats peuvent être observés : l’instream d’une part, cela se caractérise par une publicité se trouvant dans le flux vidéo tel que le pre-roll qui se met en marche en amont des vidéos. L’outstream d’autre part qui affiche une vidéo sur une page web au milieu d’articles comme l’inRead.

La Vidéo on line, le format web incontournable  

Une étude Cisco a démontré que la vidéo on line représentera 82% du trafic Internet d’ici 2020, ce qui signifie que de nouvelles offres publicitaires ne cessent de s’insérer dans les contenus en ligne. Nous pouvons alors parler d’une nouvelle mine d’or pour les annonceurs qui peuvent ainsi placer leurs publicités dans ces vidéos. Ainsi, ils pourront obtenir de meilleurs rendements que la publicité traditionnelle en ligne qui engrange rarement de bons retours sur investissements. C’est par la vidéo on line que les annonceurs espèrent notamment attirer l’attention des consommateurs.

La VOL publicitaire est en plein essor et cela provient en partie des médias sociaux. En effet, les publicités vidéo sur les réseaux sociaux ont vu leur croissance exploser en 2016  avec +351%  d’évolution. Les annonceurs misent donc énormément sur les réseaux sociaux tels que Facebook et ses vidéos autoplay, Youtube se positionnant comme la nouvelle télévision ou Snapchat et ses vidéos verticales.

Le fait est que la publicité numérique a détrôné la publicité TV depuis 2016. Dès lors, le numérique est devenu le premier media récepteur d’investissement avec une part de marché de 29,6% alors que la télévision n’en représente désormais que 28,1%. « La télévision de papa » n’est plus la seule en course sur les contenus visuels.

Une étude récente de Google montre même que la vidéo online gagne du terrain en termes d’impact et d’efficacité des formats publicitaires.Cette avancée des médias numériques se témoigne notamment par le fait que 58% des internautes français ont l’habitude de regarder des vidéos en ligne au moins une fois par semaine.

Il est donc clair que l’impact de la VOL est significatif et un nouvel enjeu à saisir pour les annonceurs. Cependant le marché publicitaire doit encore se développer et utiliser à bon escient ces nouvelles opportunités.

Une automatisation de la VOL grâce au programmatique

La vidéo en ligne s’est ouverte aux achats programmatiques sur divers devices,  tels les  ordinateurs, tablettes et mobiles, qui sont en train de bouleverser le marché de la VOL.

En 2017, le programmatique ne sera pas uniquement utilisé pour les achats d’espaces vidéo mais également pour automatiser la création et optimiser les annonces. Des milliers de variations d’annonces vidéo seront générées et permettrons aux marketeurs de mener des campagnes particulièrement ciblées et personnalisées.

Criteo a fait une étude prévisionnelle sur l’évolution du secteur du e-commerce et sur la façon dont les annonceurs doivent s’y préparer. Avec des prévisions partagées, les résultats sont plus qu’encourageant pour l’e-commerce en France : +14,6%  de croissance sur le marché en ligne ; même si le panier moyen a diminué de 5 euros pur atteindre les 70 euros. Néanmoins, la VOL n’est pas encore à la pointe du programmatique. La data et le retargeting vidéo semblent encore rares.

Il est nécessaire d’adapter son contenu publicitaire à la VOL  

Il semble évident que la vidéo doit s’imposer pour les annonceurs, qui doivent désormais adapter leurs messages publicitaires à ce contexte particulier de la commercialisation programmatique. Même si le marché semble favorable,  le format de la VOL est bien trop proche de celui de la télévision. En effet, les annonceurs aimeraient pouvoir décliner leurs publicités sur télévision, ordinateur et mobile. Or, ils doivent comprendre aujourd’hui que chaque média doit adapter son contenu publicitaire dont la VOL.

Il faut repenser la vidéo par le format : en vidéo verticale ou horizontale, la durée jusqu’à 30 secondes et la forme d’intégration en pré-roll ou mid-roll. Snapchat l’a bien compris avec son format de vidéo verticale sur mobile. Ce qui importe est l’expérience utilisateur, il faut créer de l’interactivité, peu importe que le consommateur soit sur sa tablette ou son ordinateur.

Le digital permet justement d’apporter cette interactivité à la vidéo et d’inciter le consommateur à visionner le contenu pour ensuite cliquer sur le lien vers le site web afin d’éventuellement finir par une vente en ligne. La clé reste la même pour tous les médias : la qualité du contenu visuel est ce qui permettra d’attirer l’attention des consommateurs.

Quelle croissance pour la publicité VOL ?

La vidéo en ligne n’en est qu’à ses débuts et les opportunités offertes par le digital ne sont pas encore totalement exploitées par la publicité. Désormais le marché de la VOL n’a plus qu’à se développer et adapter les messages publicitaires ainsi que leurs contenus, particulièrement depuis l’arrivée du programmatique qui continue de s’accroître.

L’enjeu n’est donc plus réellement technologique, mais aussi pédagogique pour les annonceurs qui doivent encore une fois investir dans une nouvelle forme de contenu digital.

 

Laetitia Rey

Les mutations du livre numérique

Dans un contexte de redressement du marché global du livre, le e-book est loin de s’imposer comme le format dominant au détriment du livre physique, comme cela a été le cas pour la vidéo, la musique ou le jeu vidéo. Tour d’horizon.

Un livre numérique est un livre édité et diffusé en version numérique, disponible sous forme de fichier, qui peut être téléchargé et stocké pour être lu soit sur un écran tel que celui d’un ordinateur personnel, d’une liseuse ou d’une tablette tactile, soit sur une plage braille, soit sur un dispositif de lecture de livres audio. Il peut également être lu en ligne. Il est à noter que les ventes de bandes-dessinées et de mangas sont incluses dans le total des ventes de l’édition en France. Ainsi, le plus gros succès littéraire de l’année 2015 a été la dernière BD de Astérix.

Selon une étude de Xerfi, le marché du livre français a progressé de 1,8% en valeur en 2015, rompant avec 5 années consécutives de baisse. Plus intéressant, les ventes d’ouvrages imprimés ont progressé de 0,7% sur les cinq premiers mois de l’année 2016 : le physique semble donc loin d’avoir dit son dernier mot.

Ainsi, on est loin du raz-de-marée attendu pour les e-Book. C’est d’ailleurs une des différences principales entre les marchés américains et français : un taux de pénétration très différent du livre numérique comme le montre ce graphique du Syndicat national de l’édition. Le livre numérique est bien plus démocratisé aux Etats-Unis qu’en France : 24% vs 6,5% de PDM / CA total livres en 2015. Selon Xerfi, ce tauxde PDM donne une valeur de seulement 280 millions d’euros pour un marché global de presque 2,7 milliards d’euros.

Pourtant, la situation du e-book aux Etats-Unis n’est pas non plus paradisiaque. Sur les 6 premiers mois de l’année 2015, les ventes d’E-Books ont ainsi diminué de 10,4% outre-Atlantique. Dans le même temps, le patron de la grande chaînes de librairies Waterstones au Royaume-Uni annonçait retirer les Kindle de ses rayons pour cause de ventes trop faibles. En France, les ventes de liseuses, support le plus confortable pour la lecture numérique, continuent de plafonner à 350 000 par an selon GFK.

Loin d’être parfaitement objectifs, nous pouvons tout de même avancer ces quelques facteurs afin d’expliquer le trou d’air vécu par le e-book :

  • Le faible catalogue des bibliothèques numériques (surtout en français)
  • Des prix jugés trop élevés par les clients
  • Un attachement non négligeable au support papier
  • Un confort de lecture supérieur sur papier

Si la progression du livre numérique n’est pas effrénée en termes de ventes, elle reste néanmoins soutenue au moins dans les usages : 19% des français affirment avoir lu au moins un e-Book sur les 12 derniers mois en progression de 3 points et les éditeurs poussent vers un élargissement de l’offre numérique comme l’a montré Madrigall en rendant disponible ses bandes-dessinées. Xerfi pronostique ainsi une PDM de 10% pour l’année 2017.

Aux Etats-Unis, le manque de dynamisme du livre numérique tient également d’une autre explication : la nouvelle augmentation de son prix par ce qu’on appelle les BIG 5, c’est à dire les 5 plus grands éditeurs américains, alors que le prix des livres physiques restait stable. La part des ventes de livres numérique a donc logement diminué, sauf pour les indépendants et les petits éditeurs auxquels le livre numérique permet une meilleure visibilité.

 

En 2015, ce sont ainsi 204 millions de livres numériques qui se sont écoulés contre 653 millions de livres papier. Leur part de marché est tombé à 24% comme nous l’avons vu, alors qu’elle se situait à 28% en 2013. Certains genres connaissent un succès plus grand en numérique comme les polars (51% en numérique). Concernant les appareils utilisés, le smartphone est le seul à tirer son épingle du jeu, et tous les autres appareils sont moins utilisés pour la lecture numérique qu’auparavant, même si les liseuses continuent à dominer le marché aux Etats-Unis en offrant un plus grand confort pour la lecture numérique. De même, on note que l’ordinateur est un support peu adapté à la lecture numérique.

De nouvelles offres vers la consommation illimitée

L’abonnement Kindle a une promesse forte : accéder à plus d’un million de titres, dont 25 000 en français, à partir de 9,99€ par mois, sur tous les appareils. On trouve aussi des services français comme Youboox qui propose le même type de service ou Izneo qui est spécialisé dans la bande-dessinée et les mangas. Ces trois acteurs vendent des abonnements à 9,99 euros à leurs clients, ce qui permet d’accéder à un catalogue de titres plus ou moins fourni.

Leur inspiration vient évidemment des autres industries culturelles comme le cinéma (Netflix) ou la musique (Spotify) pour lesquelles ce business model a fonctionné à merveille. La distribution des contenus, leurs formats et leurs modes de consommation plongent le consommateur dans l’abondance. Il se retrouve face à un “hyperchoix”, désormais libre de lire / regarder où, quand et comme il veut une offre pléthorique de contenu.

L’arrivée de ces services sur les marchés de l’édition littéraire va-t-elle modifié les usages, les équilibres et les chaînes de valeur et déstabiliser ce marché comme elle l’a fait pour la distribution physique ? Va-t-elle enfin faire exploser le livre numérique ? Mais, le marché du livre a de nombreuses spécificités qui complexifient la mise en place de ces business models.

Le prix unique du livre numérique en garde-fou

La nouvelle législation de 2011 est une transposition de la législation en vigueur pour le livre physique (loi Lang de 1981). L’éditeur fixe un prix pour le livre numérique qui doit être respecté par les revendeurs, qu’ils opèrent depuis la France ou l’étranger afin de protéger les créations françaises. Les éditeurs sont donc tenus de fixer un prix de vente public qui peut différer en fonction du contenu de l’offre, de ses modalités d’accès ou d’usage (abonnement en streaming par exemple).

Un conflit a logiquement éclaté avec les plateformes comme Kindle Unlimited qui proposaient des abonnements illimités allant à l’encontre de cette législation sur le prix unique du livre numérique. La médiatrice du livre Laurence Engel a jugé cette offre contraire à la législation française du prix unique du livre, car les éditeurs ne peuvent plus fixer le prix de leurs produits dans ce modèle.

Le nom a tout d’abord été modifié pour “Abonnement Kindle”, car les abonnés payent désormais pour des crédits de consultation prenant place dans une sorte de cagnotte. Chaque éditeur et auteur indépendant doit fixer un prix de consultation à la page, qui est déduit de la cagnotte de l’abonné. Hélène Mérillon, la fondatrice de Youboox, résume bien le mécanisme :

« Les prix à la page définis par les éditeurs sont affichés dans l’application. Chaque page lue est comptabilisée pour venir abonder un compte commun dont l’équilibre est surveillé par Youboox, conformément aux dispositions validées par la médiatrice »

Le système a beau être transparent, c’est un vrai casse-tête pour les abonnés, loin de la simplicité que l’on peut par exemple trouver dans la musique. Difficile dans ce cadre d’imaginer une fulgurante augmentation de la part de marché du livre numérique en France grâce à ces nouvelles offres. L’apport réel du e-book est peut-être à chercher ailleurs…

Le livre numérique facilite l’autoédition

Avec sa plateforme d’auto-édition, Amazon permet à tout auteur, auto-édité ou non, de télécharger soi-même, simplement et gratuitement ses ebooks et de les mettre en vente sur la boutique Kindle. Les ouvrages sont ainsi accessibles non seulement aux possesseurs de la liseuse Kindle, mais également à tout un chacun via les applications Kindle pour ordinateur, smartphone et tablette. Occupant une place de premier plan sur ce marché, Amazon s’est lancé dans l’autoédition pour augmenter l’offre de livres numériques disponibles sur sa plateforme de vente et alimenter ses terminaux de lecture en contenus bon marché.

À l’heure actuelle, 55 000 titres français autoédités seraient ainsi disponibles dans le Kindle Store. Face à des maisons d’édition classiques qui refusent énormément de manuscrits et/ ou qui payent souvent la majorité des auteurs au lance-pierre, le géant américain a permis à des écrivains d’être publiés gratuitement. Mais de là à se transformer en machine à fabriquer des best-sellers?

Il est vrai que certains projets refusés par des éditeurs méritent d’être publiés et que l’édition numérique permet de réparer cette injustice culturelle à moindre frais car le numérique casse la coûteuse barrière de la distribution. Fini la tournée des salons du livre pour espérer vendre quelques exemplaires : Amazon.fr, c’est 17 millions de visiteurs uniques par mois et autant de lecteurs potentiels. Le self-publishing représente ainsi 12% des ventes d’ebooks aux Etats-Unis en 2015 contre 8% en 2014 selon une étude du cabinet Nielsen.

Publier est une chose, mais assurer la visibilité de son livre parmi l’offre pléthorique que favorise ce système en est une autre. La suppression des intermédiaires entre l’auteur et le lecteur implique non seulement que l’auteur se démène sur les réseaux sociaux pour promouvoir son livre mais aussi que le livre se fasse remarquer avec des bons scores et des commentaires élogieux des utilisateurs du site. Le pouvoir bascule des éditeurs traditionnels qui opèrent habituellement cette sélection vers les lecteurs qui plébiscitent les contenus qu’ils aiment.  Cela implique donc que l’auteur devienne sa propre marque conduisant un travail de marketing de soi et de construction de sa réputation s’il souhaite conquérir un lectorat.

De plus, avec l’absence de filtre éditorial et l’abaissement de barrières l’entrée, l’accès au marché s’en est trouvé facilité, ce qui a entraîné l’inflation de la production qui s’accompagne d’une concurrence accrue.  Il est d’autant plus difficile de se distinguer dans cette nouvelle économie de l’attention dans laquelle l’offre est abondante mais les ressources disponibles (temps, argent) pour la consommer nettement plus réduite.

On le voit bien, le livre numérique ne s’est pas encore imposé comme un format de référence, mais il ouvre le champ des possibles pour cette industrie avec des offres faisant la promotion d’une consommation illimitée et la montée en puissance de l’autoédition.

Jean charles thebaud

L’innovation technologique au service du social media et des marques  

Depuis  quelques  années  déjà,  les  innovations  technologiques  dédies  aux  réseaux  sociaux  ne   cessent  d’émerger  et  apportent  avec  elles  de nouvelles  problématiques  de  branding  et  de   contenus.  Bien  que  le  ROI  ne  soit  pas  encore  présent  de  dans  l’utilisation  des  réseaux  sociaux, surtout  sur  Instagram  ou  il  est  très  compliqué  de  «  tracker  »  les  utilisateurs,  les  marques   arrivent  à  se  distinguer  notamment  via l’exploitation  des  formats  innovants.  Ces  formats  sont   utilisés  par  les  marques  dans  leur  démarche  de  transparence  le  plus  souvent.  Par exemple,   beaucoup  misent  sur  l’avenir  et  les  vidéos  à  360°  sur  Facebook. Egalement,  le  live  est  au  cœur   des  pratiques  aujourd’hui.

Il  y  a  une  semaine,  Instagram  lançait  son  option  de  LIVE.  Après  Twitter,  YouTube  et  Facebook,   c’est  au  tour  d’Instagram  de  se  mettre  à jour  avec  une  fonctionnalité  majeure.  Plus  qu’un   besoin  technique,  cette  évolution  technologique  est  les  symbole  d’une  besoins  constant  d’instantanéité.  C’est  le  pari  qu’avait  réussi  Snapchat,  et  c’est  au  tout  de  petit  frère  de   Facebook  de  s’y  mettre. Avec  ces  formats  et  ces contenus  originaux,  nous  sommes  typiquement  au  cœur  de  ce  que   recherchent  les  marques  et  les  entreprise  dans  le  cadre  de  leur communication.  Via  des   stratégie  de  branding  et  d’awareness,  les  marques  manipulent  et  s’adaptent  aux  supports  que   la  technologie  leur propose.  Le  but  ultime  que  ces  marques  cherchent  à  atteindre  pour  la   plupart  d’entre  elles  est  de  toucher  les  millennials,  cette  tranche  de  la  population  très  sensible   aux  nouvelles  technologies  et  au  social  media.

Effectivement,  une  marque  a  la  volonté  d’être  une  marque  active,  à  jour  sur  ce  qu’il  se  fait  en   termes  de  contenus  et  d’innovation.  De  plus,  de  développement  récent  de  la  réalité  virtuelle   laisse   beaucoup   de  sociétés   rêveuses   quant   aux  possibles  utilisations  à  des  fins   de   communication  sur  les  réseaux  sociaux.  Pourquoi  mettre  à  profit  cette  innovation  ?  Pour   rester  connecté  à  ce  qui  se  fait  de  mieux  et  terme  de  format  et  de  proposer  une  expérience   de  marque  inédite  reflétant  les  valeurs  la  marque.       L’atout  numéro  un  des  réseaux  sociaux  pour  une  marque  est  la  vidéo.  Oui,  malgré  la  baisse   significative  du  reach  global  et  de  l’engagement  sur  Facebook,  la  vidéo  est  le  format  qui   engage  le  plus  et  qui  permet  une  portée  clairement  supérieure  aux  statuts  liens  ou  photos  .   Sur  Facebook,  sur  Instagram  et  de  plus  en  plus  sur  Twitter,  la  vidéo  rythme  les  fils  d’actualité   et  s’impose  de  façon  palpable.  Au  format  360  ou  live,  la  vidéo  est  déjà  le  fer  de  lance  des   marques.

Bien  que  85%  des  vidéos  soient  visionnées  sans  le  son,  elles  restent  un  levier   prédominant  dans  la  rechercher  de  visibilité  et  de  viralité  d’un  contenu  ou  d’un  message  pour   une  entreprise.  Cette  dernière  l’utilise  déjà  assez  souvent  d’ailleurs.       Snapchat  est  également  de  la  partie  avec  ses  Stories  et  ses  pages  dédiées  sur  lesquelles  on   peut  trouver  Le  Monde,  Melty,  Konbini  ou  encore  L’équipe.  Cela  bouleverse  totalement  la   manière  dont  une  marque,  qu’elle  soit  média  ou  non,  imagine,  fabrique  et  pousse  son   contenu.  C’est  un  nouveau  paradigme  que  nous  voyons  actuellement  notamment  via  la  forme   mais  aussi  le  fond  d’un  contenu.  Qu’il  soit  informationnel  ou  communicationnel  un  contenu   va  prendre  de  la  valeur  d’une  part  sur  sa  qualité  mais  d’autre  part  à  travers  son  support.

Le contenu  et  la  manière  dont  il  est  mis  en  avant  sont  des  enjeux  majeurs  pour  les  marques   actuellement.  Egalement,  la  data  permet  des analyses  plus  précises  et  permet  une  logistique   dans  le  déploiement  des  contenus.       Ce  qui  doit  retenir  l’attention  des  marques  sur  leur communication  en  ligne  c’est  créer  un   contenu  qui  provoque  une  réaction  chez  l’internaute,  qui  lui  fait  naitre  une  émotion.  Et  cela   devra se traduire  par  de  l’engagement  et  une  activité  sur  la  page  de  la  marque  ou  ses  comptes   en  ligne.  Prenons  l’exemple  de  la  réalité  virtuelle qui  est  très  éloquent.  A  travers  elle,  les  user   vont  pouvoir  vivre  une  expérience  unique  et  singulière.  Oui  plusieurs  marques  ont  déjà  testé ce  format  avec  la  vidéo  260  sur  Facebook.  Je  pense  notamment  à  J&B,  le  Washington  Post  ou   encore   Milka.   Ces  trois  acteurs  très différents   ont  tous  pris  conscience  de  l’évolution   technologique  qui  a  lieu  actuellement  et  qui  se  met  en  place  sur  les  réseaux  sociaux.  On voit   bien  qu’ils  proposent  des  expériences  qui  vont  se  distinguer  et  qui  donneront  envie  de   consommer  cette  marque,  de  s’engager  avec elle.

Retenons  alors  que  l’innovation  technologique   permet  aux  marques   de  repenser  leur   communication  et  surtout,  leur  stratégie  de contenu  que  ce  soit  dans  sa  création  on  sa   diffusion.

 

Valentin Richardot

La magie de yuzzit ou la mémoire augmentée

Accompagnée de Sud de France Développement,  la start-up vient d’être récompensées au Consumer Electronic Show (CES) de Las Vegas. Objet intelligent, connecté à une application, Yuzzit est une sorte de petit boîtier connecté et intelligent.

Yuzzit enregistre pour vous des lieux géolocalisés, vous invite à enregistrer vos pensées et retrouve en fin de journée tout ce que vous avez aimé lors de votre journée sur un fil personnalisé.

Vous n’oublierez plus rien : ni l’emplacement de votre voiture, ni la petite robe noire repérée dans une boutique, ni le restaurant au coin de la rue. Yuzzit vous promet de se souvenir de tout ce que vous voudrez.

Pour cela, le wearable est doté d’un micro intégré et intelligent qui permet d’enregistrer des notes vocales.

Shazamer, tagger sa vie.

L’idée née dans les années 2000. Le fondateur, Frédéric Bruel, souhaite identifier tout ce qu’il voit, entend, rencontre.

Cela germe dans son esprit. Shazam est lancé en 2002 comme service téléphonique et débarque en 2014 sur l’Apple Store : le succès est enclenché. Je shazame, tu shazames… Mais, il (Frédéric Bruel), veut « shazamer » plus que de la musique. L’idée de Yuzzit est née. Lancée en 2016, elle se fait vite remarquer. L’application et son wearable reconnaîtront plus vite que la musique.

La fin du post it.

La startup Yuzzitit entend tagger notre vie. Plus que de se remémorer de manière digitale tous les moments de notre journée, Yuzzit est un outil pour notre to do list comme pour nos achats… Il yuzzit, nous yuzzitons, vous yuzzitez ?

Le wearable est un boîtier doté d’une technologie de « clipping ». Un clic, le boîtier enregistre le lieu, la musique ou la voix, via une technologie « speech to text », qui facilite le bookmark.

Deux clics, Yuzzit enregistre une action personnalisée, comme l’enregistrement d’un programme. Le wearable est bien une prolongation de soi. La transformation numérique permet par le tactile ou la voix d’être toujours plus proche du corps.

Les technophobes vont diront que cela simplifie l’accès aux fonctionnalités, les automobilistes éviteront une amende quand les technophiles prescripteurs vous diront que Siri suffit et fonctionne très bien.

La reconnaissance vocale, c’est la tendance du CES 2017 : Siri, mais aussi Alexa, Amazon Echo… Yuzzit développe toutes ses technologies en interne. Dix personnes s’y activent.

Petite révolution ou gadget ?

L’internet des objets avec la miniaturisation des processeurs permet d’intégrer des technologies très puissantes dans un porte-clef qui récolte une myriade de données.

Comme toute startup dont le cœur d’activité repose sur la data, Yuzzit a dû intégrer un paramètre essentiel dans son business model : la protection des données.

Pour nous rassurer, l’aspect confidentialité est pris en compte dès la création. C’est ce qu’on appelle la « privacy by design ».

En effet, l’actualité juridique se révèle riche dans ce domaine avec l’entrée en vigueur du règlement européen en 2018. Cette privacy deviendra une condition sine quanon.

Sécurisé, Yuzzit devient votre alter ego, notre journal intime 4.0 ; le mécanisme n’est qu’en second lieu celui du partage sur les réseaux sociaux.

Yuzzit se propose comme une Killer App en intégrant Bluetooth low energy, géolocalisation, API (Facebook ou Google Maps) ainsi qu’un cloud de reconnaissance audio universelle.

Trop d’applications, une application

78% des applications téléchargées sont utilisées moins d’une fois avant d’être définitivement supprimée. Plus besoin de se souvenir où l’application, ni même le wearable est caché… bippez à distance votre yuzzit.

L’utilisation de ce pense-bête 2.0 est très intuitive. Doté également d’un d’un système de reconnaissance vocale, le wearable peut reconnaître la voix de son utilisateur mais également une émission à la radio ou encore à la télévision. De quoi donner des idées aux annonceurs tv ?

Yuzzit avec sa logique servicielle fonctionne sur une co-création de données avec ses utilisateurs. C’est une boîte de technologie, où le consommateur est une ressource (« customeras a resource ») et le produit une commodité.

Un marketing 4.0

Pour se différencier, du côté B2C, Yuzzit devra proposer une promesse limpide et des fonctionnalités essentielles attendues par les consommateurs. A priori, peut-être un Yuzz, tout détenteur de smartphone. Le développement d’une réelle masse critique, d’une communauté permettrait de faire exister cette cet outil pour capter l’attention de chaque utilisateur.

Le « tag » devient la nouvelle technologie marketing. Mais parallèlement, 90% des ventes se font encore, en France, en physique : quoi de mieux que de se rappeler où aller acheter l’objet de sa convoitise.

Des perspectives d’évolution

1/La segmentation B2B2C pour atteindre une masse critique d’utilisateurs via des acteurs prescripteurs

Pour atteindre une masse critique, les concessionnaires automobiles seront des partenaires clefs.

En voiture, chacun se transporte d’un point à l’autre sans avoir forcément accès à son smartphone : Yuzz.it prend alors tout son sens. Logiquement, c’est un service que le concessionnaire pourrait offrir à son client lors de l’achat d’une voiture. Le wearable Yuzz.it serait alors remis avec le porte-clef de la voiture. Le concessionnaire pourrait, par ailleurs, nouer des partenariats avec des assurances de voitures telles que Axa dans l’offre du Yuzz.it. Ainsi, ce porte-clef malin éviterait bien des accidents au volant.

Dans un premier temps, l’objet du porte clef avec l’appareil Yuzz.it serait conservé avant la mise en place de la « car-as-a-platform ». Dans un futur proche, certains constructeurs pourraient proposer directement dans le dashboard de leur voiture, des fonctionnalités et des services à leurs clients. Alors, la licence seule pourrait être proposée au sein de cette automobile du futur.

Au sein d’une API, qui appelle des fonctions de données, il convient de multiplier les partenariats afin de proposer et d’assembler un maximum de services. En effet, face à des géants du web, une solution de reconnaissance vocale et de clipping ne suffisent pas. Aussi, c’est une source supplémentaire de revenus pour les différents clients de yuzz it. Dans le modèle B2B2C, le client final a une expérience client optimisée permise par une récolte de données en opt in du B2B.

Carrefour, pourrait proposer le device Yuzz It aussi à ses clients afin qu’ils se souviennent des produits qu’ils souhaitent mettre sur leur liste de course ou pour récolter des données sur leurs clients. Plus en avant encore, Carrefour pourrait faire payer le device du Yuzz à d’autres fins utiles. Le B2B2C prend ici un autre sens. Carrefour vend son objet mais n’utilise pas en retour les données de l’utilisateur. Cet outil permettrait aux clients de chez Carrefour de (re)commander un produit (comme le dash button pour Amazon) ou à recevoir des push pour des offres pour lesquelles les clients auraient choisi de souscrire. Ce sont des business model totalement différents. Mais Yuzzit, comme nous l’avons dit, peut être un outil de base, un device comme une licence, que les entreprises se réapproprient selon leurs besoins.

Selon le client, il y a donc plusieurs possibilités de “revenue model” :

• Facturation de l’objet : la marque qui commande des boîtiers à Yuzzit facture une somme moins importante que le prix de vente affiché dans les commerces (49€) et réalise du co- branding.

• Facturation de la privacy : Carrefour vend le boîtier yuzzit mais c’est le client qui est au commande de l’objet connecté pour en faire ce qu’il souhaite. Carrefour concurrence ainsi Amazon.

• Objet gratuit versus data : la marque offre l’objet et en récupère la data, un concessionnaire ou le salon de l’automobile auront tendance à choisir ce modèle.

 

2/Le géomarketing, un évolution clivante

Le géomarketing est une fonctionnalité à double tranchant. Tout d’abord, il faut avoir atteint une masse critique pour espérer pouvoir revendre les données de ciblage de manière intéressante pour des partenaires. C’est pourquoi, le géomarketing ne peut être permis qu’à partir d’un certain seuil d’utilisateurs pouvant intéresser des annonceurs ou des partenaires.

Aussi, la deuxième barrière de cette recommandation, vient du opt in. Le yuzz doit avoir accepté de recevoir des offres contextualisées.

En push, Yuzz It pourrait suggérer tant des publicités, que des offres promotionnelles ou des sorties. Pour ce faire, il faut penser un contenu intéressant pour le client en s’associant à des partenaires.

Si cela est bien fait, avec un contenu créatif, voire du gaming, des publicités pensées avec du DCO (Dynamic Creative Optimization) voire personnalisées en fonction des personnes avec un message et un habillage ingénieux, cela peut être gagnant, alors les utilisateurs n’iront pas vers le opt out. Au contraire, avec une publicité ou des push trop intrusifs, l’utilisateur de yuzz pourrait considérer que sa data sert plus les intérêts des annonceurs ou des partenaires que le sien ; alors la mise en œuvre pourra faire échouer cette fonctionnalité.

Enfin, pour les restaurants, le revenu sharing de ce produit est plus complexe. Le restaurant n’aurait aucun intérêt à donner ou vendre l’objet yuzzit tel quel. Aussi, dans un premier temps, yuzz it pourrait être un apporteur d’affaire pour les restaurants. Comme Mapstr, yuzz permet de se souvenir des restaurants où l’on veut aller. Mais si yuzz it convertit une envie en une réservation dans le restaurant, un système de commission pourrait être envisagé. Ainsi, dans un premier temps, Yuzzit doit déjà proposer une API ouverte à des partenaires hôteliers ou de la restauration pour avoir un maximum d’endroits répertoriés. Bien que l’API de Google Maps soit quasiment suffisante, il ne faut pas que Yuzzit soit trop dépendant des données de Google Maps.

D’un point de vue plus stratégique, Yuzzit aurait intérêt à développer les meilleures fonctionnalités de Shazam, de Dash Button d’Amazon, de Mapstr, de Evernote ou encore de Wistiki dès sa version de lancement afin de devenir une killer app.

 

Alix de Goldschmidt

Le programmatique, la publicité personnalisée bientôt à la télévision ?

 

Alors qu’il a déjà fait ses preuves sur le web, l’achat programmatique peine à percer sur le téléviseur. Paradoxe, alors que la télévision connectée (IpTv) est aujourd’hui, le mode de consommation majoritaire en France. Les régies publicitaires semblent saisir les enjeux du marché et lancent leurs premières offensives.

Au premier semestre de 2016, la part du programmatique représentait plus de 50 % du display selon l’Observatoire de l’e-pub du SRI. L’explosion de ce mode d’achat a d’ores et déjà su conquérir le marché publicitaire digitale. Les chaines et leur régie l’ont déjà expérimenté sur leurs plateformes numériques. Malgré son succès, le programmatique peine à percer sur d’autres marchés publicitaires, notamment sur celui de la télévision linéaire.

Cependant, avec près de 80 % de taux de pénétration dans la population française, la télévision connectée (IpTV) possède toutes les capacités techniques nécessaires pour développer l’achat programmatique en Tv. Dans une société où le consommateur est de plus sollicité par les marques, la distribution d’une publicité ciblée et personnalisée pourrait être le remède à cette surpression des messages publicitaires. Les régies publicitaires des chaines se saisissent de la question petit à petit. Les acteurs du marché cherchent, à travers de nouvelles offre innovantes liant offre programmatique et offre classique, à maximiser l’efficacité des campagnes publicitaires.

Afin d’en saisir les enjeux, il est essentiel de différencier la télévision linéaire et la télévision non linaire. La question du programmatique n’appelant pas les mêmes réponses en fonction de la manière de consommer le média Télévision.

Explosion du programmatique sur la télévision non linéaire 

Aujourd’hui, le marché du programmatique, porté par le RTB est en forte croissance ( +50% sur le display et 10% sur la vidéo – en RTB). Malgré les craintes initiales de dévalorisation des espaces publicitaires, aucune destruction de valeur n’est à déplorer. Pourquoi ? Les régies – et leurs chaines – ont su s’entourer de partenaires dont la priorité était de « premiumiser » l’achat programmatique. Les plus connus sont aujourd’hui La Place Média et Audience Square, les deux régies publicitaires programmatiques, leaders sur le marché. Ces places de marché digitale ont mis au centre de leur préoccupation le principe de « brand safety », afin de sauvegarder la valorisation des inventaires publicitaires.

Par ailleurs, les régies misent de plus en plus sur le programmatique direct plutôt que sur le programmatique pur : là où le programmatique pur permet de connaitre la catégorie de site sur lequel la publicité va être délivrée, le programmatique direct permet la connaissance du média précis de diffusion.

Les régies publicitaires se positionnent également sur la data en imposant le système du log. A l’image d’M6, qui ne donne accès au contenu d’M6 Play qu’en échange de data utilisateurs. Pour cela, l’utilisateur à pour obligation de se logger, soit via Facebook connect, soit en renseignant un certain nombre d’informations personnelles type sexe, âge et adresse mail. Cette initiative permet à la régie de développer sa data 1rst party et parallèlement séduire les annonceurs avec une audience qualifiée.

Enfin, les régies publicitaires développent des offres basées sur la data, permettant d’augmenter le ROI de leur campagne grâce à une audience qualifiée, et donc par extension, un ciblage plus précis. L’illustration parfaite est le lancement de Data One par TF1, en partenariat avec Kantar, qui se rapproche des habitudes de consommation en proposant une approche basée sur des GRP par produit – par exemple GRP Sodas ou GRP biscuits. Cette offre permet entre autre de s’adresser à des profils d’acheteurs produit – Exit la ménagère de moins de 50 ans avec enfants – mais également de détecter les décisionnaires d’achat.

Le programmatique est donc bien installé pour ce qui est de la télévision non linéaire tant pour le display que pour la vidéo. Le nouveau challenge pour les régies et acteurs du programmatique d’adapter ce mode d’achat à la télévision linéaire.

La puissance du téléviseur …

La télévision est et reste le média de masse par excellence, idéal pour valoriser son image de marque ou pour les lancements produits. Il permet de toucher la plus large audience de manière efficace et économique, malgré son coût d’entrée élevé. Après l’avoir désertée pendant un temps, les annonceurs reviennent vers le petit écran progressivement.

Malgré tout, la télévision, a dû faire face à une dévalorisation de son inventaire publicitaire. La cause principale réside dans la fragmentation de l’audience, elle-même due à une multiplication de l’offre. Une note une dévalorisation de 37% entre 1993 et 2016. De plus, le temps accordé à la publicité par heure est passé de 9 minutes à 6 minutes depuis 2009. Certains acteurs du marché souhaiteraient remonter ce temps publicitaire à 12 minutes. Cependant, la surpression publicitaire à la télévision (à l’image des USA par exemple) serait une erreur à ne pas commettre, dans une société où le « ras le bol » publicitaire est déjà virulent.

… boosté par le programmatique

La télévision connecté (IpTv), représente aujourd’hui près de 80 % des téléviseurs en France. La technologie est donc là et permettrait la mise en place du mode d’achat programmatique – techniquement parlant. Avec la fragmentation des audiences, les régies ont intérêt à conserver et augmenter la valeur de leurs inventaires publicitaires. Pour cela, la data collectée par les FAI via les boxes (et donc les téléviseurs connectés) est une vraie mine d’or. Les régies lancent d’ailleurs des offres programmatiques allant dans ce sens.
Tout d’abord, l’exemple de TF1 avec son offre One Data, fondée sur une collaboration avec les FAI permettant d’enrichir la data de l’IpTV, apportant une data comportementale, sur les goûts et les manières de consommer des téléspectateurs.

Canal + Régie est à l’initiative du projet ALLADIN (All Ad In). La régie du groupe Canal a voulu réunir toutes les régies publicitaires françaises autour de ce projet plaçant la programmatique au centre des problématiques de rentabilité publicitaire. L’objectif principal de ce consortium est de constituer une large base de données qualifiées, réelle monnaie d’échange unique face au traditionnel Médiamat. La data segmentée « traditionnelles » sera donc couplée avec une approche dite plus « reach ». Autrement dit c’est le rapprochement entre la puissance de frappe de la télévision traditionnelle et le ciblage précis, aujourd’hui possible sur le web.

Cette innovation structurelle du marché est indéniablement en marche. Cette méthode programmatique remplacera-t-elle à terme les méthodes de vente traditionnelle ? Rien n’est moins sûr. En effet, les acteurs du marché imaginent, pour le moment, une solution de complémentarité entre les deux approches. Par ailleurs, les contraintes de la programmatique sur le web ne sont pas les mêmes que sur la télévision. Inconcevable par exemple, d’imaginer un écran noir en cas de non vente d’un espace publicitaire. La mise en vente d’espace publicitaire en temps réel n’est donc pas pour tout de suite.

Il existe sur la média Télé, une barrière législative concernant l’interdiction de la segmentation des messages publicitaires (à l’exception de France 3 régions).

Enfin, imaginons que ce système se révèle efficace et soit mis en place. La question de la propriété des revenus publicitaires devient légitime dans ce marché de plus en plus intermédié. On risque une guerre de pouvoir entre les régies, les agences et les nouveaux arrivant sur le marché, détenteurs de la data qualifiée : les FAI.

 

Alexandra Douffiagues

La responsabilité juridique de Google dans la gestion des campagnes adwords : éditeur ou hébergeur ?

La question du statut juridique de moteurs de recherche tels que Google a créé beaucoup de polémiques. Google est-il un simple hébergeur ? Google est-il un éditeur ?

En qualifiant juridiquement le moteur de recherche, la responsabilité de Google change radicalement.

En tant qu’hébergeur, la responsabilité de Google est allégée : le moteur de recherche n’est pas responsable des contenus mis en ligne. Cependant en tant qu’éditeur, le moteur de recherche serait responsable des contenus puisqu’il exerce un contrôle sur la mise en ligne.

D’après la loi sur la confiance dans l’économie numérique, le statut d’hébergeur permet d’engager la responsabilité simplement si l’hébergeur a connaissance du caractère illicite des données stockées ou bien si le caractère illicite des données stockées a été porté à sa connaissance. [1]

Cette interrogation sur la responsabilité juridique d’un moteur de recherche a délié les langues, la doctrine s’est déchainée sur cette question. La Cour de Justice de l’Union Européenne a tranché le 23 mars 2010 en disant que le moteur de recherche Google était bien un hébergeur. [2]

De ce régime d’hébergeur dont bénéficie Google découle un nombre important de conséquences notamment sur la question de la gestion des campagnes adwords.

  • La responsabilité de Google dans la gestion des campagnes adwords.

Google bénéficie du régime juridique d’hébergeur, mais qu’en est-il pour la gestion des campagnes awdords ?   Google a-t-il un rôle actif ou passif dans la gestion des campagnes adwords ?

La Cour de justice de l’Union européenne le 23 mars 2010 a précisé certains points quant à au régime éditeur/ hébergeur. Elle énonce en effet qu’un prestataire de service comme Google a une activité qui revêt un aspect « purement technique, automatique et passif »[3] et donc doit bénéficier du régime d’hébergeur. La Jurisprudence s’est inspirée de cette solution dégagée par la Cour de justice de l’Union européenne.

La jurisprudence française va devoir se poser la question suivante : Google joue-il un rôle passif ou outrepasse-il ses simples fonctions techniques de « stockage » d’information publicitaire?

Le système de gestion adwords est un mécanisme automatique, le moteur de recherche n’exerce aucun contrôle dessus, c’est la décision rendue par la Cour d’appel de Paris le 11 décembre 2013. La Cour a en effet analysé les conditions de vente et la politique adwords, elle en conclut que Google n’était pas intervenu dans la sélection des mots clés et n’avait pas rédigé l’annonce.[4]

La Cour d’appel le 9 avril 2014 précise que Google  « n’intervient, par son offre AdWords, que comme un prestataire intermédiaire dont l’activité est purement technique, automatique et passive, impliquant l’absence de connaissance ou de contrôle des données qu’il stocke ».[5]

Google est donc un hébergeur dans la gestion des campagnes adwords. Si Google avait la main sur la gestion des campagnes adwords la décision aurait été différente et le régime juridique retenu aurait été celui de l’éditeur.

  • La gestion des campagnes adwords et l’usage de la marque d’autrui

Malgré cette affirmation par de nombreuses décisions de justice sur la responsabilité de Google dans la gestion des adwords, une autre question est soulevée fréquemment et pose problème : Google est-il responsable de la gestion des adwords quant à l’usage de la marque d’autrui ? Concrètement, une société peut-elle utiliser comme mot clé pour se référencer la marque d’un concurrent ?

La jurisprudence a du trancher si oui ou non Google était complice d’actes de contrefaçon et de publicité trompeuse en autorisant un tel référencement. Finalement cette problématique repose toujours sur l’éternelle question du régime hébergeur/éditeur.

Le 13 juillet 2010, la chambre commerciale a rendu trois arrêts dans le même sens. La responsabilité d’éditeur avait été écartée à chaque fois. [6]

Un arrêt de la chambre commerciale du 29 janvier 2013 s’inscrit dans la lignée des décisions rendues auparavant. En l’espèce, une société spécialisée dans le matériel Hi fi dénommée Cobrason a intenté une action en justice contre une société qui utilisait le mot Cobrason comme mot clé pour se référencer dans les liens commerciaux de Google. La question posée était donc de savoir si Google était responsable pour avoir autorisé un tel référencement. La chambre commerciale a énoncé que la gestion des campagnes adwords était un mécanisme automatique et que Google en tant qu’hébergeur n’était pas responsable.

En revanche, du côté de l’annonceur les solutions ne sont pas forcément toutes les mêmes. En effet, dans l’arrêt de la Cour de justice de l’Union européenne rendu le 23 mars 2010, celle-ci a déclaré que les juridictions nationales devaient au cas par cas estimer si il y a bien contrefaçon, concurrence déloyale ou même publicité trompeuse. Les juges du fond se sont saisis de cette opportunité et à plusieurs reprises ont cherché à voir si les annonceurs avaient bien commis une contrefaçon ou étaient coupables de publicité trompeuse.

A titre d’exemple, le TGI de Nanterre a rendu une décision le 6 septembre 2012 et a donné des indices pour estimer si les annonceurs étaient coupables de contrefaçon ou de publicité trompeuse : les juridictions nationales doivent examiner si l’internaute moyennement attentif peut établir un lien entre le site de l’annonceur et le titulaire de la marque en question.

Ces différences de régime entre annonceurs et moteurs de recherche s’expliquent par le caractère passif/actif que chacun d’entre eux exerce. L’annonceur a l’intention en associant les mots clés, il a un rôle actif. Le moteur de recherche tel que Google n’a pas de rôle actif dans le référencement. 

  • Une problématique semblable : Google suggest.

Dans le même esprit, une autre problématique tenant au caractère passif ou actif de Google avait secoué la doctrine. C’était le cas du fameux Google suggest. Le moteur de recherche a intégré à sa barre de recherche des propositions de recherches qui s’affichent en fonction de la recherche de l’internaute.

En 2010, la société Lyonnaise de garantie intente une action contre Google car elle constate que lorsqu’est tapé sur la barre de recherche « lyonnaise de g » des propositions déplaisantes s’affichent pour la société telles que« Lyonnaise de garantie escroc ».

Le 14 décembre 2011, la Cour d’appel de Paris condamne le moteur de recherche puisqu’il dirigeait la publication. Google saisit la Cour de cassation qui penche du côte du géant de l’internet et prononce une décision qui va dans le même sens que celles rendues à propos de la gestion des campagnes adwords : «  la fonctionnalité aboutissant au rapprochement critiqué est le fruit d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats ». [7] 

Pour le moment l’avenir du moteur de recherche semble assuré mais la doctrine étant fluctuante, Google n’est pas à l’abri d’un revirement de jurisprudence.

 

                                                                                                              Angélique de La Tullaye

[1] http://www.lettredesreseaux.com/P-748-454-A1-la-responsabilite-de-google-dans-la-gestion-de-son-service-adwords-soumise-a-examen-ca-paris,-9-avril-2014,-rg-n-13-05025.html

[2](CJUE, 23 mars 2010 affaire C-236/08).

[3] (CJUE, 23 mars 2010 affaire C-236/08).

[4] http://www.haas-avocats.com/actualite-juridique/le-statut-dhebergeur-reaffirme-pour-google-adwords/

[5] http://www.lexplicite.fr/feuilleton-google-qualite-dhebergeur-confirmee-cour-dappel-paris/

[6] https://www.courdecassation.fr/jurisprudence_2/chambre_commerciale_574/arrets_rendus_17008.html

[7] https://www.legalis.net/actualite/cassation-google-nest-pas-responsable-des-suggestions-litigieuses/

L’intelligence artificielle au service de la publicité

Chaque jour, plus de 30 millions de mobinautes utilisent des applications et se retrouvent confrontés à des écrans figés par les publicités interstitielles. Face à cette pression publicitaire qui se fait de plus en plus présente, les consommateurs sont nombreux à s’équiper d’ablockers, on dénombre 419 millions d’utilisateurs en 2016[1]. En France, le phénomène est croissant bien qu’encore assez faible. 7% de la population a installé un bloqueur de publicité ou un outil similaire. Récemment le CSA a estimé que 15% de la population souhaite s’équiper d’un bloqueur [2]de publicité pour se protéger face à la pression publicitaire. Ce phénomène pourrait représenter un manque à gagner important pour les annonceurs et éditeurs. Le cabinet Jupiter Research, estime que la perte pourrait atteindre la colossale somme de 28 milliards de dollars à l’horizon 2020. Depuis l’éclatement de la bulle internet, les revenus publicitaires en ligne ont chutés, et les acteurs du marché ce sont surtout concentrés sur les solutions de retargeting et la performance pour maintenir des CPC ou CPM significatifs[3].

Il va s’en dire que les adblockers pousse le marché de la publicité à se renouveler et dessinent de nouveaux enjeux. Depuis quelques années, le RTB et le programmatique se sont développés et renouvelés pour proposer des plateformes d’achats publicitaires dotées d’intelligence artificielle. Le programmatique permet d’effectuer des achats d’impressions en 150 millisecondes et génère des flux de données considérables, qu’une intelligence humaine ne peut assimiler et analyser. Le recours à l’intelligence artificielle est donc de plus en plus commun et le deep learning permet de cibler avec de plus en plus de précision les profils clients. Pour Eric Clemenceau, directeur de Rocket fuel, ces technologies permettent de sortir du ciblage sociaux-démographiques assez classiques et d’associer un véritable profil à une impression. C’est également l’occasion pour les annonceurs d’optimiser leur investissement puisqu’une entreprise comme Rocket Fuel est capable de faire de la vente en temps réel en y associant du big data.[4] Ce qui signifie qu’il y a la possibilité d’acheter une quantité d’impression importante, tout en acquérant des données précises sur le comportement et l’engagement des prospects[5].

Grâce à ces analyses, les annonceurs identifient non pas un profil par consommateur mais plusieurs profils, la notion de moment, prend de plus en plus d’importance. On souhaite toucher la bonne personne, au bon moment et sur le bon device. Ce sont des données qui ont une importance croissante, dans la mesure ou nos usages varient en fonction des moments de la journée. Un internaute, n’a pas les mêmes envies un lundi soir ou un samedi soir, il n’y aurait pas d’intérêt à l’exposer deux fois aux mêmes campagnes. Ce sont autant d’élément que l’intelligence artificielle permet d’analyser en croisant les données[6].

L’intelligence artificielle n’est pas utilisée qu’au sein du marché programmatique, IBM est actuellement en phase de test pour proposer un outil de ciblage également basé sur IA. Il y a quelques années, IBM développe son programme informatique d’intelligence artificielle capable de répondre à des questions en langage naturel[7]. Après avoir racheté la Weather Company, IBM se lance dans une phase de test pour faire de la publicité cognitive. En se basant sur les données, la météo, et les questions de l’internautes, IBM souhaite développer des publicités interactives. Le projet est encore jeune, mais le groupe a déjà signé des partenariats avec GFK, et la marque de soupe Campbell. L’internaute, pourra interagir avec ses publicités et en fonction de la météo, des ingrédients en leur possession, une recette de soupe sur mesure sera proposée.

Ce type d’avancée représente un moyen de s’éloigner de la publicité intrusive en ligne. Les GAFA[8] dont le modèle économique repose majoritairement sur la publicité, s’intéressent de plus en plus à la question de l’intelligence artificielle. Google développe sa propre activité dans ce domaine grâce à sa filiale du Deep Mind et le service Amazon Echo est également doté d’une intelligence artificielle[9].

Enfin, plus récemment, Axelle Lemaire secrétaire d’état en charge du numérique et de l’innovation lance la mission « France IA » avec pour objectif de définir une stratégie nationale et identifier les atouts du secteur[10].

 

 

Anne-Laure Duperval

[1] http://www.journaldugeek.com/2016/06/02/adblockers-mobile/

[2] https://www.csa.eu/fr/survey/adblocking-la-necessite-d-un-new-deal

[3] http://www.journaldunet.com/ebusiness/publicite/1164357-adblockers-l-iab-fait-son-mea-culpa/

[4] https://hubinstitute.com/2014/08/lintelligence-artificielle-au-service-lachat-despace-publicitaire-hubforum/

[5] http://lareclame.fr/rocketfuel-interview-minute-eric-clemenceau-163606

[6] http://lareclame.fr/rocketfuel-interview-minute-eric-clemenceau-163606

[7] http://www.journaldunet.com/ebusiness/publicite/1187637-ibm-watson-met-de-l-intelligence-artificielle-tans-ses-pubs/

[8] http://digitalpost.ddb.fr/lintelligence-artificielle-quels-benefices-pour-les-marques-et-leurs-consommateurs/

[9] http://digitalpost.ddb.fr/lintelligence-artificielle-quels-benefices-pour-les-marques-et-leurs-consommateurs/

[10] http://www.zdnet.fr/blogs/green-si/engageons-la-reflexion-sur-l-avenir-de-l-intelligence-artificielle-39847462.htm

DATA EN OPN BAR CHEZ PERNOD RICARD

Depuis 3 ans, Pernod Ricard peaufine un prototype de bar à cocktails connecté, l’Opn, qui pourrait disrupter le secteur des spiritueux. Mais la data est-elle le meilleur accompagnement des alcools forts ?

Annoncé depuis 2014 sous le nom de code « Projet Gutenberg », puis rebaptisé« Opn » en 2017 pour un lancement en 2018, le minibar connecté de Pernod Ricard est composé de 29 cartouches amovibles, indépendantes les unes des autres, et dotées d’un bec verseur. Ces dernières sont jetables, une fois vides, et contiennent toutes des alcools brandés Pernod Ricard (Ricard, Chivas, Absolut, Havana Club, Malibu… On recense 15 marques stratégiques locales et 13 marques stratégiques internationales : au total, 28, presque la totalité des cartouches prévues qu’une stratégie de longue traîne pourra ainsi valoriser).

Posée sur un plateau doté d’une puce NFC, la partie physique est reliée à une application mobile via le bluetooth et le wifi. L’application, personnalisée, permet de monitorer les volumes de liquides. Qu’il s’agisse de mixologie, en suivant des recettes de cocktail sur l’application : l’alcool à tirer clignote jusqu’à s’éteindre, quand le bon dosage est enfin atteint. Puis, on passe au deuxième produit à mélanger qui s’allume et ainsi de suite. Ou, qu’il s’agisse de réassortiment : si le niveau d’un alcool est bas, il est immédiatement repéré par l’application en ligne qui le commande automatiquement. L’application est interactive et propose des choix lui permettant de comprendre les goûts de l’utilisateur, au-delà du recensement de ses recherches en pull (300 recettes de cocktails ont été créées à partir des alcools Pernod Ricard et sont disponibles sur l’application dédiée).

La segmentation clients

Ce prototype du BIG (le Breakthrough Innovation Group, la cellule de disruption de la marque) repense la consommation d’alcool autour de trois insights : les nouveaux usages liés à la data, l’accompagnement des produits Pernod Ricard dans une logique de vente et de visibilité soumise aux impératifs de la loi Evin, et la forte culture des bars et de la mixologie. Ces 3 paramètres définissent la cible clients d’Opn : évidemment, un consommateur majeur, connecté, possesseur de nouveaux devices (tablette, smartphone) et utilisateur d’applications. Un consommateur d’alcools, sensible aux innovations produits et technologies (donc, dans un premier temps, des innovators et des early adopters) et indépendant financièrement.

Les baromètres de la consommation de boissons alcoolisées et autres études Nielsen dégagent des trends auxquels les usages d’Opn sont liés et affinent la cible. Dans le monde des vins et des spiritueux, le cocktail reste un puissant créateur de valeur, synonyme d’expérience et d’évasion gustative[1]. En France, les jeunes en sont les premiers consommateurs[2]. Et, 72% des Français déclarent déguster des cocktails chez eux, donc hors des circuits classiques des CHR (Cafés Hôtels Restaurants)[3] [4]. C’est ce segment client plus spécifique qui est visé. En résumé : voilà un consommateur jeune, friand de créativité alcoolisée et que l’on touche chez lui.

L’Opn s’articule ainsi autour d’une logique de commerce everywhere. Le bar connecté transforme un lieu privé avec les marqueurs typiques du CHR (la carte de cocktails, les produits, la mixologie experte du barman) et propose au client une expérience at home riche autour de la convivialité (création d’évènements auxquels on convie ses amis, possibilité de sonder leurs goûts en ligne, création de « before » avant de sortir, etc.).

L’objet connecté inverse la chaîne de valeur usuelle de la consommation de spiritueux. On part du dernier point de contact du parcours client, du « dernier mètre » avant la décision d’achat, pour repenser l’expérience consommateur à rebours d’un marketing top-down. A la question qui travaillait Pernod Ricard, « comment être visible en CHR en proposant des services facilitant l’achat de produits Pernod Ricard », l’Opn a trouvé une réponse inédite : investir les modes de vie cocooning des consommateurs et penser son minibar sur le modèle d’un e-commerce qui agrège les clients ne passant pas par la case CHR.

Un bémol néanmoins : la question de la  substitution des recharges, avec des marques moins chères, pourrait mettre à mal la réussite du business model, à l’instar des fabricants d’imprimante (concurrencées par des fabricants de cartouches d’encre meilleur marché), ou de Nespresso, dont les machines sont devenues compatibles avec des capsules d’autres constructeurs.

L’Opn, une proposition au point ?

Si l’Opn est en dernière phase de test, on peut d’ores et déjà critiquer l’ergonomie du produit et son positionnement.

  • Le pianocktail et la promesse technologique : c’est la source littéraire revendiquée par Pernod Ricard. Dans L’Ecume des jours, l’écrivain crée ce mot-valise (pianocktail) pour désigner un piano bar au sens propre du terme : un piano qui produirait une boisson alcoolisée dont le goût traduirait les sensations éprouvées à l’écoute d’un morceau de musique. Voilà une promesse marketing forte et quasi intenable! C’est davantage la démarche intellectuelle de Vian qui a guidé la cellule BIG : partir d’une expression, « une bibliothèque d’alcools », et la prendre au pied de la lettre pour inventer un produit avec une identité forte. Dans leur communication, le parti pris d’un storytelling revendiquant cette référence brouille l’ADN de l’Opn. On est davantage sur la réinvention de la flasque d’alcool (les cartouches jetables). Les emprunts à l’univers du livre pour customiser l’Opn (ses matières) ne sont justifiés aujourd’hui que pour décomplexer l’achat d’alcool et se rapprocher de la vente en ligne de livres.

Par contrecoup, ce packaging gomme l’aspect tech de l’Opn, à un moment où d’autres solutions connectées existent, notamment le Somabar, une innovation qui intègre les mêmes fonctions en lien avec les nouveaux devices, sans restriction aux marques d’alcool, plus une mixologie automatisée par la machine.

http://www.youtube.com/watch?v=TV_anIhRxJk&feature=youtu.be

  • L’automation du réassort : jamais à sec, l’Opn propose un réassortiment qui, s’il est vraiment automatique, pose problème. Cette fonctionnalité se démocratise pour les produits de consommation présents en grande distribution. On pense à la Smart Drop d’Evian pour passer commande d’eau ou au Dash Button d’Amazon. Avec Pernod Ricard, on est sur une obligation de rappel de consommation avec modération, et un produit très encadré par la loi. Un réassortiment absolument automatique ne nous parait pas envisageable. On suppose que l’application, quand elle détecte le niveau bas d’une cartouche, envoie un pop-up d’information au client. Ce dernier, s’il souhaite recommander l’item, donne son consentement via un opt-in et un écran où le consommateur doit déclarer être majeur (date de naissance à valider). Rappelons aussi la réglementation des ventes à emporter des boissons alcoolisées, interdites entre 22H et 8h, qui suspend la prise en compte de la commande sur ce laps de temps, sans torpiller la promesse marketing (on ne se fait livrer qu’aux heures ouvrables en France).
  • Autre problème lié à la consommation d’alcool fidélisée par la marque : la santé du client. Nous n‘avons pas d’informations sur des menus de l’Opn où le compte client serait associé à une déclaration santé personnalisée. Dans le cas d’un consommateur diabétique, quelle association est possible pour conjuguer le plaisir de la dégustation et le suivi de son bien-être sans obliger à la collecte de data sanitaires? De plus, nous ne savons pas si l’Opn est associé avec une autre application développée par Pernod Ricard : Wise Drinking (suivi de la consommation en temps réel, calcul du taux d’alcoolémie, appel d’un référent ou d’une compagnie de taxis quand le client est en abus d’alcool).

Au final, l’Opn est un puissant collecteur de data sensibles qui engagent l’identité sociale de la personne (sa propension à être plus ou moins fêtard) et, potentiellement, les déviances liées à l’alcool (l’alcoolisme mondain, notamment). Les mesures propriétaires sur les données posées par Pernod Ricard (via sa régulation technique de l’accès à l’application) vont-elles forcément s’accompagner d’accords stricts de confidentialité ? L’adoption sur le long terme des objets connectés est à ce prix…

Nicolas Bauche

[1] Fédération Française des Spiritueux : http://www.spiritueux.fr/maj/phototheque/photos/pdf/ffs_reperes2013.pdf

[2] Baromètre 2014 de la consommation des boissons alcoolisées

[3] Ibid

[4] 54% des consommateurs de cocktails ne consomment pas les mêmes recettes tout au long de l’année (Etude Cocktail, Nielsen, 2016)

Plateformisation des médias : nouveaux défis pour les éditeurs

Une page se tourne dans l’histoire mouvementée des médias à l’ère numérique. Les médias traversent actuellement une période de changement drastique, symptomatique de la révolution du mobile. En moins de cinq ans, la migration des audiences sur le mobile a renversé le rapport de force entre les éditeurs et les plateformes sociales qui distribuent leurs contenus. Désigné par le terme anglais « distributed content », l’expression française est encore plus parlante : la transformation des médias trouve sa suite dans la « plateformisation » des contenus, phénomène selon lequel le succès d’une marque média dépend de sa capacité à distribuer habilement ses contenus hors de son site, sur une multiplicité de plateformes. Les plateformes dont il est question sont bien connues : il s’agit principalement de réseaux sociaux comme Facebook, Snapchat, Instagram, Twitter ou Periscope, d’applications de curation de contenu comme Apple News ou Flipboard, d’applications de messagerie (Viber ou Wechat par exemple) ou de solutions d’intégration de vidéos. Des médias tels que MinuteBuzz en France ou NowThis aux États-Unis capitalisent sur les nouveaux usages en distribuant 100% de leurs contenus via une trentaine de plateformes fédératrices d’une audience mondiale, sur lesquelles nous passons une partie considérable de notre temps. Chacun de ces nouveaux canaux de distribution met en place des technologies pour conserver cette large audience dans son environnement applicatif, au détriment des sites web des éditeurs de contenus. Un tour de passe-passe qui plonge les médias dans une ère où le site web n’est désormais plus le centre de gravité d’une marque média. Quel impact sur l’industrie de contenus ?

Une audience mouvante rendue captive par les plateformes sociales

L’argument principal des réseaux sociaux tient en deux mots : « user first ». Une expérience de lecture optimisée pour le mobile, un temps de chargement significativement réduit, des formats publicitaires maîtrisés et parfaitement intégrés, telle est la logique invoquée par les plateformes sociales pour justifier la mise en place de leurs outils à destination des éditeurs de contenus. De plus, ce mode de consommation est assez naturel, étant donné que les utilisateurs passent déjà une grande partie de leurs temps sur ces plateformes. L’intégration directe des contenus ne fait qu’uniformiser l’expérience. Aux articles, on préfère désormais des formats vidéo courts, basés sur l’émotion, propices à la consommation sur les réseaux sociaux. Les formats live et les productions originales se multiplient également. Ces formats intégrés au sein même des plateformes pourraient devenir une norme pour les médias : Facebook a mis au point les Instant Articles pour permettre aux éditeurs d’héberger leurs contenus directement sur le réseau social, et leur promettant de distribuer leurs contenus là où l’audience se trouve. Snapchat avec Discover, touchant la cible si convoitée des 15-34 ans, distribue les contenus des médias

sélectionnés au sein de sa plateforme, sous des formats repensés pour le réseau social. Google est également dans la course, en développant AMP (Accelerated Mobile Pages), un format allégé, qui à défaut d’être une plateforme sociale, devient un standard à adopter par les éditeurs pour figurer en bonne position sur les résultats de recherche via Google. On pourrait citer encore beaucoup d’autres exemples illustrant ce phénomène de désintermédiation entre marques médias et utilisateurs. En s’appuyant sur leurs audiences colossales pour convaincre les éditeurs, et en proposant aux mobinautes de consulter des contenus dans les meilleures conditions possibles sans être redirigés sur les sites des médias, les plateformes sociales réussissent progressivement à s’accaparer une partie de l’activité de distribution des contenus, et à rendre captive une audience réputée pour sa volatilité et son insubordination.

La question de la monétisation : vers la dépendance économique des médias ?

Le phénomène de plateformisation a ses conséquences : les éditeurs, privés d’une part importante du trafic sur leur sites web, deviennent rapidement le « maillon faible » dans la chaîne de valeur des médias numériques. En effet, qui dit perte de trafic dit perte de valeur aux yeux des annonceurs, entraînant la fragilisation de leur modèle économique reposant pour la grande majorité sur la publicité.

Et les régies des médias dans tout cela ? Elles sont peu à peu supplantées par celles des réseaux sociaux, qui sans les contraindre, les incitent fortement à passer par elles pour une optimisation et une intégration des formats synonymes de meilleures performances. Cela signifie néanmoins, de leur céder un pourcentage variable des recettes publicitaires. Les médias perdent donc progressivement la main sur leur audience, et sur la valeur économique qui leur est associée. Rappelons que Google et Facebook captent plus de 54% des recettes publicitaires mondiales selon les dernières estimations. La conquête de nouveaux lecteurs passe-t-elle donc nécessairement par la dépendance économique envers ces titans du digital ? Souffrant déjà du phénomène des adblockers, l’industrie des contenus en ligne peut aujourd’hui difficilement se passer de l’exposition que leur offre ces gigantesques canaux de distribution.

L’enjeu de la mesure

Une des difficultés majeures à l’ère de la plateformisation des médias est de récolter, traiter et analyser une quantité de mesures différentes provenant de plateformes différentes aux audiences différentes. Passée la première étape de récupération des données via les API des canaux de distribution, comment les analyser sans mesure commune ? Cette dispersion de la data sur des plateformes ayant souvent des définitions différentes d’un même indicateur implique de considérer la mesure de la performance autrement : moins se concentrer sur un total de vues quand on sait qu’une vue peut être comptabilisée à 3 secondes chez les uns et à 1 seconde chez les autres, et se focaliser davantage sur la couverture totale, l’interaction et le fait de toucher à chaque fois de nouveaux utilisateurs. À cela s’ajoute des rapports de mesure d’audience fournis moins régulièrement que par des instances tierces comme Médiamétrie. MinuteBuzz, le premier média européen à avoir opéré sa transformation en média 100% plateformes sociales et 100% vidéo, a suspendu son abonnement chez Médiamétrie et fonctionne désormais sans leur rapport quotidien. Le média ne raisonne donc plus en visites uniques mais en nombre de vidéos vues et en taux de complétion. Néanmoins, ce manque de standard de mesure sur toutes les plateformes complexifie les modèles d’attribution, et a donc un impact sur la monétisation.

La plateformisation des contenus, un phénomène ne pouvant plus être ignoré

Certes, l’adaptation à cette perte de contrôle sera douloureuse pour les entreprises qui ne repenseront pas rapidement leur business model dans le sens d’une distribution multi- plateformes. Mais comme lors de toute transformation de l’industrie, un temps de latence est nécessaire pour définir clairement les règles du jeu, notamment en termes de mesure, d’attribution et de monétisation. Enfin, toute transition de l’industrie offre des opportunités à saisir. Les médias pourront miser sur les options de ciblage toujours plus fines offertes par leurs hébergeurs pour augmenter leur notoriété, repenser une stratégie de contenu adaptée à chacune des plateformes, et redéfinir le rôle de leur site web, avant d’obtenir des réponses aux nombreuses questions qui se posent. D’ici là, l’Internet ne cessera pas de changer de visage.

 

Mariana Durandard
@Mariana_Drd

Quitter la version mobile