Youtubeurs VS chaines TV : une formule gagnante ?

Aujourd’hui, alors que YouTube était le cauchemar des chaines de télévision et une des conséquences des pertes d’audiences, les youtubeurs envahissent le petit écran, et inversement, les groupes de médias se déploient sur YouTube.

La fin de la télévision est un sujet qui cultive de nombreux débats à l’heure de la mutation de l’audiovisuel. Il est possible d’évoquer une forme de « big bang » de l’audiovisuel. Depuis plusieurs années les chaines TV s’efforcent de trouver de nouvelles solutions à l’érosion des revenus publicitaires et à la fragmentation des audiences. Celles-ci misent aujourd’hui leur stratégie sur la diversification des modes de consommation qu’elles peuvent proposer, faisant de l’atomisation des contenus et des offres un atout et non une crainte, en étant toujours plus transversal et innovant.

L’arrivée des acteurs du net a bouleversé l’économie du secteur et YouTube est le parfait exemple de l’évolution des modes de consommation et des productions audiovisuelles, « 8 français sur 10 entre 16 et 24 ans se rendent sur la plateforme au moins une fois par jour »[1]. Les youtubeurs, afin de bénéficier d’une plus large exposition, se sont d’ailleurs rapidement intéressés à une structure proposée par la plateforme : les Multi Channel Network ou réseaux multi chaines (ci-après MCN).

L’invasion des chaines TV dans les Multi Channel Network

Les MCN désignent une structure reposant sur des fonctionnalités mise en place par YouTube permettant d’y intégrer plusieurs chaines de talents du net. Les MCN proposent différents services tels que l’accroissement d’audience, la protection des droits, des opérations de promotion croisée entre les chaines affiliées et la monétisation des contenus.

Le modèle des MCN génère de fortes audiences, les chaines TV l’ont bien compris et investissent/créent en masse des MCN à l’instar de Canal Plus avec Studio Bagel, le Groupe M6 avec Golden Moustache, Rose Carpet, et plus récemment TF1 qui possède désormais 6% du capital du MCN mondial Studio 71 (250 millions de vues en France), soit un investissement de 25 millions d’euros.

Concrètement, les chaines TV proposent des « contrats de partenariats et de prestations » aux youtubeurs consistant en l’intégration de leur chaine Youtube au sein du MCN ; la mise en place d’un partenariat commercial exclusif relatif à la valorisation de leurs images et de leurs marques. Aujourd’hui les youtubeuses spécialisées dans le secteur de la beauté pullulent, et sont capables d’aimanter le public avec leurs plusieurs millions de vues sur YouTube et ont une force d’impact sur leurs communautés considérable. Elles animent quotidiennement leurs chaines sur différents thèmes, de vidéos, et sont devenus des égéries intéressantes pour les annonceurs. Elles possèdent des communautés puissantes qui suivent quotidiennement leurs contenus.

L’avantage pour un Youtubeur d’intégrer le MCN d’un groupe de média est la puissante régie publicitaire qu’il possède et les contenus de qualité pouvant être produit grâce aux studios de production.

Pour la chaine TV, les revenus tirés de la monétisation des vidéos restent minimes, une partie devant être attribuée à YouTube et au youtubeur. Les opérations de diversification (placement de produit) et le brand content génèrent le plus de revenus. Les chaines TV rivalisent d’originalité avec des contenus décalés, tel que Vivelle Dop qui s’est associé à Golden Moustache pour la sortie d’un produit de la marque et a engendré plus de 4 millions de vues (YouTube + Facebook), remportant le trophée de la meilleure vidéo online 2016.

Les chaines TV misent leur stratégie sur la complémentarité avec les youtubeurs : créer de nouveaux programmes télévisés à partir de talents du net.

Ce rapprochement a permis par exemple de propulser le « Palmashow »[2] , diffusé sur C8, possédant presque 3 millions d’abonnés sur la chaine YouTube, ou encore Monsieur Poulpe de Studio Bagel présentant aujourd’hui l’émission Crac Crac sur Canal +.  Les chaines TV doivent donc produire de courts formats, « dont la narration et la mise en scène portent un dynamisme qui gagne l’intérêt de l’utilisateur de la plateforme dès les premières secondes »[3]. Ce rapprochement se traduit également par la prolifération d’intervention de youtubeurs sur les chaines tv comme Enjoy Phoenix dans Danse avec les stars, émission de TF1.[4]

Les chaines TV en investissant ces nouveaux territoires compte bien capter l’attention des millenials qui feront les audiences de demain.

Charlotte Fourey

 

[1] http://www.inaglobal.fr/television/article/quand-les-chaines-tv-courent-apres-les-jeunes-10071

[2] http://www.lemonde.fr/idees/article/2014/04/07/youtube-nouveau-meilleur-ami-des-chaines-de-television_4397016_3232.html

[3] http://www.lemonde.fr/idees/article/2014/04/07/youtube-nouveau-meilleur-ami-des-chaines-de-television_4397016_3232.html

[4] http://bfmbusiness.bfmtv.com/entreprise/les-youtubers-a-l-assaut-de-la-television-et-reciproquement-1137732.html

Spotify réinvente le podcast avec « Spotlight »

Spotlight ou le podcast augmenté

Ce 18 janvier Spotify a lancé son nouveau service, Spotlight. Avec Spotlight, Spotify veut proposer des contenus originaux de podcasts visuels à ses utilisateurs et ses abonnés. Spotlight c’est un service de podcasts originaux, produits exclusivement pour la plateforme et touchant à des thèmes variés allant du sport à la pop culture en passant par les informations. Quel est l’intérêt d’en parler me direz-vous, les podcasts, ça fait longtemps que ça existe ? Eh bien la particularité du service est de s’accompagner d’images, de textes et même de vidéos. Toutefois pas de méprise, ce contenu visuel ne vient qu’accompagner l’audio, il ne lui est pas nécessaire. C’est donc une offre pluri-média, mais dont le média principal est le podcast, c’est du podcast augmenté donc.

Spotify, avec ses 70 millions d’abonnés et 140 millions d’utilisateurs actifs est le leader du streaming musical. Il propose déjà des podcasts sur sa plateforme, ceux de la BBC par exemple, mais ce n’est pas un contenu original. Il propose aussi du contenu visuel mais comme un service à part. Avec Spotlight, Spotify veut créer des contenus contextuels complémentaires, spécifiquement créer pour accompagner le contenu audio. Telle est l’innovation du produit. En effet, à côté les radios généralistes traditionnelles qui filment leurs émissions et écrivent leurs chroniques sur les pages de leur site font triste figure, si tant est que le contenu proposé par Spotlight soit bon. La production de ces contenus se fera par des partenaires tels que BuzzFeed News, le plus connu en France, ou encore Crooked Media et Gimlet Media. Ainsi BuzzFeed produira, par exemple, un journal quotidien de 4 à 7 minutes. Le service n’est pour l’instant disponible qu’aux Etats-Unis.

Mais quel est intérêt stratégique peut bien représenter Spotlight pour Spotify ?

De prime abord cela semble être beaucoup d’embêtement pour pas grand-chose. En effet les utilisateurs de Spotify cherchent avant tout à écouter leur musique en streaming, ce ne sont pas forcément des consommateurs de podcasts ou de programmes radiophoniques généralistes. Le prix de l’abonnement ne sera pas plus élevé.

Spotify montre aussi son dynamisme est sa pertinence sur un marché difficile par ses innovations et cela à quelques mois de son entrée en bourse. Aujourd’hui Spotify est le leader incontesté du streaming musical avec plus de 30 millions de titres disponibles. Spotify ne lance pas que Spotlight, l’entreprise propose désormais une application, Stations, permettant d’accéder de façon rapide, facile et gratuite à ses playlist pré-enregistrées. L’application se veut très ergonomique, permettant de changer de morceau d’un « swip » et de découvrir facilement des nouveautés. Ces innovations peuvent rassurés de futurs actionnaires.

La radio est-elle désuète ?

La radio est vu comme un média vieillissant, déjà affaibli par l’arrivée de la télévision. Le streaming, que ce soit par des plateformes spécialisés ou via Youtube a détourné les auditeurs des radios musicales. Pourtant à l’heure du numérique, avec l’avènement du smartphone et maintenant qu’on nous annonce la mort de la télé, la radio semble produire des contenus particulièrement bien adaptés aux nouveaux usages. Aux Etats-Unis, le renouveau de la radio s’est fait par les podcasts, tel que « Serial » par exemple, véritable phénomène outre Atlantique.

Christopher Baldelli s’est exprimé lors du Salon de la Radio ce 25 janvier comme nous le rapporte Satellifax. L’ex-Président du directoire de RTL, aujourd’hui vice-président du directoire du groupe M6, après la fusion des deux groupes, en charge de la radio et de l’information a affirmé son optimisme quant à l’avenir de la radio. D’après lui en ce qui concerne les « 13-34 ans, il s’agit du média qui génère le plus de contacts journaliers. Et ce sont les 13-19 ans qui utilisent le plus les supports numériques (smartphone, notamment) pour écouter la radio (22,4 %), soit plus du double de la moyenne nationale » peut-on lire dans Satellifax. La radio est donc un média jeune, un média d’avenir qui répond aux habitudes de mobilité et de gratuité. Et ne parlons pas des podcasts, donc les consommateurs principaux sont des jeunes adultes. Cette cible intéressante pour les annonceurs, qui échappe de plus en plus à la télévision pourrait bien se révéler être un des objectifs de Spotify avec Spotlight. Spotlight serait un produit d’appel pour la publicité et la vidéo un support plus évident pour la publicité. La où YouTube a eu des problèmes de brand safety, Spotify a un contrôle sur ce qui est présent sur sa plateforme et peu être plus transparent avec ses annonceurs en ce qui concerne les impressions.

Pour ce qui est de la publicité audio, le marché est évalué à 18 milliards de dollars aux Etats-Unis et le baromètre Kantar 2017 a compté 1 076,8 millions d’impressions servies et un quart d’impressions supplémentaires en un an avec toujours plus d’annonceurs comme le rapporte CB news. On voit facilement quel intérêt Spotify peut trouver à développer une offre podcast pouvant capter à la fois du revenu publicitaire audio, mais aussi vidéo.
En effet le modèle économique actuel de Spotify n’a pas totalement convaincu. La plateforme de streaming doit reverser 80% de son CA en droit. Sa position de leader est assise mais les offres d’Apple, avec Apple Music, et d’Amazon, avec Amazon Music Unlimited, le concurrencent sérieusement et avec des prix très bas. Spotlight permet ainsi de se différencier par l’innovation et la qualité du produit auprès des consommateurs. Spotify se mesure ainsi directement aux GAFAS, dont Google avec YouTube.

Vers un avenir sonore, l’internet de la voix

Il ne faut pas oublier l’arrivée d’Alexa, l’assistant vocal d’Amazon. Google Home et HomePod qu’Apple vient de sortir. Tous les GAFAS investissent le domaine encore vierge des assistants vocaux. Il y a un enjeu pour tout service, se référencer phoniquement et être capable de proposer du contenu compatible. De ce point de vu une offre telle que Spotlight est intéressante, elle permet de toucher des utilisateurs sur leur smartphone dans les transports par exemple mais aussi une fois rentré chez eux, via leurs enceintes intelligentes, en abandonnant un contenu visuel distrayant mais pas nécessaire.
Peut-être existe-il le projet, l’ambition secrète, de faire de Spotify un Netflix sonore…

Là où des producteurs de podcasts rêvent d’une plateforme payante, d’un Netflix audio le défi n’est pas gagné. Les applications de podcast sont déjà des plateformes de streaming et de download où d’innombrables contenus sont gratuits et à disposition. Les radios généralistes ont depuis longtemps investis cet espace pour mettre leur contenu à disposition gracieusement. Le pari est alors de faire venir ces utilisateurs sur leur station lorsque ceux-ci allume le poste. N’oublions pas qu’à la radio les mesures d’audiences sont bimensuelles et que les utilisateurs sont peu zappeurs à la radio. C’est un média de l’intimité et de l’habitude. En ce qui concerne la radio, les habitudes sont prises et il est difficile d’imaginer un modèle payant.

C’est là que Spotify fait fort, puisque l’offre est totale, musique (les utilisateurs payent déjà pour ça) et podcasts qui viennent s’ajouter comme un argument de vente supplémentaire. Si Spotify parvient à constituer un catalogue important de contenus intéressants, le service pourrait être leader sur ce marché à venir de l’internet sonore.
La course aux contenus continue et avec elle les frontières entre les médias s’effacent…

Marion Lavaix

De la simple suggestion à la capture de notre attention : Les technologies nous manipulent- t-elles ?

Portable, ordinateur, tablette, Facebook, Snapchat, Instagram, … une routine largement répandue et partagée par beaucoup chaque jour. Face à cet empressement informationnel et social sont apparus depuis quelques années des manifestes anti-technologies, des « Digital Detox » salvatrices. Leur mission ? Nous libérer de notre hyperconnexion, de ce sentiment d’urgence permanent qui nous assiège dès que l’écran de notre smartphone s’éclaire. Comme pour arrêter de fumer, une bonne dose de volonté serait nécessaire et le webonaute se verrait libérer de ses démons modernes.

 

Évolution du nombre d’occurrences des termes « digital detox » dans le temps
– Source Google Trends

 

Alors, tous coupables ?

 

Nos applications/sites favoris sont-ils à dédouaner de toute responsabilité dans ce va-et-vient continuel de pouces sur les écrans ? Derrière la transparence supposée des interfaces pâmées de couleurs délicates et de cadres discrets, nos dispositifs de communication et d’informations sont bien plus que de simples intermédiaires neutres entre nous et le monde. Leur organisation, design, architecture et types de mise en visibilité des contenus sont pensés dans un objectif précis. Ainsi, selon Tristan Harris, ancien spécialiste du design chez Google, les nouvelles technologies « kidnapperaient » l’attention de leurs utilisateurs qu’elles garderaient captifs. Comment ? Par d’inlassables stimulus comme les notifications ou les alertes, par un scroll infini, ou même via le lancement automatique de vidéos, espérant ainsi capter notre regard. L’approche se veut délibérément pavlovienne, et crée a fortiori un comportement réflexif, l’individu se jetant frénétiquement sur son écran. L’attention est devenue le nouvel or noir et la technologie, son écrin.

 

Ainsi, selon Yves Citton dans Pour une économie de l’attention, le temps d’attention serait en passe de reconfigurer les lois de l’économie et de la politique. Il rappelle ainsi dans son œuvre une phrase de Michael Goldhaber qui soutenait que, « comme toute autre forme d’économie, celle-ci est basée sur ce qui est à la fois le plus désirable mais surtout le plus rare, et c’est maintenant l’attention venant d’autres personnes qui satisfait cette double caractéristique ». Cette nouvelle rareté est directement corrélée au web et à la profusion de biens disponibles qu’il propose. De plus en plus d’articles, de vidéos et d’images sont produits alors même que la quantité d’attention disponible par individu est fixe. C’est alors le business model même du web qui se trouve impacté, obligeant les entreprises à agir pour « attirer l’attention ».

 

En effet, le web, dès ses prémices a été conçu pour ne faire aucune distinction entre ses usagers. Dans cette agora connectée, la gratuité des biens était compensée par la publicité, et notamment le display. Dès lors, l’attention est devenue hégémonique pour qui voulait exister en ligne. Sans visites sur son site web, pas de revenus publicitaires. Des acteurs comme Twitter ou Facebook ont rapidement compris ce nouveau paradigme et ont adapté leurs modèles. L’équation était simple, plus les individus étaient connectés à la plateforme, plus celle-ci pouvait leur montrer des publicités et donc accroître ses revenus. Les notifications se sont alors multipliées et le scroll s’est allongé. Cependant, ces formes de stimulus ne sont pas les seules. Cette volonté de garder l’individu en ligne peut expliquer pourquoi notre News feed ne montre pas de manière équitable les actualités journalistiques récentes et les photos et publications likées par nos amis. L’article vous mènerait vers un autre site et vous ferait alors stopper votre navigation. Les photos de vos amis à contrario vous feront interagir, et donc rester davantage en ligne. Notons que la gestion des « fake news » suit un raisonnement semblable. Ce type de publication ayant tendance à se faire massivement relayer et à entraîner de nombreuses interactions (likes, commentaires), les supprimer au premier signalement couperait Facebook de revenus potentiels. L’attention est devenue un gibier à capturer, et pour se faire, tous les moyens sont bons.

 

De la « petite attention » à la capture complète de celle-ci, il n’y a qu’un pas, déjà franchi.

 

Rien d’étonnant alors à ce que le mot « captologie » (captology en anglais), contraction entre le mot anglais « captor » (ravisseur), et –logy (science), vienne de faire son apparition sur le site www.definitions-marketing.com (26 janvier 2018). Inventé par un chercheur de Stanford, il désigne les techniques de design des interfaces destinées à capter l’attention des utilisateurs. Cependant, cette capture, comme le souligne F.Cochoy, n’aurait rien de brutale, personne ne s’est jamais plaint d’une supposée violence physique de Facebook ou Google à son encontre. Il s’agirait plutôt d’une stratégie visant à tirer parti des capacités des individus afin de les dévier de « leur trajectoire, les soustraire à l’espace extérieur, les placer sous contrôle ». A travers cet art du « faire laisser faire », ces acteurs donneraient aux internautes une impression de liberté, qui bien qu’étant conditionnelle, ne se ressentirait pas comme telle. Le « champ des possibles » resterait ouvert, mais se limiterait à un nombre réduit d’actions.

 

L’interface de Netflix est l’un des exemples les plus frappants de l’impact du design sur les actions individuelles. En effet, l’abonné n’a que deux possibilités de navigation, horizontale et verticale. Dans le premier cas, 6 choix lui sont proposés, dans le second, 40 catégories. Il peut éventuellement rechercher un contenu, mais le catalogue est très large et les possibilités de filtrage inexistantes. Les films qui lui sont suggérés deviennent rapidement la seule possibilité qu’a l’individu dans sa recherche de contenu. Notons qu’il choisira plus volontiers les films se situant dans la catégorie la plus en haut et non ceux demandant de scroller plusieurs secondes. Dans cette situation, le design a un impact direct sur la consommation culturelle des individus.

www.medium.com/netflix-techblog/

 

Vers une éthique du design ?

 

Ces différents constats ont poussé plusieurs chercheurs à s’interroger sur l’impact à long terme de ce type de pratique et à demander l’apparition d’une éthique quant aux designs de nos technologies et sites web/applications. Tristan Harris, dont nous avons parlé plus haut a ainsi créé l’organisation Times Well Spent, qui se définie comme un « mouvement visant à transformer la course à l’attention afin qu’elle s’harmonise avec nos meilleurs intérêts ».  Elle prodigue ainsi de nombreux conseils permettant d’établir une relation plus seine aux technologies : tourner son écran en noir et blanc, arrêter les notifications, sur mobile lancer les applications uniquement en les cherchant dans la barre de recherche, etc. En France se tient depuis 2017 l’évènement Ethics by Design, première conférence en France dédiée à la conception numérique durable. Les choses sont donc en train de bouger du côté de la recherche mais les individus seront-ils prêts pour mieux vivre à se séparer des outils les reliant au monde ? Wait and see.

 

– Thomas JAFFEUX.

 

 

Bibliographie :

L’économie de l’attention – Yves CITTON – Éditions La Découverte.

– Michael H. Goldhaber , « Principles of the new economy », 1996.

– www.timewellspent.io

– https://2017.ethicsbydesign.fr

– COCHOY F. La captation des publics entre dispositifs et dispositions, ou le petit chaperon rouge revisité. La captation des publics : ”c’est pour mieux te séduire, mon client”, Presses Universitaires du Mirail, pp.11-68, 2004.

 

 

Le programmatique en télévision, pour bientôt ?

Alors que le SRI vient de dévoiler son bilan annuel de l’e-pub en France pour l’année 2017[1], plusieurs tendances s’affirment. D’abord, la décroissance de la part des investissements publicitaires des médias traditionnels (65,6%) au profit du digital (34,4%) se poursuit. Notamment, l’écart entre télévision (27,2%) et digital continue de se creuser depuis 2016, année charnière, où la publicité numérique dépassait le média roi télévisuel. Autre constat, les achats programmatiques poursuivent leur folle croissance et totalisent 63% des achats display (bannière et vidéo).

Aucune mention cependant de la part des achats TV programmatiques, promettant un achat automatisé et ciblé, annoncé pourtant depuis plusieurs années comme une des plus grandes tendances de la publicité en ligne[2] et comme le prochain bouleversement à venir sur le marché publicitaire qui sauvera la télévision.  Ceci alors même que le programmatique TV pourrait représenter 6% des investissements TV en 2018 aux USA[3] et que le marché mondial représenterait $19,1 Md en 2021[4]. Alors quand est-il en France ? La télévision programmatique (PTV) est-ce pour bientôt ?

 

Le programmatique TV : qu’est-ce que c’est ?

Déjà, la définition du programmatique, désignant l’achat et la vente de publicités via un processus automatisé, est sujette à galvaudisation puisque souvent raccourcie à tort aux seuls achats RTB (Real Time Bidding). La définition de ce qu’est et sera le programmatique TV demeure d’autant plus floue. Flou que l’on doit aussi bien au terme télé, qui ne désigne plus seulement depuis plusieurs années l’unique écran noir du salon, qu’à celui de programmatique. D’une part, les devices et les modes de réception du signal ont évolué entre TV connectée, IPTV, satellite, service OTT ou TNT et le flux s’est délinéarisé. D’autre part, le programmatique pour se qualifier hésite entre adressable TV, targeted TV ou programmatic TV… tachons d’y voir plus clair.

Si la définition du programmatique était une pure transcription du mode d’achat web, alors cela se définirait simplement par l’achat automatisé et informatisé d’inventaires publicitaires télévisuels. Cependant, pour le programmatique TV, l’opportunité ne vient pas réellement de l’automatisation. Quand on compare aux centaines de milliers d’inventaires disponibles sur internet, et pour lesquels l’achat automatisé a été un réel gain opérationnel, les inventaires TV restent, eux, limités.  Avec l’émergence des technologies de PTV, la proposition de valeur vient davantage d’un meilleur ciblage. C’est la fin du GRP (Gross Rating Point) tel qu’il fût pendant des décennies, c’est-à-dire liés aux seules données sociodémographiques (âge + sexe) au profit d’un GRP, dit data, qualifié. En découle les termes d’adressable TV ou targeted TV qui peuvent également tout à fait être commercialisés de manière classique. Avec un meilleur ciblage, c’est aussi la promesse d’une diffusion contrôlée et d’un meilleur ROI. Quand la télévision, désignée longtemps comme le « media de masse », s’adresse à une audience, le PTV ne cible plus que certains foyers. Inutile pour un annonceur de diffuser sa publicité de couches pour bébés à l’ensemble des téléspectateurs, incluant retraités, célibataires ou encore les foyers où les enfants ont bien grandi, quand il peut se concentrer uniquement sur les foyers avec enfants en bas âges. A la clef, la promesse de belles économies. Également, celle d’une uniformisation des cibles TV et digitales pour une meilleure connaissance de l’utilisateur et une meilleure optimisation des campagnes qui deviennent réellement multiscreen. LE PTV constitue donc une grosse opportunité pour les annonceurs.

Mais d’où vient cette data ? En France, selon le dernier rapport du SNPTV, plus de 48% des foyers reçoivent la télévision via leur box (IPTV) et près de 56% de la population possède un téléviseur connecté soit une augmentation de 15% en seulement 4 ans[5]. Le fournisseur d’accès à internet possède donc l’ensemble des données de connexion, données restant pour l’instant inexploitées en publicité. Quand on accède à un service OTT (type Netflix, Amazon vidéo…) directement depuis son écran ou casté par le biais d’un appareil, il faut se loguer et entrer ses identifiants. Les données utilisateurs : profil, consommation, géolocalisation sont également collectées. C’est l’ensemble de ces données 1st, 2nd et 3rd party qui seraient mises à disposition du PTV impliquant donc leur collecte, regroupement et synchronisation via les DMP du marché. En conséquence, c’est un élargissement du modèle de la catch-up TV où login et cookie permettent déjà d’adresser une publicité ciblée qui est proposé avec la télévision programmatique. Ceci de manière automatisé et grâce à des délais, sinon en temps réel, bien plus courts.

 

Où en est le marché en France ?

 

Alors que les USA, avec les ¾ du marché, et les pays anglo-saxons concentrent la plupart des investissements en TV programmatique avec plus de 2 Mds € en 2017 (rapport Idate Digiworld[6]), en France le marché n’en est qu’à ses débuts. En cause ? Le décret de 1992 relatif à la publicité et plus particulièrement légiférant le fait que « les messages publicitaires doivent être diffusés simultanément dans l’ensemble de la zone de service » (Art.13). Il est interdit, hormis pour les décrochages régionaux, de diffuser des contenus publicitaires adaptés, ciblés et géolocalisés sur la TNT. Les professionnels du secteur attendent donc patiemment un assouplissement du décret par le CSA. Pour ce qui est des boxs, leur technologie ne permet pas, pour l’instant, d’adresser des signaux différents en fonction des utilisateurs. Quand cela sera possible, le rapport de force entre chaînes et FAI, à l’image de TF1 menaçant de couper sa diffusion sur les boxes des utilisateurs Orange si ce dernier ne concède à mettre la main au portefeuille, sera certainement inversé puisque la data sera dans le camp des fournisseurs d’accès. En attendant, c’est donc la TV programmatique linéaire qui se trouve figée.

Pour ce qui est du non-linéaire, les premières expérimentations sont déjà à l’œuvre. TF1, première chaîne de France, a développé sa technologie d’AdSwitching dès 2015 permettant une publicité ciblée en digital sur mobile, PC et tablette et propose la commercialisation du dispositif en programmatique via sa place de marché One Exchange. Pour, Jean-François Ruhlmann, directeur délégué digital TF1 Publicité : « L’AdSwitching permet à nos annonceurs de cibler ces audiences avec un triple bénéfice : live, contexte engageant et activation data. L’« Adressable TV » est désormais une réalité avec la possibilité d’individualiser les campagnes sur nos audiences live digitales[7] ». Également, France Télévision a lancé sa propre place de marché Francetv Exchange, et s’est dotée d’un SSP pour commercialiser son inventaire vidéo sur PC, mobile et IPTV. Pour passer sur le linéaire, il n’y a qu’un pas.

 

Même si le programmatique TV reste à construire en France avec des normes de diffusions de mesures de l’audience et des métriques communes, il apporte de belles promesses pour le marché TV : ciblage affiné et optimisé, meilleur ROI, campagnes cross-devices… d’autant plus dans un contexte où la publicité digitale est aux prises avec les problématiques de visibilité, brand-safety et de fraude, le programmatique en télévision pourrait alors être une alternative.

 

Bruno Massondo

 

[1] SRI – PWC – UDECAM, Observatoire de l’e-pub – bilan 2017, janvier 2018, France

[2] http://www.journaldunet.com/ebusiness/expert/68315/les-10-tendances-de-la-publicite-en-ligne-en-2018.shtml

[3] OffreMedia, La TV programmatique pourrait représenter 6% des investissements TV en 2018 aux USA d’après emarketer.com, juin 2016

[4] Idate Digiworld, De la TV programmatique à la TV adressable, août 2017

[5] SNPTV, Le guide du SNPTV 2017

[6] Idate Digiworld, De la TV programmatique à la TV adressable, août 2017

[7] Site de TF1pub.fr

Shazam: Le nouveau bijou d’Apple

En 1999 Chris Barton, Philip Inghelbrecht, Avery Whang et Dhiraj Mukhertee fondent l’entreprise britannique Shazam. A l’époque les utilisateurs appelaient le 2580 et faisaient écouter une musique avant d’en recevoir le titre par SMS.  La percée de Shazam se concrétise en 2008 avec son apparition sur l’AppStore. Grâce au développement d’un algorithme de reconnaissance de musique puis d’images elle devient la 5ème application la plus vendue sur la plateforme. Prescripteur sur ce nouveau marché, aujourd’hui, Shazam reste indéniablement un acteur dominant, comptant plus de 100 millions d’utilisateurs actifs par mois en 2015. Téléchargée 1 milliard de fois en 2016, l’application devient même une référence en la matière, à tel point que le mot “shazamer” est entré dans le vocabulaire courant.

  

Shazam : l’étoile la plus brillante d’une constellation hyper concurrentielle…

 

L’arrivée d’internet et la numérisation des contenus musicaux ont profondément bouleversé la manière dont nous écoutons, recherchons et consommons de la musique. Le lancement du premier Ipod de Apple en 2001 ou celui de Napster au début des années 2000, ont réellement marqué un tournant pour les utilisateurs et les acteurs économiques de ce marché. En France, la numérisation du secteur musical a fortement impacté les supports physiques : en 2002, les ventes de CD baissent de 15% en une seule année.

L’application de reconnaissance musicale et d’image Shazam est symptomatique de ce bouleversement. En effet, cette application mobile développée pour un appareil électronique, comme le smartphone ou la tablette, permet aux fans de musique d’identifier une chanson à l’aide d’un logiciel de reconnaissance et d’une base de données répertoriant plus de 30 millions de titres, puis de les rediriger vers des plateformes de téléchargement ou de streaming.

Très vite, d’autres acteurs ont également réalisé la place stratégique qu’occupe la reconnaissance dans l’industrie musicale.  Parmi les concurrents les plus sérieux de Shazam on trouve :

Sonalytic.

Encore inconnu du grand public ce service est un concurrent sérieux de Shazam. En effet, Sonalytic ne possède pas encore d’application mais le 7 mars 2017 ce service a été racheté par Spotify le n°1 du streaming musical. Selon les dirigeants de l’entreprise, les algorithmes utilisés par Sonalytic seraient plus performants que ceux de Shazam et permettraient d’identifier la musique même pendant les changements de tempo ou lorsqu’il y a des bruits de fond ou des filtres. Spotify n’entend pas utiliser la technologie de Sonalytic pour concurrencer directement Shazam. Cette technologie serait intégrée à Spotify et sera utilisée pour améliorer la création des playlists.

Google Sound Search.

Il s’agit du le widget de Googleplay. Une fois de plus la technologie est directement insérée à un service de streaming, le Googleplay. L’avantage principal de l’application Google Sound Search est qu’elle permet de placer directement un widget sur l’écran de verrouillage du smartphone pour ainsi pouvoir identifier la musique plus rapidement.

MusiXmatch.

Cette application est la plus complète du marché. Elle a été sélectionnée parmi les applications de l’année par l’App store en 2013. En plus de reconnaître les musiques cette application permet de se connecter à Apple music ou à Spotify et d’avoir directement les paroles des chansons de manière synchronisée. Le caractère complet de cette application fait de ce service un concurrent sérieux de Shazam bien qu’il ne soit pas affilié directement à un géant du streaming musical.

Soundhound Ltd.

Avec plus de 10 millions d’utilisateurs Soundhound utilise une technologie à même de concurrencer Shazam. En effet, à la différence de Shazam cette application permet également de reconnaitre une musique chantonner par l’utilisateur.

Grand bénéficiaire des effets de réseaux, Shazam reste leader du marché de la reconnaissance musicale.

Plus qu’une marque, Shazam a créé le concept de l’identification musicale. A la manière de l’ubérisation on parle aujourd’hui de “shazamer” une chanson. Il s’agit d’un véritable fait social. Cette position de shazam est extrêmement bénéfique au sein d’une économie de réseau. Plus l’utilisation est connue plus elle va attirer les partenariats avec les producteurs dans une démarche prédictive, plus elle pourra enrichir ses services et sa base de données.


Mais comment Shazam se finance ?

 

Aujourd’hui, Shazam affiche un demi-milliard d’utilisateurs dans le monde, et son utilisation se fait en grande majorité sur les smartphones : en France par exemple, Shazam est présente sur 75% des appareils.  Pourtant, si l’application domine très largement ce marché et a su s’imposer de manière aussi massive auprès des utilisateurs, Shazam est devenue rentable uniquement à partir de 2016 avec un chiffre d’affaires s’élevant à 54 millions de dollars. Dès lors, quel est son modèle économique ?

Les deux sources majeures de revenu pour Shazam sont : les commissions prises sur le référencement des plateformes et la publicité présente sur l’interface.

La source principale de revenu provient des commissions prises sur les référencements des plateformes lorsque l’application a identifié la chanson écoutée par un utilisateur. En effet, Shazam a mis en place des partenariats avec les fournisseurs de musique majeurs comme Itunes, Amazon, Google et Spotify. Dans ce contexte, l’application redirige les utilisateurs vers une de ces plateformes pour que celui-ci puisse ensuite acheter ou télécharger le titre en question. Dès lors, Shazam récupère une commission dont le montant est pré-établi avec son partenaire, sur le prix de vente ou sur le montant de l’abonnement.  Or, Shazam estime que l’application génère, en moyenne, 17 millions de référencements par jour. Parmis ces-derniers, entre 5% et 10% engendrent des achats de musiques, de films, d’émissions de télévision ou d’applications. En effet, si la musique reste en tête de ces achats, la diversification du service de Shazam vers d’autres systèmes de reconnaissances, lui permet d’étendre ses sources de revenus. L’application déclare toucher en moyenne 300 millions de dollars par an, uniquement grâce aux référencements.

Dès 2011, le modèle économique de Shazam intègre de la publicité au sein même de son interface. Ainsi, deux versions sont développées : une version payante à 3,49 euros sans publicité, et une version freemium gratuite avec de la publicité. Aujourd’hui, les revenus de Shazam proviennent en grande partie des investissements publicitaires et l’application a déjà participé à plus de 450 campagnes. En effet, pour lancer une campagne publicitaire sur Shazam, les annonceurs déboursent entre 75 000 dollars et 200 000 dollars. Chaque campagne est alors mise en place pour une durée moyenne de deux mois.

En 2014 le lancement de Shazam Resonate a considérablement augmenté les opportunités publicitaires de l’application : Au-delà de la publicité présente sur l’interface Shazam devient un puissant outil publicitaire. Ainsi, les partenariats publicitaires sont mis en place avec la plateforme en amont pour des évènements spécifiques ou des programmations. La première opération a eu lieu lors des Billboard Music Awards, gérée par Dick Clarck Productions aux Etats-Unis. Lors de cette campagne publicitaire, les spectateurs équipés de l’application Shazam pouvaient voter pour le Billboard Milestone Award présenté par Chevrolet via Shazam. Aussi, l’application re-dirigeait les utilisateurs sur une page de vote sponsorisée par Chevrolet. Dans cet exemple, on observe que ce dispositif permet à Shazam de vendre son espace publicitaire à des prix plus élevés en valorisant un ciblage de meilleure qualité que celui de la télévision traditionnelle.


Que fait Shazam de toutes ces informations sur nos goûts musicaux ?

 

Bien souvent l’application, par son caractère universel, permet de prédire les succès de demain. L’application communique peu sur ces liens avec les maisons de disque mais il est probable qu’ils soient étroits. L’application met également les musiques les plus shazamées, par pays ou par genre, à disposition des marques qui s’acquittent d’un abonnement.


Pourquoi cette acquisition est-elle stratégique pour Apple

 

L’application Shazam a toujours été liée à Apple. Le service existait avant le smartphone, mais l’application a véritablement explosé en 2007 avec le lancement de l’Iphone. En 2014 ces liens entre les deux entreprises avaient déjà été renforcé lorsque Shazam a été intégré à Siri, l’assistant vocal de Apple. L’intensité de ces liens s’est finalement concrétisé par un rachat de l’application par Apple. En effet, le 4 décembre 2017 Apple a confirmé qu’il allait racheter Shazam pour un montant de 400 millions de dollars. Que justifie un tel investissement d’Apple, quelle est la stratégie du géant?

Contrairement à Spotify l’application Apple Music ne brille pas par ses playlists. Avec Shazam, l’application de streaming pourra obtenir “plus de données sur ce que certaines catégories démographiques écoutent” et ainsi faire de meilleures propositions à ses abonnés. Ensuite, l’acquisition de Shazam par Apple sera un élément clefs au développement des objets connectés d’Apple. La technologie pourra être intégrée au AirPods ou même à l’Apple TV renforcant le caractère pervasif des objets à la pomme qui séduisent autant les consommateurs. Enfin, la diversification de Shazam dans la reconnaissance visuelle et ses aspirations en matière de réalité virtuelle ont fini de séduire le géant Apple qui souhaite faire de l’Iphone une véritable interface de réalité virtuelle.

 

Ofra Toubiana

Les annonceurs faces aux plateformes de SVOD

Depuis quelques années les plateformes de SVOD (Suscription Video On Demand) connaissent une croissance sans précédent tant au niveau des abonnés, et donc de leur chiffre d’affaire, que par rapport à leur investissement dans la production audiovisuelle mondiale. Cela se traduit par l’apparition  de nouvelles plateformes et par l’ascension d’acteurs majeurs et dominants sur le marché de la distribution comme Netflix, Amazon Prime ou encore Hulu.

En effet, plus de 64% des foyers américains possèdent un abonnement à une plateforme SVOD et l’on estime que 2.5 millions de personnes sont abonnés à Netflix en France.

 

Le modèle économique de ces plateformes est fondé sur la croissance du nombre de leurs abonnés. Elles tentent donc de proposer des services de plus en plus qualitatifs, avec une offre de contenus variés et des suggestions adaptées à leurs clients.

L’émergence de ce nouveau mode de consommation remet en cause lourdement les rouages traditionnels de cette industrie qui, jusqu’alors, s’appuyait fortement sur la publicité dans ses canaux de revenus. Or, toujours dans l’idée d’offrir un meilleur service à leurs abonnés, les plateformes SVOD ont opté pour un modèle dans lequel la publicité n’a plus sa place. Alors même que l’obsolescence de la publicité à la télévision semble déjà programmée,  comment les annonceurs peuvent-ils s’adapter et utiliser les médias digitaux alors même qu’ils en sont exclus par les plateformes ?

Au-delà de priver les publicitaires d’accéder à leurs abonnés, Netflix ou encore Amazon Prime vidéo sont devenus petit à petit leurs concurrents. Ce n’est pas une concurrence autour d’un même service ou d’un même produit dont nous parlons ici, mais bien une compétition  pour capter  l’attention des personnes. L’attention de chacun, pour une publicité, une vidéo sponsorisée, ou encore un film, n’est pas extensible.   En effet, lorsque les abonnés des plateformes SVOD regardent leur série préférée, c’est autant de temps consacré qui ne profitera pas à la publicité. On estime aujourd’hui aux Etats-Unis, que les abonnés à Netflix sont exposés à 160 heures de publicité en moins à cause de la plateforme.

 

Dans ce contexte peu favorable pour les annonceurs, quelles sont les réponses pouvant être apportées ?

Intégrer de la publicité dans le contenu des plateformes semble être une tendance de plus en plus importante. Aussi, on parle de placement de produit qui s’intègre directement dans les films et séries  que les plateformes diffusent.

Créer des publicités plus innovantes qui réussissent à fédérer les fans d’une série d’une plateforme SVOD et qui crée ensuite un certain buzzs sur la toile, voilà le nouveau créneau. Certaines agences se veulent spécialistes de ces nouveaux types de publicités, aussi appelés « Native advertising ». L’agence Darewin par exemple, qui a pour client Netflix, a su faire parler de la série House of Card en faisant twitter Franck Underwood lors de l’utilisation intempestive du 49.3 en France.

 

Les annonceurs devrait donc peut être prendre exemple sur la communication des plateformes SVOD pour gérer leur campagne. En effet, bien que Netflix ou Amazon Prime Vidéo se privent de revenus financiers conséquents (estimés pour la première à près de 2.2 milliards de dollars par an) en refusant d’intégrer de la publicité à leurs plateformes, ils ne changeront surement pas d’avis et maintiendront une stratégie d’affaire qui fonctionne très bien. Alors, pourquoi changer une équipe qui gagne ?

 

Thomas Salas

2018, le tournant de l’industrie florissante du live-streaming en Chine?

Traitant des scandales, de l’examen réglementaire et de la hausse des coûts, l’industrie du live-streaming en Chine a atteint un tournant.

La fête pourrait bientôt être finie pour l’industrie en plein essor de la Chine, qui a vu son chiffre d’affaires triplés en année dernière, des dizaines de millions de yuans versés aux meilleurs présentateurs, en devenant insoutenables en raison du déclin du nombre de spectateurs en ligne.

L’explosion de l’industrie 

L’industrie du live-streaming a connu une croissance explosive au cours des deux dernières années, le nombre de plates-formes dépassant 100, tandis que les recettes ont bondi de 1,1 milliard de dollars en 2015 à 3,8 milliards de dollars en 2016, selon iResearch, il a atteint 7.2 milliards de dollars en 2017.

En Chine continentale, où plus de 95% des internautes utilisent des appareils mobiles, la diffusion en direct, comme les réseaux sociaux, est perçue comme un moyen d’interagir avec des personnes qui partagent les mêmes intérêts et de se divertir sans payer. Mais les autorités sont de plus en plus préoccupées par le type de contenu produit dans cette nouvelle industrie où les salariés les plus riches peuvent gagner jusqu’à  7 millions de dollars par an.

Les données de la société de capital-risque américaine KPCB montrent qu’en Chine, les revenus horaires générés par la diffusion en direct, qui inclut la publicité et les téléchargements payants, battent d’autres médias tels que les jeux en ligne, la télévision et la musique.

Les signes dangereux

Mais il y a des signes que l’intérêt des spectateurs est en train de diminuer, ce qui pourrait affecter l’appétit des investisseurs pour le secteur. Les spectateurs actifs mensuels de diffusion en direct avec un élément de divertissement sont en déclin depuis décembre 2016, déclaré par iResearch. Les spectateurs des vidéos en direct via des appareils mobiles sont passés du sommet de 141 millions en novembre à 107 millions en mars de l’année dernière.

Selon Cheetab Lab, l’unité de recherche sur Internet mobile détenue par Cheetah Data, la plupart des plateformes du live-streaming se financent encore par des dons virtuels volontaires des spectateurs, ce qui est risqué car il n’y a pas assez de revenus pour couvrir l’escalade des coûts de la rétention des meilleurs présentateurs.

Une croissance aussi robuste a donné un coup de fouet aux plateformes qui diffusent en direct. YY, cotée au Nasdaq depuis 2012, a vu son chiffre d’affaires en streaming augmenter de plus de 50% à 0.3 milliards de dollars au premier trimestre 2017, alors que le live streaming représente près de 80% du revenu de l’application de rencontres MOMO, qui est également coté sur Nasdaq.

Les problèmes présents

En novembre, un rooftopper chinois de 26 ans est mort en novembre d’une chute fatale en réalisant une vidéo selfie pour un défi de 15 000 dollars, déclenchant des critiques des médias d’Etat sur les dangers du live-streaming.

Plus tôt en décembre, Meipai, le populaire service de vidéo court géré par Meitu, l’application de retouche selfie de Hong Kong, a interdit aux mineurs d’utiliser son service de live-streaming suite à un scandale impliquant des écoliers primaires diffusant de la nudité en ligne.

Selon Li Chun, fondateur et PDG de Gathering Stars, une agence basée à Pékin qui gère plus de 100 streamers axés sur les jeux vidéo, l’industrie n’était pas réglementée jusqu’à cette année.

«Les streamers pourraient très rapidement constituer une base de fans en faisant quelque choses de provocateur. Il y a certainement eu des entreprises qui parient sur un succès rapide qui a permis que cela se produise. “

La professionnalisation des streamers

« Il y a très peu de gens qui peuvent atteindre le sommet », a déclaré Han. « Mais il y en a tellement moins connus. Ils pourraient avoir 100 000 fans ou même moins, comme 20 000. Ces personnes peuvent manquer de ressources pour faire leurs propres vidéos, mais si elles rejoignent une agence, elles peuvent recevoir des conseils sur la présentation et des solutions sur mesure.” Les agents vérifient les caractéristiques des streamers et surveillent leur interaction avec les spectateurs.

Xin Ying, la directrice des opérations chez Xing Media à Beijing, qui conseille aux streamers étudiants dans ses livres, qu’elle aimerait voir le bon contenu des streamers, mais ce n’est pas suffisant. « Ils doivent également démontrer qu’ils sont capables de dialoguer avec les spectateurs.”

Xin et Li ont déclaré que pendant qu’ils fournissaient des analyses de trafic et des données aux streamers dans le cadre de leurs conseils sur ce qui fonctionne et ce qui ne fonctionne pas, ils n’interfèrent pas avec la production de contenu.

Le genre est également important pour les wannabes de streaming en direct. Le jeux vidéo est le genre le plus populaire et aussi le plus lucratif dans un pays qui est le plus grand marché du jeux vidéo dans le monde.

Le player professionnel XiaoZhi, qui diffuse sur Quanmin TV, a reçu 6 millions de dollars l’année dernière, selon les données de University Consulting, une société de recherche. En moyenne, les cinq principaux diffuseurs du jeux vidéos ont chacun fait plus de 3 millions de dollars en direct sur des plateformes telles que Panda TV, dirigée par le groupe Wanda, et Douyu TV fondée en 2013 et soutenu par Tencent.

En plus d’être bien payés par les plates-formes, les principaux gagnants gagnent un revenu supplémentaire à partir de placements de produits et d’assister à des événements promotionnels.

Les plateformes de streaming en direct de la Chine sont similaires en ce qui concerne le contenu. Par exemple, il y a des centaines de présentateurs qui diffusent en direct des jeux à succès tels que League of Legends, Honour of Kings et Battlegrounds de PlayerUnknown.

De plus en plus cher, de moins en moins gagnant …

Par conséquent, les plates-formes comptent sur les présentateurs qui ont des masses de fans pour soutenir et augmenter le nombre de spectateurs, et en fin, leurs coûts d’exploitation ont augmenté. Les principales plateformes du live-streaming telles que YY, qui possède aussi la plateforme de jeux Huya, ont vu leurs coûts d’exploitation augmenter près de 30% à 1,38 milliard de dollars au premier trimestre de cette année.

Cette année, Huya a levé 75 millions de dollars auprès de sa société mère YY et Douyu a reçu des investissements de ses souscripteurs, notamment Tencent et Sequoia Capital.

Il n’y a pas de norme industrielle sur la répartition des revenus entre la plate-forme et le présentateur, bien que dans certains cas, les plates-formes peuvent prendre jusqu’à 80% des chiffres d’affaires. Cependant, les diffuseurs populaires ont plus de pouvoir pour négocier une part plus importante.

Douyu, l’une des meilleures plateformes, a indiqué qu’il avait déjà une source de revenus diversifiée et qu’à l’avenir, il expérimenterait de nouvelles façons de percevoir des revenus.

« Nous cherchons surtout des présentateurs … Nous n’avons pas beaucoup travaillé avec les agences de talents et les managers », a déclaré Douyu dans une réponse écrite. « Mais nous allons travailler avec eux plus souvent.”

« En ce moment, si vous perdez votre meilleur présentateur, les spectateurs disparaîtront. C’est comme regarder la télévision – si on aime rien sur votre chaîne, vous vous éteignez.”

 

Wenpeiyu ZHANG

SFR et l’impasse des droits sportifs

En 2015, séisme dans le paysage des droits audiovisuels sportifs. Canal+, la chaîne de télévision payante historique en matière de diffusion des plus gros événements sportifs perd les droits de diffusion de la Premier League (Championnat d’Angleterre de Football).

Contre toute attente, ce n’est pas son concurrent direct en termes de droits sportifs, BeIn Sports, qui rafle la mise mais un nouveau venu. SFR rachète à l’époque les droits TV de la compétition pour 3 ans. Coup dur, il faudra désormais être abonné à l’opérateur au carré rouge ou bien s’abonner à l’offre OTT (Over The Top – offre exclusivement Internet) pour pouvoir suivre les rencontres anglaises. Depuis, SFR n’en est plus à son coup d’essai et s’était immiscer dans le paysage audiovisuel sportif français avec plus ou moins de réussite. Craint par ses concurrents, en 2017 l’opérateur remporte les droits TV les plus convoités par le monde du sport, la Ligue des Champions et la Ligue Europa, ayant pour effet d’assécher à partir de 2018 les deux plus grandes chaînes sportives en France, qui se partageaient jusque-là la Ligue des Champions.

Ce lot de droits est parti pour un montant record de plus d’1 Milliard d’euros sur 3 ans, frais de production inclus. Le plus gros montant pour des droits sportifs jamais payé en France.

Pourtant, ce qui semblait être une nouvelle histoire d’amour entre l’audiovisuel et un opérateur téléphonique s’assombrit de jour en jour pour SFR-Altice. En effet, Orange avait, il y a quelques années, tenté un rapprochement entre médias et télécom qui s’était soldé par un échec. Aujourd’hui, le constat est amer pour SFR-Altice qui peine à se rendre incontournable pour tous les fans de sports. Les abonnements ne sont pas au rendez-vous, la fuite des abonnés de forfaits téléphoniques, qui auraient pu rester grâce à l’opportunité de se voir ajouter des rencontres sportives, n’est pas non plus colmatée. En outre, les grosses difficultés financières du groupe de Patrick Drahi, plongent les activités audiovisuelles dans la tourmente.

Ainsi, en janvier 2018, Alain Weil, patron des chaînes SFR annonce une restructuration des offres sport, officiellement pour plus de visibilité et aussi pour alléger la dette d’SFR en rassemblant les programmes dans un nouveau bouquet appelé Altice Pay TV.

Cette annonce a eu pour effet de laisser imaginer de nombreux scénarii possibles en ce qui concerne le futur des programmes des chaînes SFR sport. Une seule chose est certaine, SFR-Altice ne peut plus avancer seul, le groupe doit trouver des partenaires et recruter des abonnés par différents moyens, à moins qu’ils n’envisagent carrément l’arrêt de leurs droits sportifs et la revente des droits qu’ils détiennent aux autres chaînes du secteur. Il faut trouver un moyen de rendre rentable ces immenses investissements.

Après cette annonce de restructuration d’Alain Weil autour de la nouvelle structure chargée de monétiser les droits TV du groupe Altice, les autres chaînes sont dans l’attente de recevoir des offres de diffusion de la part du cablo-opérateur. Alors, une partie d’échecs semble entamée depuis ce début d’année 2018 entre les différentes chaînes capables de diffuser les grands événement sportifs en France.

Pour preuve, dans les colonnes du journal L’Equipe, Maxime Saada, Directeur Général du groupe Canal+ déclarait attendre « avec sérénité les propositions de SFR. Nous ne sommes pas dans le besoin aujourd’hui ». Une manière de se placer en tant que nouvel acteur dominant dans ce rapport de force. Ces déclarations ayant pour but de réduire les prix des droits de diffusion qu’ils pourraient récupérer. A l’inverse, le patron des chaînes SFR rappelait, le 18 janvier dernier : « Canal+ est un partenaire stratégique essentiel. Nous distribuons Canal + depuis toujours. C’est la chaîne du football aujourd’hui, aussi celle du cinéma. Bien sûr que nous avons des discussions avec eux ». Le groupe Altice semble clairement aux abois et le rapport de force tourne à son désavantage.

Les contours de cette nouvelle stratégie d’Altice sont encore assez flous mais il semblerait que leur principal besoin est de continuer à détenir leurs droits à travers leurs chaînes tout en utilisant Altice Pay TV comme intermédiaire afin que les chaînes SFR Sport puissent être distribuées par d’autres opérateurs et chaînes.

Enfin, les déboires de la chaîne au carré rouge ont eu pour conséquence de décaler l’appel d’offres de la LFP (Ligue de Football Professionnelle) pour la mise aux enchères des droits de retransmission de la Ligue 1 de football. En effet, il était pressenti que cet appel d’offres pour les saisons 2020-2024 soit lancé dès le printemps 2018, mais n’aura vraisemblablement lieu qu’à partir de la saison prochaine. Le but semble alors de laisser le temps à SFR de sortir la tête de l’eau et lui permettre de prendre part aux enchères. La LFP à tout intérêt à différer le lancement de son appel d’offres afin d’augmenter le nombre de participants et de faire grimper les montants proposés par les chaînes. Le coup fort lancé par SFR lors de l’achat des droits de la Ligue des champions en 2017 pour plus d’1 Milliard d’euros est encore dans toutes les têtes et la LFP entend bien en profiter.

Par ailleurs, la Ligue 1 de Football a pris un nouveau tournant cet été, grâce à de lourds investissements consentis par les clubs et notamment le PSG (Paris Saint-Germain) avec l’achat d’un des joueurs les plus suivis au monde, le brésilien Neymar. A lui seul, il a fait monter l’attrait du championnat et pourrait faire grimper le montant des droits TV de quelques millions d’euros supplémentaires.

Loïc Ferreira

Le DOOH : enfin un vrai média ?

Le 20 décembre 2017, après 18 mois de gestation, l’Alliance pour les chiffres de la presse et des médias (ACPM), certifiait l’affichage numérique publicitaire avec « DOOH Trust ».

Une bonne nouvelle pour ClearChannel, Screenbase, JCDecaux et toutes les régies publicitaires à l’initiative du mouvement.
Quelques temps maintenant que le Digital Out Of Home crève l’écran au Royaume-Uni (où il représente 39% de l’affichage) ou encore aux USA (24% de l’affichage), tous deux loin devant la France (9%).

La certification DOOH Trust serait-elle en passe de changer la donne dans l’Hexagone ?

DOOH : REELLE PLUS-VALUE OU SIMPLE DÉCLINAISON DE L’AFFICHAGE CLASSIQUE?

La rue est un lieu où l’on vit de plus en plus d’expériences, de nombreuses marques telles que Coca-Cola, British Airways ou encore Taco Bell l’ont bien compris. Plus d’une se sert aujourd’hui du Digital Out Of Home afin d’exposer des produits de manière interactive. Par ce procédé elles intègrent l’aspect social média à leurs publicités digitales externes ce qui les rend plus engageantes auprès de leurs consommateurs.

On le sait, capter l’attention est devenu un enjeu central. Les annonceurs se parent de multiples méthodes d’analyse de performance pour n’espérer au fond qu’une seule chose : délivrer à une audience visée le bon message, au moment opportun, à l’endroit idéal.
Le Digital Out Of Home a ce pouvoir de cibler et changer les messages en fonction de l’heure ou de la localisation suivant, par exemple, la fréquentation des lieux.

Reste pour cela un défi de taille : mettre en place des metrics fiables qui permettent de mesurer la performance. Sans quoi le DOOH ne serait qu’une pure déclinaison de l’affichage classique.

DOOH TRUST : VERS UNE LABELLISATION DE L’EFFICACITÉ DES CAMPAGNES

Comme pour le display on-line, les annonceurs et agence achètent des spots publicitaires sur des écrans digitaux et veulent connaitre la réalité de ces diffusions.
Pour Paul Wourlod, directeur général de Screenbase « l’affichage numérique est devenu un média à part entière et plus seulement un canal complémentaire, auquel il ne manquait rien pour devenir un média numérique sinon une certification ».
En décembre 2017 l’ACPM (Alliance pour les chiffres de la presse et des médias) confirma cette hypothèse en certifiant l’affichage numérique avec DOOH Trust. Une mesure symbolique mais pas que.

Concrètement, le contrôle de la diffusion des campagnes se fait via une interface web sécurisée de l’ACPM. Celle-ci collecte les déclarations des agences et les logs bruts des écrans digitaux des régies participantes. Ces données sont ensuite croisées avec les déclarations des agences média, puis restituées sous forme de bilans de campagne mensuels certifiés. Dès leur collecte, les logs sont vérifiés, analysés, agrégés par campagne et par jour, puis contrôlés par les opérateurs de l’ACPM.
« L’ACPM restitue alors, via son interface dédiée, un bilan des campagnes certifiées pour les régies et les agences », souligne Patricia Panzani directrice des opérations au sein de l’ACPM. « «Par la suite, les afficheurs dont l’écart entre performance annoncée et observée sera moindre se verront remettre le label DOOH Trust, « confirmant ainsi la place de l’ACPM comme tiers de confiance dans la relation entre agences média, régies et annonceurs»,  selon Gautier Picquet, président de Publicis Media France et de l’ACPM.

Une mesure globale puisqu’elle concerne toutes les techniques d’affichage digital urbaines et l’affichage numérique indoor en centres commerciaux, en boutiques, dans les aéroports, les gares et les métros.

LA PUBLICITÉ URBAINE EN PASSE DE REGAGNER LA CONFIANCE DES ANNONCEURS…? QUID DE CELLE DES PASSANTS ?

Avec la certification des chiffres par l’ACPM, un tiers de confiance, l’univers de la publicité gagne en clarification et en transparence…pour les annonceurs ! Quid des passants ?

Rassurer les publicitaires et leurs annonceurs ne datent pas d’aujourd’hui. Les « Affiches Myriam » ; triptyque publicitaire dévoilant à trois échéances différentes la nudité d’une femme durant l’été 1981, participaient déjà de cette volonté.
En effet, en synchronisant sur tout son parc de panneaux le même « événement » sur trois jours Avenir, groupe d’affichage français, prouvait aux professionnels sa fiabilité en matière d’affichage.
En 2018 la problématique n’est pas tellement différente : les annonceurs ont toujours besoin de retours quant à la performance de leurs campagnes sans quoi ils se détournent de ces affichages urbains pour d’autres horizons plus « fiables ». Une forme de publiphobie en somme.

Or la certification vient apporter le tracking qui manquait et donner une « dimension scientifique à l’affichage » selon les termes de Raphaël de Andréïs, président de l’Udecam et de Havas Village France.
Ce média est d’autant plus intéressant pour les annonceurs qu’il s’agit d’une alternative à la publicité online ; terrain de jeu des adblockers qui n’en finissent de séduire les internautes.

Avec la certification DOOH Trust, l’ACPM, réconcilie donc « monde » physique et « monde » digital.
Va-t-on vers plus d’acceptation de la publicité pour autant ? Rien n’est joué. Reste aux annonceurs la tâche de faire preuve de créativité pour convaincre de la performance de l’affichage digital urbain. Affaire à suivre.

 

Morgane Daadi

SOURCES :

 

KEY MARKETING TRENDS IN THE E-COMMERCE INDUSTRY

The Criteo S. company announced  the key marketing trends in 2018 in the e-Commerce industry. E-commerce market is growing rapidly: the main asset where retailers and brands get the information about customers and their actions are online and offline. These data help to better understand the motivation of current customers and successfully interact with them.

 

The company has identified 8 key marketing trends in e-Commerce industry in 2018:

 

Voice shopping

Contextual advertisements can offer personalized content and recommendations. People are buying more and more products using such smart speakers as Google Nomail Amazon Echo. In the next two years these technologies will become very popular. Smart speakers will be able to advise the relevant services and products due to the abundance of information about customers and their preferences.

 

Social Commerce

Social networks are gradually becoming a platform for online Commerce. In particular, Facebook introduced the Facebook Marketplace. It was successfully launched in the US, the UK and Australia, and recently the service has expanded itself into further 17 European markets. Amazon launches Amazon Spark, there customers see pictures of different products and are able to instantly place an order. The catch is that social networks protect personal information, so retailers and brands need to find other ways of building relationships with clients.

 

The integration of offline and online sales

A vivid example is the Amazon company, which in August struck a deal to acquire supermarket chain Whole Foods. The company will have access to offline customers and will be able to better understand buying habits and increase the amount of average check. Other retailers also seek opportunities for collaboration with offline platforms to gain access to their internal CRM databases in order to offer more relevant and personalized advertising campaign online. In addition, large retailers will continue to invent more convenient ways to pick up online orders. Overall, the focus will be put on bringing offline customers into the online space.

 

Exchange of information

Such tech giants as Facebook and Amazon safeguard the user data of its customers, refusing any information partnerships with other market players. However, to gain competitive advantage retailers and brands will continue to share with each other information about their customers. 72% of heads of marketing believe that the information the partnership will increase revenue, profit and customer satisfaction.

 

Streamlined product presentation

The advertising departments will look for new ways to present the product, including using the description of the product and its image. The context of grocery photos, big plans in high resolution, images, 360 degree and other tools will become necessary in order to provide online users the best customer experience.

 

The law on protection of personal data

Regulatory act of the European Union, « General provisions on data protection » will come into force on 25 may 2018 and will radically change the methods of collection and use of personal data. Primarily this will affect companies seeking to interact with European customers and analyze their behavior for marketing purposes. Globally the adoption of this bill will help to build a trusting relationship between clients and those companies that advocate for transparency of business.

 

Video

The proportion of time that people spend watching video online continues to rise, forcing advertisers and media companies to increase the use of this format. The video is also a priority and social networking resources such as Facebook, YouTube, Instagram and Snapchat are in continuous search of high-quality content. In 2018, the popularity of video will grow, which will lead to a new round of battle for cooperation with programmatic advertisers and their partners.

 

Partnerships and mergers

Over the past six months several high-profile deals were signed in retail industry such as Amazon and Whole Foods, Amazon and Kohl’s, Walmart and Google Express service. In 2018, retailers will actively seek opportunities for strategic partnerships to remain competitive and to strengthen their expertise, but also to combine online and offline to achieve maximum advantage.

 

Angelika Buzulukova

Amazon to Instagram: Deja vu? The Reality of Retargeting and the Future of Privacy

Amazon to Instagram: Deja vu? The Reality of Retargeting and the Future of Privacy

Now: Have you ever been scrolling through your news feed on Instagram and you found an advertisement that looked eerily familiar? In the spring of 2017, I was taking part in a group project for my marketing class at the University of Richmond in Richmond, Virginia, United States. Our assignment was to come up with a product and develop an original marketing plan. We decided on an electronic door key called “Keyless”. Anyways, while conducting research for our pricing strategy, I searched the prices of similar products on Amazon. Long behold, I was scrolling through my Instagram a few hours later and voila! There was an Amazon advertisement on Instagram for the very product I previously looked up. At first, I was dumbfounded and naive, thinking that this was some crazy coincidence. For a few moments, I thought to myself “what are the chances that the products I looked at on Amazon would be advertised to me on Instagram?” However, I quickly realized that this couldn’t be a coincidence. I concluded that my Instagram and Amazon accounts must be linked in some capacity. This was an “Aha moment” that reminded me of the digital world that we live in, where so much of our personal information is shared between various networks. This scenario was the perfect example of how my information could be used by different sources to profit. The following marketing class, I mentioned this occurrence to my professor who told me that this happens even more often via the Amazon Echo. Moreover, there have been situations in which a product that someone has recently discussed out loud appears on his or her device in the form of an advertisement. This phenomenon is known as “retargeting”, which is when online advertisements are targeted to someone according to the target person’s online activity. Retargeting is not exclusive to Amazon and Instagram as it appears on many other platforms including Facebook. This implies that our devices are not only tracking our every search or click, but also that our devices are listening to what we are saying.


With advancements in online technology comes increased capabilities for many people, especially advertisers. Not only do online advertisers have a whole new way to reach their audience, but they can reach them with products that have been of interest to Instagram users. From Instagram’s perspective, there is a critical advantage and disadvantage of allowing advertisers to retarget to Instagram users. While retargeting could be highly lucrative as advertisers pay Instagram for ad space, it could also carries the risk of making Instagram users uncomfortable. Furthermore, when seeing a recently searched Amazon item in an Instagram advertisement, Instagram users could feel that their privacy has been invaded. As the platform for individuals to share pictures of their life with one another, Instagram has a brand image to maintain. Individuals, who only use Instagram to view pictures posted by their loved ones, could be turned off by precisely retargeted advertisements. These people want to feel safe when they are viewing these pictures and not as if they are being spied on. For Instagram, the question becomes, do the benefits of advertisement dollars outweigh the potential costs of upset users? In order to effectively understand the reasons for retargeting on Instagram, it is essential to look at the numbers provided by Facebook, which acquired Instagram in 2012 for $1billion. According to Facebook, when presented with a product post on the app, 60% of Instagram users see new products while 75% of users take action. Although the 60% figure was in regards to finding new products in advertisements, this could still be seen as retargeting. For example, an individual might have been browsing Nike.com for a specific Nike Lebron James basketball sneaker, but decided to not purchase the product due to its high price. In turn, Nike chooses to retarget a similar, yet more affordable basketball sneaker to the same consumer. Nike pays Instagram to display the advertisement and Nike could profit if the consumer makes the purchase. Additionally, Nike is able to see that their customer pays attention to social media ads and that the customer prefers cheaper purchases.
Instagram provides companies with so much information that could be valuable for effective advertising. If a company has an Instagram page, it could potentially monitor the accounts and topics that its own followers are interested in. For example, Nike might monitor its followers and see that many of them are also following Neymar Jr., the elite soccer player. In turn, Nike could pay Neymar Jr. to appear in a Nike advertisement that will be directly targeted to those mutual followers. Combining this data with retargeting, Neymar could appear in Nike advertisements for a product that those mutual followers displayed interest in online but never purchased.

The near future: If Instagram users feel that their privacy is already being invaded, they might feel even more uncomfortable in the near future. Apple recently introduced the iPhone X, featuring Facial Expression Recognition Software, which is marketed as a security measure. However, it would only make sense that the data provided by this software ultimately becomes a valuable item that Apple could sell to marketing researchers. Furthermore, this software could enable marketing researchers to actually observe user facial expression and therefore analyze how consumers felt when presented with a specific advertisement for a product or service. Specifically, advertisers could purchase the data containing the facial expression of Instagram users when presented with a specific advertisement. This would help companies’ marketing teams determine how consumers truly feel about their products, pricing, promotion, and even place. This would be much more effective than having biased consumers tell you how they feel. For example, if Apple has data showing that a Facebook user smiled when viewing an iPhone X advertisement, Apple knows that the person is interested in the promotion and potentially the product. In turn, Apple could retarget the iPhone X to the same individual by showing the same exact promotion on that user’s Instagram account. All the while, Instagram is paid for the advertisement. Since Facebook owns Instagram, it profits from advertising on both platforms.
The last thing an advertiser wants to do is upset consumers. Although Facial Expression Recognition Software could enable advertisers to better target consumers with material that is more relevant, it could also make consumers extremely uncomfortable. Ultimately, social media platforms like Facebook and Instagram are free because we provide value in our personal data. Therefore, if users become increasingly paranoid about their privacy being jeopardized, social media companies could face an uphill battle. However, it would be very interesting if platforms like Facebook or Instagram estimated the value of each user’s data. In turn, Facebook could introduce an option for users to pay a fee for privacy equal to the value of forgone personal data that could no longer be sold by the company.
Personally, I believe our data has been available to social media platforms and big companies for many years now and that we will only become more exposed. As someone who has nothing to hide and thinks before making a purchase, I do not feel threatened by enhanced methods of retargeting. From my perspective, we get to use these platforms for free and companies are therefore able to profit off of the information that we make available. That seems reasonable. Moreover, both sides benefit as users enjoy these free platforms, which profit off of our tendencies. Ultimately, I think there is a fragile boundary that advertisers must not cross. In other words, there is a fine line between retargeting consumers with the perfect, most relevant products and intrusion of privacy. However, some consumers will feel these two things simultaneously occurring.
Consumers could one day find themselves living in a world where companies are omniscient. On the other hand, it is possible that we are already living in such a world.

Samuel Altman

Télévision et VR : un mariage heureux ?


Dans cette ère de transformation digitale, la télévision cherche sa place. Ses recettes publicitaires stagnent alors que les diffuseurs se multiplient et la génération Y s’en désintéresse. Si la télévision reste encore le média de masse par excellence, que son expertise en matière de production de contenus lui garantit encore sa valeur, la question est : pour combien de temps encore ?

Internet a fait émerger une concurrence protéiforme et donne le sentiment aux jeunes générations que le poste de télévision est devenu un format poussiéreux. Comment rivaliser avec Youtube qui prône les UGC (users generated content) ? Comment donner du sens à la linéarisation des programmes quand le public s’habitue à l’ATAWAD (AnyTime, AnyWhere, AnyDevice), fortement aidée par les OTT ? Comment convaincre le téléspectateur de continuer à regarder un écran au milieu du salon dans un univers multi-devices ? Certains l’affirment haut et fort : la télévision est morte. Je ne le crois pas.

Le secteur télévisuel doit changer, c’est certain. C’est souvent la conséquence de l’apparition d’un nouveau média sur les anciens pour que ces derniers ne disparaissent pas. C’est d’ailleurs ce qu’elle fait. Les grands groupes audiovisuels français développent leur stratégie numérique : catch up TV, transmédia, départements « nouvelles écritures », etc. Or, pour les raisons citées plus haut, l’incursion dans le numérique est difficile et une monétisation de ses contenus encore peu satisfaisante. Pourtant, il y a des motifs d’espoir. Le premier est qu’Internet aura confirmé l’intérêt phénoménal des utilisateurs pour les contenus : la vidéo est partout. Cela tombe bien, c’est le cœur de métier de la télévision. L’autre bonne nouvelle est le développement des technologies et les nouveaux modes de diffusion. Le dernier MIPTV l’aura bien compris et, parmi d’autres choses, la VR a tenu une place importante.

On définit communément la réalité virtuelle comme étant une technologie capable de projeter un individu dans un monde conçu numériquement. Les gamers en ont déjà fait l’expérience et elle semble convaincre. Mais la réalité virtuelle ne sera pas réservée qu’aux jeux vidéo, toutes les industries ont à y gagner, en premier lieu les diffuseurs. Alors, Télévision et VR : mariage heureux à venir ? Si les perspectives sautent aux yeux des parties prenantes, encore faudra-t-il réussir à lever les obstacles d’une technologie… vieille de plus de 20 ans déjà.

 

D’intéressantes perspectives pour les diffuseurs et annonceurs…

L’Internet c’est la transformation des usages. Le public est passé de la passivité à l’interactivité, de la masse à l’individualisation. Aujourd’hui, l’individu a pris une place centrale, pour les marques, pour le marketing. Pourquoi la VR semble-t-elle si intéressante ? Je vais citer Eric Scherer, directeur de la prospective chez France Télévisions, qui résume ainsi les choses : la VR est « un média qui coche toutes les cases de l’époque : interactivité, personnalisation, mobilité, immersion ».

C’est avant tout la promesse de nouveaux contenus : nouvelles formes, nouvelles expériences. La plupart des genres télévisuels semblent adaptés à emprunter ces nouveaux codes. Du côté des programmes de stock (information, divertissements, etc.), une forte interaction devient désormais possible. Les jeux, par exemple, restent une valeur sûre pour les chaînes et ont, de tout temps, cherché à impliquer l’audience dans ceux-ci (appels, votes, questions, etc.). La VR rendrait alors possible une participation en bonne du forme du téléspectateur de chez lui, et non plus restreint à groupe de candidats. Peut-on imaginer un jeu d’envergure national, voir international, avec un nombre de participants conséquents ?

Du côté du stock, on pense en premier lieu à la fiction. La VR aura, tel un jeu vidéo, la capacité de projeter l’individu dans l’histoire, de lui donner un rôle. Certains broadcasters, à l’image de Showcase avec la websérie Halcyon, emprunte déjà ce chemin. Autrement dit, ce serait l’apparition d’une narration innovante qui garantirait un engagement total de la part du « VRspectateur » . En outre, le documentaire est un genre particulièrement friand des expérimentations, avec l’exemple de Arte qui s’est émancipé du petit écran avec le projet The Enemy, au budget conséquent (1,6 millions d’euros), exclusivement conçu pour la réalité virtuelle. Couplé à son expertise en matière de production, la VR est bel et bien une voie crédible pour la télévision et l’exploitation de nouveaux formats éditorialisés.

Aussi La VR n’exclut pas la convivialité. Bien au contraire, le social prendrait là encore une nouvelle dimension : on pourrait partager – vivre – un contenu en temps réel, une histoire en commun, ou même tout simplement regarder un format dans un univers virtuel à plusieurs. Une télévision plus sociable est une aubaine pour les annonceurs. Souvent une « purge d’audience », la coupure publicitaire pourrait trouver ici un nouvel élan et interagir avec l’audience. Là aussi, fin à la passivité, une publicité par exemple « gamifiée » mais surtout personnalisée pourra continuer d’éveiller l’intérêt de l’individu en l’immergeant dans l’univers de la marque.

 

mais de nombreux défis restent à relever

Les perspectives offertes par la VR semblent révolutionnaires. Par ailleurs, selon certains analystes financiers, le marché de la réalité virtuelle est promis à un avenir radieux : il devrait dépasser celui de la télévision d’ici 2025. Cependant, en ce qui concerne le secteur audiovisuel, s’il n’est pas à douter de la plus-value apportée en matière de consommation de contenus, certaines barrières actuelles seront nécessairement à dépasser si la télévision veut voir en la VR un avenir, cela à plusieurs niveaux.

On peut considérer dans un premier temps un facteur psychologique. Souvenez-vous, en 2010, la révolution 3D qui accompagnait les salles de cinéma était aussi promise à nos téléviseurs. Les grands constructeurs, à l’image de Samsung ou bien encore LG, se sont empressés de proposer un gamme de télévision 3D. Une fois l’effet de curiosité passé, cette technologie a vite décliné. Peu y ont adhéré, les diffuseurs en premier lieu. Mais surtout, les téléspectateurs ont tout simplement rechigné à devoir porter un dispositif. C’est contraignant. Or, la VR suppose nécessairement un dispositif pour pouvoir en profiter. Si les hardcore gamers semblent apprécier la VR pour jouer, en sera-t-il de même pour le téléspectateur lambda ? Aujourd’hui les casques sont massifs, encombrants et isolent physiquement. De plus, une immersion intégrale, plus tactile, va imposer davantage d’accessoires qu’un simple casque… L’objectif pour la VR sera de se rendre la moins invasive possible pour ne pas freiner les utilisateurs.

Au niveau marketing aussi : comment réussir à « montrer » cette technologie ? C’est un véritable défi auquel les constructeurs devront répondre. En effet, comment inciter à consommer une technologie que seule son utilisation permettra d’évaluer ? L’immersion offerte par la VR ne peut être retranscrite dans une publicité, aussi bien offline ou online, elle sera donc difficile à vendre.

La conception des contenus est l’autre aspect crucial. Dans l’histoire des médias, une même logique s’est à chaque fois répétée : quand un nouveau médium apparaît, il a tendance à exploiter les contenus des anciens médias dans un premier temps. Par exemple, lorsque la télévision est apparue, elle diffusait au départ des bulletins radiophoniques. Il est donc vital que les formats prévus pour la VR soient pensés pour celle-ci et ne pas se contenter  d’y « pousser » la télévision traditionnelle. De même, le défi narratif est énorme : comment raconter une histoire si l’on ignore par avance le comportement de l’individu (que regardera-t-il ? Ou s’orientera-t-il ? ) : comment le guider dans un environnement 360° ? Si la VR est une opportunité pour tous conteurs (la promesse d’une véritable immersion), encore frauda-t-il en assurer une certaine cohérence.

Enfin, ce sont aussi les conditions de production qui s’en trouveront impactées. Réaliser un programme TV, qu’il soit de flux ou de stock, reviendra de plus en plus à le penser comme un jeu vidéo. De nouveaux métiers seront à considérer pour tourner une fiction ou un divertissement : des développeurs, des ingénieurs, etc. En voit-on aujourd’hui dans les devis des producteurs ? Non bien sûr. Il va falloir s’attendre à une explosion des coûts de production, un investissement qui dépendra du taux d’adoption de cette technologie.

 

Conclusion

La VR est une technologie prometteuse, au cœur de nombreux intérêts aujourd’hui. Si elle semble dépasser le simple effet de mode, son adoption concrète par l’industrie audiovisuelle est loin d’être acquise. Mais les chaînes affichent une volonté certaine de creuser la question, ce qui est déjà un bon signe.

En creux, cela signifie surtout que la télévision, en l’état actuel, a un besoin urgent de se renouveler pour reconquérir un jeune public. La VR est-elle l’ultime solution ? Difficile à affirmer mais les nouvelles technologies doivent être au cœur de la réflexion des chaînes.

 

Benjamin Mollié

 

 

La menace de l’économie digitale : comprendre et appréhender la fraude publicitaire

Dans le nouvel univers digital qui se dessine au sein de nos smartphone, ordinateurs et autres tablettes, une place importante est consacrée à la publicité. En effet, face à cet horizon infini d’espace libre et à la quantité vertigineuse d’aficionados du web, les annonceurs ont vite compris qu’ils pourraient tirer leur épingle du jeu. Mais ils ne sont pas les seuls déterminés à profiter de cette ruée vers l’or. Explication.

Le marché numérique de la publicité permet aux annonceurs et aux éditeurs d’échanger des espaces publicitaires et de l’audience Les acheteurs de médias négocient et achètent des espaces dont l’audience est ciblée, afin de véhiculer leur message marketing auprès de potentiels clients.

L’une des multiples technologies sur laquelle s’appuie la publicité en ligne est l’achat programmatique d’espace publicitaire, une vente aux enchères en ligne et en temps réel. Le terme programmatique recouvre un large éventail de mécanismes qui automatisent l’achat, le placement et l’optimisation de la publicité afin d’augmenter la rentabilité des campagnes publicitaires. L’achat programmatique d’espace est censé garantir à l’acheteur que les impressions de ses campagnes publicitaires seront vues par le bon utilisateur, qui pourra alors potentiellement acheter le produit par la suite.

Pourtant, sur ce marché intrinsèquement global, la fraude publicitaire inquiète de plus en plus les annonceurs, et éditeurs. Qui est-elle, et comment s’infiltre-t-elle dans le système ?
Depuis cette année, la fraude publicitaire est la deuxième activité illégale la plus lucrative au monde après la vente de stupéfiants. Une activité publicitaire frauduleuse consiste à tromper les annonceurs en leur vendant différents types de « faux lots » d’espaces, qui s’avéreront etre complètement inutiles au bon développement de leur campagne marketing.  Les annonceurs sont tenus de payer pour une exposition qui n’a jamais eu lieu ou, si elle l’a fait, elle n’a pas réussi à atteindre le public visé : dans les faits, les annonceurs perdent de l’argent en payant pour des publicités fantômes. De nombreux et différents types de fraude sont recensés à ce jour, trois sont identifiées comme étant les plus répandues.

La fraude d’impression est la pratique frauduleuse par laquelle une campagne publicitaire est artificiellement générée, sans avoir la moindre chance d’etre vue par un humain, et pourtant comptabilisée et indument facturée à l’annonceur.

La fraude par clic survient lorsqu’une personne non-humaine, un script automatisé ou un programme informatique, imite le comportement d’un utilisateur, en cliquant sur des annonces de manière systématique, sans avoir de réel interets donc pour la marque payant la campagne.

La fraude de conversion n’est qu’une variante de la fraude par clic, plus difficile à déceler cependant car le volume de clic ne dépasse jamais la normale. Ainsi, les fraudeurs attirent moins l’attention sur le trafic qu’ils génèrent, ils gagnent donc du temps sur leurs victimes.

A l’origine de ces arnaques, plusieurs facteurs continuent de contribuer à la persistance de ce problème: d’abord, la nature ouverte du marché publicitaire programmatique permet à n’import quel annonceur ou éditeur d’acheter ou de vendre. La barrière à l’entrée de ce marché est faible, ce qui rend le concept certes démocratique mais donc facilement pollué, utilisé à mauvais escient par les fraudeurs. De plus,  les montant des investissements ne cessant d’augmenter, la complexité des moyens de paiement rend difficile le suivi des sommes investies. En outre, les chaînes d’intermédiation s’étendent un peu plus tous les jours car les fournisseurs de services techniques se multiplient. Ainsi, la distance entre les éditeurs et les fournisseurs de contenu ne cesse de croître. Alors, à cause de la taille du marché, de la complexité des structures, des obsessions de résultat de la part des annonceurs et de l’absence de frontières: la fraude publicitaire est devenue une fraude globale à grande échelle.

De toute évidence, la fraude publicitaire menace le monde de la publicité numérique dans son ensemble. Elle se produit à l’échelle mondiale, mêlant différents types d’espace publicitaires à différentes audiences,  différents fraudeurs à différents types de régulateurs opérant dans différents pays.  Elle existe sur un large éventail de sites web, de Facebook à Pornhub. C’est un vrai défi d’estimer le montant des pertes et de retracer la route de ces millions de dollars perdus. Cependant, il est essentiel que nous soyons conscients de cette fraude digitale. Plus nous le serons, plus les vraies annonces seront lucratives pour leur annonceurs légitimes, et moins fort sera l’impact de la fraude publicitaire sur l’économie.
Cette réflexion nous invite à nous demander comment lutter efficacement contre la fraude publicitaire. Les « ad blocking » nous seront-ils profitables ?

 

Noémie Bécache.

 

 

 

 

Mad Men vs. Math Men

New York City: Home of the Mad Men

A Stroll Along Madison Avenue

Welcome to 1960. Elvis Presley just returned from the army, and Vice President Richard Nixon and Senator John F. Kennedy just participated in the first televised presidential debate. The war years are in the past. The world is full of opportunity, consumerism and youth, and is vibrant with influential television and technological innovation.

Among other nicknames, this period marks the “Golden Age of Advertising”. Brought to life on Madison Avenue by powerful marketing executives known as “Mad Men”, the Golden Age was a departure from the past. Creative executives rose to the top, with creative instincts and brand stories driving the heart and soul of the advertising agency. Media executives also came into power, with the help of new tools and machines to efficiently cinch commercial time.

From the 1950s onwards, we have seen advertising truly flourish. In fact, it was during the Golden Age that boutique agencies came together and went public to become the “major advertising conglomerates that exist today” (Steel). From WPP to Publicis and Omnicom, multinational advertising giants took the world by storm.

 

A Look Inside the Advertising Giant

While different in name and personality, the giants came to follow a similar organizational structure. Within all of them, you could find the key departments of account services, account planning, creative, media, and production. The account services team would network with clients, while the account planning team would represent customers through research and insights. The creative team would crank out imaginative concepts and campaigns, while the media team would procure space on television stations and in magazines to bring the campaigns to market. Finally, finance would handle expenses and costs, while production would ensure the feasibility and timeliness of the campaigns. All of these departments would work together like a well-oiled machine, taking lead direction from the creatives, and seeking out support from online development and information technology in later years (Suggett).

The “Golden Age of Advertising”, and its well-oiled machine, went on for many years. In fact, many of the advertising giants continue to rely on the traditional organizational structure. However, all good things must come to an end. With the digital revolution and the rise of Big Data, what was once the “Mad Men Era”, is rapidly transforming into the “Math Men Era”.

 

A Digital Disruption 

The invasion of the “Math Men” has been ongoing since the Dotcom Bubble of 1995 to 2001. Since the turn of the century, technological change has brought about new forms of advertising that leverage data and the digital consumer.

With the help of numbers, codes and bites, a new generation of advertisers are championing online and mobile projects. This new generation of Math Men sees less value in the traditional and expensive media forms of the past. And so, the Golden Age of Advertising has undergone digital disruption, and agencies and clients alike are reconsidering business as usual in order to survive.

 

All Things Data-Driven

The new marketing landscape revolves around data. The Internet of Things (IoT), in which all is connected, enables data collection and analysis on a massive scale. This results in “insights capable of informing every stage of the creative process” (Ng).

Beyond a modern creative process, advertisers face a modern consumer. Digital natives leverage different channels and touchpoints than their predecessors. Rather than televisions and radio stations, they direct their attention to mobile devices and applications. When they do watch episodes and movies, they turn to on-demand entertainment platforms, which allow them to avoid commercials altogether.

The concept of “on-demand” is central to digital natives. Young consumers want what they want, when they want it, and how they want it. Social media further intensifies this desire for immediate gratification. It allows consumers to interact with environments, peers, and brands in real-time and on a continuous basis. Digital natives are content creators and sharers, brand advocates and haters, and much more.

So what does the world of advertising look like in face of data-driven channels, and on-demand consumers? Rather than Mad Men with creative and conceptual skills, the new world relies on Math Men with “hard skills in engineering, computer science, maths, and physics” (Roderick). These Math Men exploit tools and develop algorithms to break down Big Data into digestible insights. As such, they are able to make better-informed and better-tailored marketing decisions for their clients.

What tools enable this data-centrism? In order to reach digital consumers across digital touchpoints, Math Men rely largely on programmatic digital advertising. Programmatic involves advertising exchanges that allow demand-side platforms (DSPs) and sell-side platforms (SSPs) to trade inventory in real-time. This process is known as real-time bidding (RTB). In short, programmatic enables Math Men to automate the buying and selling of media, such that it occurs at a continuous and lightning pace.

However, simply reaching digital consumers does not suffice. Marketers must reach the right consumers with the right messages. Digital natives seek custom messages that cut through online and mobile clutter. Thus, Math Men leverage demographic data to divide target audiences into tiny segments, and then tailor advertisements accordingly. Ultimately, technology enables Math Men to deliver real-time, custom-made marketing materials to modern consumers. Where does this leave Mad Men?

 

A Slow Demise for Mad Men…

Two opposing sentiments seem to exist. Some believe that “times change”, so we cannot be nostalgic about “the good old days” (Stodz). Marketers cannot satisfy the extreme customization and instantaneity of the new era with old ways. For instance, it would be impossible for marketers to craft countless creative variations for all relevant target segments. This practice demands the technology of Dynamic Creative Optimization (DCO), which “use[s] data feeds to generate a large number of creatives on the fly based on algorithms” (Yan). It would also be impossible to amplify campaigns to the same extent as digitals tools, like look-alike modeling in user-targeted advertising (Liu et al.).  Overall, this sentiment emphasizes the marketing variety and reach that stems from digital disruption.

Others feel nostalgia for the Mad Men Era, and feel discomfort towards the data obsession of the Math Men Era. This sentiment cheers for an era of hopes and dreams, rather than speed and efficiency. It fears that young marketers throw instinct aside, and rely solely on data and algorithms.

Up until recently, advertising giant Publicis was a prime example of this sentiment. Over the past decade, management monitored the encroachment of tablets and smartphones, and even acquired digital marketing specialists like Razorfish in 2009, and Sapient in 2015. For the most part, however, the agency clung to its mighty past to avoid the McDonaldization of advertising. Publicis kept its Mad Men and Math Men separate, fearing that “forcing digital operations and traditional agencies to work together would not function” (Kostov).

In the end, an obsolete attitude resulted in the loss of its lucrative McDonald’s account. According to a McDonald’s spokesperson, the fast food chain felt “Publicis’ Leo Burnett unit was not adept enough at using data to quickly produce online ads and target minute slices of its customer base” (Kostov). The sad case of the McDonald’s account loss is evidence that digital transformation and integration is crucial to marketing success. But this does not necessarily signify the death of Mad Men altogether.

 

… Or a Happily Ever After for Mad Men and Math Men?

Beautifully stated in The Uncomfortable Truths About Marketing,

« There needs to be a balance. Data can give you good insight, but there needs to be some magic and art in there too » (Roderick).

One solution, as we have seen with Publicis, is to invest in niche digital specialists. But while it is important to bring on Math Men, it is a useless endeavour unless done properly. Physical and psychological separation between Mad Men and Math Men will prevent the aforementioned beautiful balance.

Cue Project Marcel. In the aftermath of the McDonald’s loss, Publicis announced its solution to bridge the gap between creatives and digitals. Project Marcel is an algorithm project to unite the units of Publicis. Marcel will filter resumes and datasets on its 80,000 employees in order to assemble perfectly compatible teams from around the globe (Kostov). These teams will bring together account managers, copy writers, coders, graphic designers and more in order to fuel collaboration at Publicis.

With the help of artificial intelligence and machine learning, Marcel will hopefully be a platform that transforms business as usual at the advertising giant. But whether Marcel is the answer, or another solution leads the way, there is an obvious need for action if Mad Men are to avoid a Math Men takeover.

 

By Olivia Kostin-Cohen

 

References

Kostov, Nick, and David Gauthier-Villars. “Advertising’s ‘Mad Men’ Bristle at the Digital Revolution.” The Wall Street Journal, Dow Jones & Company, 19 Jan. 2018.

Liu, Haishan, et al. “Audience Expansion for Online Social Network Advertising.” Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining – KDD ’16, 2016

Ng, Alexis. “How Data-Driven Creativity Is Changing Advertising.” The Drum, Carnyx Group Limited, 8 Mar. 2017.

Roderick, Leonie. “The Uncomfortable Truths About Marketing: Agency Siloes, Image Problems and Data Obsession.” Marketing Week, Centaur Media Group, 21 Apr. 2016.

Steel, Emily. “’Mad Men’ and the Era That Changed Advertising.” The New York Times, The New York Times, 3 Apr. 2015.

Stodz, Tim. “We Are Witnessing the Slow Death of the Ad Agency.” Tim Stodz, 22 Dec. 2017.

Suggett, Paul. “The Structure of an Advertising Agency.” The Balance, 22 Mar. 2017.

Yan, Melody. “What Data-Driven Creative Means for The Future Of Advertising.” Thunder Blog, 14 Feb. 2017.

« Si le client veut nous parler, il faut le laisser nous parler » – Jacques-Antoine Granjon

Le site Vente Privée connait depuis 2004 un succès fulgurant et une forte augmentation annuelle de son chiffre d’affaire. En 2016, il atteint les trois milliards d’euros de chiffre d’affaire et les 50 millions de membres. Chaque jour, de nombreuses ventes sont proposées aux clients inscrits sur la plateforme. Les ventes sont remisées de 60% en moyenne sur le prêt-à-porter, la décoration, la nourriture et les spiritueux, le loisir…

Le business model repose sur un concept innovant : proposer à la vente des produits que le site n’a pas encore achetés. La plateforme négocie un stock avec les marques partenaires, les ventes sont ensuite proposées aux membres qui passent leurs achats. Enfin, Vente Privée finalise sa propre commande, la reçoit puis envoie les commandes à ses clients. Les temps de livraison sont plutôt longs mais permettent aux clients d’obtenir de fortes réductions sur des produits de grandes marques. Vente Privée obtient les fonds de financement avant même d’avoir à payer les marques.

De part l’inscription obligatoire pour accéder aux ventes, Vente Privée met en place une plateforme destinée à une communauté de membres. Il se crée donc un modèle de club où seuls les membres peuvent profiter des services du site. L’entreprise joue donc sur ce modèle de club fermé et exclusif aux membres pour créer et fédérer une communauté restreinte de clients. Vente Privée doit trouver un juste milieu entre obtenir le plus de clients possible pour attirer les marques et les pousser à utiliser leurs services tout en gardant un côté exclusif qui constitue la base de son business model. Les clients se sentent privilégiés et plus malins que ceux qui paient leurs produits au prix fort. Auparavant, les membres devaient se faire parrainer pour pouvoir avoir un compte, il est désormais possible à tout le monde de s’inscrire et de profiter des offres en ligne.

Vente Privée est depuis quelques années récompensée par le prix du « service client de l’année » en catégorie « Vente à distance généraliste ». En effet, l’entreprise consacre un investissement massif dans la mise en place de son service clients pour toujours rester en contact avec ses membres et leur apporter la meilleure expérience shopping en ligne possible. Vente privée peut donc jouer sur sa communauté de clients fédérateurs et mettre en place une relation différente des autres marques.

Quelles sont les stratégies digitales mises en place par la marque pour obtenir un service client performant ?

 

 

L’importance du service relation client

Tout d’abord, Vente Privée n’appelle pas ses utilisateurs des clients mais bien des membres. C’est pourquoi il n’existe pas de service client dans ses locaux mais un service de « relation membres ». Le but est de créer une appartenance à une communauté avec un bénéfice commun pour les clients comme pour l’entreprise. Les clients sentent donc que l’entreprise et les autres utilisateurs agissent de la meilleure manière dans l’intérêt du groupe. En appelant ses clients « des membres », les utilisateurs ont moins l’impression d’être dans un système commercial où la marque veut simplement vendre le plus possible mais bien d’être dans un système où l’on veut que tout le monde fasse les meilleurs affaires possibles.

Le service de la relation membre de l’entreprise est un investissement massif dont la marque n’a pas freiné la taille. Il est en grande partie externalisé à Lille, Strasbourg, Orsay, Barcelone ou Dakar à cause de la forte croissance du groupe. Cela leur permet aussi de pouvoir gérer les demandes des clients de toutes nationalités. L’entreprise veut également garder le contrôle sur sa relation client en se dotant également d’une équipe interne de 140 personnes dont 10 formateurs en constants déplacements chez les prestataires pour les conseiller. Les demandes les moins graves sont traitées par les sociétés externes mais les plus importantes sont transférées aux équipes internes.

L’image de marque

Il est primordiale pour la marque de conserver une image fiable et qualitative pour ne pas engendrer de commentaires négatifs. Pour une marque ayant un effet de club, les personnes sont soumises au bouche à oreille, beaucoup veulent donner leur avis sur leurs expériences surtout si elles sont négatives. Si un produit est défaillant, non conforme ou qu’il a été perdu, l’entreprise Vente Privée va se charger de répondre aux demandes, cependant les simples demandes d’informations passeront pas l’agence externe. Même si l’entreprise et les agences ne travaillent donc pas dans les mêmes locaux, toutes les demandes sont centralisées dans le même outil CRM pour que tous les employés puissent accéder aux mêmes informations. L’entreprise gagne ainsi en rapidité, en performance et en qualité de réponse grâce à une uniformisation des évolutions techniques.

 

Un modèle de management basé sur la confiance

De plus, la confiance accordée aux salariées est un aspect très important selon Vente Privée. Chaque employé est libre d’agir et de répondre au client comme il le souhaite. Il n’est pas suivi, n’a pas de rapport sur sa productivité ou autre, cependant les managers peuvent à tout moment regarder l’historique des actions menées (réponses, remboursements, bons d’achat…) pour voir si la confiance accordée est utilisée à bon escient. En cas de mauvais comportement, il n’y a pas de seconde chance possible. Pour travailler dans le service membre, la seule qualité requise est de savoir écrire parfaitement dans la langue dans laquelle il faut travailler. Les employés sont ensuite formés par l’entreprise une fois qu’ils intègrent les équipes.

Un modèle de membre peut être très bénéfique pour une marque puisqu’il permet de créer une communauté de personnes qui veulent obtenir un sentiment d’appartenance dans un système le plus bénéfique possible. Il y a d’ailleurs un service de parrainage où les membres déjà inscrits peuvent suggérer à leurs amis de s’inscrire eux aussi, en échange, ils gagnent des bons d’achat. Cela permet d’obtenir de nouveaux clients tout en renforçant les liens établis avec les anciens. Ils sont motivés à accroître la communauté avec des membres actifs pour pouvoir gagner des avantages. Cependant, un effet inverse peut se produire, si les clients ne sont pas satisfaits, ils peuvent faire passer le mot et cesser d’utiliser le site.

Les KPI

Selon Laurent Tupin, directeur service relations membres de l’entreprise, l’entreprise se base sur un nombre restreint de KPI pour n’utiliser que les plus importants. En effet, les équipes utilisent au quotidien la qualité de service, le service level au niveau du centre d’appel, le délai de réponse, le volume d’appels et d’emails entrants et l’état du backlog. Le plus important pour les équipes est, toujours selon Laurent Tupin, d’utiliser le taux effectif de ré-achat. Cela permet de savoir si un client ayant utilisé le service client achète plus ou moins qu’un client ne l’ayant jamais contacté.

 

Une pleine utilisation des réseaux sociaux et du site internet

De plus, pour faciliter l’utilisation de la plateforme aux clients, Vente Privée dispose d’une partie Foire Aux Questions pour répondre aux demandes les plus fréquentes. Ce système de FAQ est présent sur un grand nombre de sites pour désencombrer les services clients, gagner en rapidité et en efficacité. Cependant, si un client ne trouve pas sa réponse dans les questions, Vente Privée se rend disponible grâce à ses équipes du service relation membres. L’entreprise estime que cette section permet de répondre à environ 50% des demandes, elle reçoit 5 millions de contacts par an ce qui permet aux équipes de n’avoir à en traiter que la moitié. Le but n’est pas d’éviter le contact mais de répondre aux clients qui ne souhaitent pas dialoguer ou dont les requêtes sont simples.

Vente Privée est également présente sur beaucoup de réseaux sociaux : Facebook, Twitter, YouTube… sous le nom de Vente Privée mais aussi de Cécile de Rostand, figure emblématique de l’entreprise. Cécile de Rostand est le personnage fictif inventé par l’équipe marketing pour imager l’équipe responsable des clients. Pendant de nombreuses années, les clients ont reçu des mails de cette personne, elle est aujourd’hui moins mise en avant et seulement disponible sur les réseaux sociaux où les internautes peuvent lui parler. Les FAQ sont d’ailleurs présentes sur Facebook pour augmenter la confiance des utilisateurs qui avant même leurs inscriptions sont rassurés. L’entreprise laisse les messages et publications des utilisateurs aux yeux de tous pour montrer la disponibilité du service client et rassurer les autres membres qui voient qu’ils peuvent compter sur la marque en cas de problème. Le service client est donc disponible sur de nombreux vecteurs pour être accessible au plus grand nombre de membres.

 

Et l’innovation ?

Ces solutions digitales utilisées par Vente Privée sont plutôt classiques. Cependant, la marque, très sensible à l’innovation, essaye de mettre en place d’autres solutions pour gérer sa communauté de membres et la relation qu’elles entretiennent. Jacques-Antoine Granjon soutient plusieurs start-up dans leurs projets en leur proposant de faire partie de promotions au sein d’un accélérateur de Startup à Station F à Paris. Vente Privée s’intéresse aux algorithmes de recommandation, aux chatbots, aux solutions d’optimisation de paiement en ligne…

L’entreprise s’oriente donc vers l’innovation en vue d’améliorer continuellement ses services et non seulement son service client. Cependant, malgré les recherches sur l’innovation menées par la marque, elle préfère pour le moment rester sur des méthodes plus traditionnelles en gardant des services d’e-mail et de téléphonie composés de conseillers bien réels pour garder un contact et un dialogue d’une qualité que les chatbots ou l’IA ne sont pas encore capables d’atteindre. Affaire à suivre donc…

 


« Dans un monde où l’information se diffuse à la vitesse de la fibre, où les réseaux sociaux redonnent voix aux consommateurs, la relation client doit incarner les valeurs de l’entreprise et transformer un consommateur mécontent en un ambassadeur de la marque. Seule une relation client empathique, efficace et personnalisée, peut incarner la marque vente-privee » – Jacques-Antoine Granjon, 2015.


 

 

Laura Dudragne

 

 

 

 

Les formats courts : une nouvelle lubie pour les producteurs de contenus

Les formats courts : une nouvelle lubie pour les producteurs de contenus

 

Investissement dans les formats courts

 

Dans une société dominée par le culte de l’urgence, prendre un moment pour regarder un épisode de 50 minutes est devenu difficile. En effet, si les séries de format 50 minutes comme Game of Throne ou Stranger Things séduisent encore le public, la production de séries de format courts (20-30 minutes maximum) et adaptées aux smartphones/ tablettes, est exploitée et de plus en plus privilégiée.

 

En 2016, le groupe Vivendi annonce la création de Studio +, filiale de Canal + offrant des séries premium de format 10×10’. Parmi les séries phares, T.A.N.K ou encore Crime Time nommées au Luchon festival cette année.

 

 

Lancé un an plus tard par le cofondateur du site de musique en ligne Deezer et par le cofondateur d’Allociné, Blackpills est également un service de vidéo à la demande en streaming qui produit et distribue des contenus de formats courts destinés en priorité aux mobiles.

 

L’émergence de ce nouveau mode de consommation de séries a pour objectif de s’adapter à la génération Z, née avec internet et les réseaux sociaux et donc ultra connectée.

Outre Studio + et Blackpills dont les contenus sont essentiellement de courte durée, de plus grands acteurs commencent à investir dans ce type de format et parmi eux : les redoutables GAFA.

Amazon, le géant du net le plus avancé dans ce secteur avec son offre Amazon Prime Vidéo, cartonne avec deux séries : Transparent et Mozart in the Jungle. Les épisodes de ces séries durent entre 20 et 30 minutes, et le renouvellement de saisons témoigne de l’appétence des abonnés aux formats courts.

 

Apple se lance également dans la production de séries, et coopère actuellement avec Hello Sunshine, la société de production de Reese Witherspoon afin développer une comédie dirigée par Colleen McGuinness (30 Rock et Friend from College), dont les épisodes dureront approximativement une demi-heure.

 

Suivant la tendance, Facebook a annoncé courant 2017 vouloir faire son entrée sur le marché de la Vidéo à la Demande et souhaite privilégier deux types de formats pour sa plateforme « Watch » :

  • Les séries de 10 minutes
  • Les séries de 30 minutes

 

Facebook privilégie la cible des Millennials, à savoir pour les jeunes entre 14 et 35 ans.

Sacred Lies, adaptation d’un conte des frères Grimm est développée par le géant qui travaille en collaboration avec des membre de l’équipe de True Blood (HBO). La série sera composées de 10 épisodes, et chacun aura une durée de 30 minutes.

L’acquisition de Youtube par Google en 2006 témoigne de la volonté de l’entreprise d’investir dans les contenus. Mais plus récemment, Google est allé encore plus loin en annonçant en 2015, le lancement de la plateforme YouTube Red qui a pour objectif d’offrir une meilleure expérience aux internautes qui le souhaitent en fournissant des vidéos sans publicité.

YouTube Red produit aujourd’hui de nombreuses séries originales et qui ont pour particularité de durer au maximum 30 minutes, à l’exception du drame « Step Up : High Water ».

YouTube Red mise donc entièrement sur des contenus à formats courts et vise, à l’instar de Facebook, une cible très jeune située entre 14 et 35 ans. Une dizaine de séries originales de court format sont attendues en 2018.

 

Enfin, considéré comme le « N » de GAFAN, Netflix investit également de plus en plus dans la production de contenus courts. Début 2018, l’entreprise référente en matière de Vidéo à la Demande a lancé deux nouvelles séries avec des épisodes de courte durée, à savoir 25 minutes : The End of a Fucking World et Everything Sucks !

 

L’intérêt pour ce type contenu est également illustré par la restructuration des studios de cinéma témoignant de l’appétence pour ce nouveau format. En effet, les grandes Majors américaines développent des entités au sein de leur structure, entièrement dédiées au digital et a fortiori a des contenus de durée plus courte.

En octobre 2014, la Warner Bros créé Blue Ribbon Content une filiale entièrement consacrée aux contenus digitaux.

Lancée en décembre 2015, Super Deluxe est l’entité digitale de la société Turner Broadcasting system, et produit essentiellement des contenus courts. A l’instar de ces concurrents, la Fox, récemment rachetée par Disney, produit des séries de courts formats avec sa filiale la Fox Digital Studio.

Enfin, notons également que les agences de talent situées à Los Angeles, comme WME ou CAA, incitent leurs talents vers la création de formats courts.

 

Si l’investissement grandissant dans les programmes courts est indéniable, s’agit-il d’une réponse à la demande des spectateurs ou d’un besoin des entreprises ? Probablement un peu des deux.

 

La production de contenus de courte durée est nettement moins cher que la production de séries dont les épisodes durent 50 minutes. Les « mini séries » sont donc perçues comme un moyen de produire des contenus à couts moins importants. Par ailleurs, si les couts de production sont réduits, alors ils peuvent être réinvestis pour produire d’autres contenus et ainsi de suite : la rentabilité est à son maximum. La production devient donc massive, mais reste-t-elle qualitative ? La question reste entière. Les séries de 50 minutes par épisode sont encore celles qui connaissent le plus de succès, probablement car elles permettent une profondeur tant dans les personnages que dans l’histoire qu’une série courte n’offre pas.

 

En outre, la production de contenus n’est pas le cœur de métier des GAFA. Effrayés par l’émergence et l’importance grandissante de Netflix, ceux-ci investissent dans un secteur qui leur est étranger, avec des moyens démesurés (Apple mise environ 1 milliard de dollars sur la production de contenus). S’ils peuvent se permettre de mettre le prix et de s’entourer pour cette nouvelle activité, ils risquent de se retrouver dépasser. Ne s’improvise pas producteur qui veut !

L’appétence pour les formats de courte durée est la conséquence de plusieurs réalités : le culte de l’urgence, une adaptation aux nouveaux supports (smartphones et tablettes), et la rentabilité des programmes courts par rapport aux séries 50 minutes.

 

 

Quand les séries digitales sont adaptées par la télévision

 

Et si la solution n’était pas de mettre ces deux types de format en compétition mais de les rendre complémentaires ?

En effet, en adaptant des séries de court format, ou des Web séries, les chaines ou service de VOD s’assurent d’une base solide de fans, et d’une notoriété préexistante de la série.

C’est la stratégie adoptée notamment par Netflix qui adopte Osmosis, une série française diffusée durant l’été 2015 sur le site d’Arte. Il s’agira de la seconde série française de Netflix. De la même façon, le network américain CBS vient d’annoncer la commande de « I Mom So Hard », un projet basé sur la websérie portant le même nom. La production a été confiée à Rob Thomas (Véronica Mars).

Suivant cette tendance, HBO n’a pas dérogé à cette quasi-règle et a décidé d’adopter Brown Girls, l’histoire d’une amitié entre deux femmes de couleur ayant grandi dans des milieux très différents.

 

De compétition serions-nous en train de passer à collaboration ?

 

Mathilde Potier

 

« Quelles solutions les chaines de Télévision doivent-elles mettre en place pour s’adapter au mieux à la transformation digitale ? »

La télévision un mass média en difficulté ?

Après la transformation digitale des médias traditionnels comme la musique, la presse et le livre, c’est au tour de la télévision de connaître cette évolution.La télévision est un mass média qui bénéficie de la couverture la plus importante parmi les médias traditionnels et digitaux. Pour exemple, TF1, M6 et France 2 touchent chacun plus de 50 millions des français de 4 ans et +, alors que les médias digitaux tels que Facebook et Google ne touchent qu’environ 40 millions de français. La télévision est un Mass média, qui reste donc le média le plus efficace pour atteindre commercialement le public.

 

Cependant, cette audience se raréfie et vieillit. L’âge moyen de l’audience pour la télévision est en moyenne de 51 ans (pour certaine chaîne Arte et France 3 par exemple la moyenne d’âge atteint les 61 ans). En l’espace de 10 ans la moyenne d’âge du public qui regarde la télévision a vieilli d’environ 5 ans. Derrière ce vieillissement de l’audience ce sont les cibles publicitaires qui posent problème car les annonceurs visent principalement la mère de famille CSP+ qui est le décideur au niveau des achats du foyer se raréfie de plus en plus dans l’audience télé.

 

Le vieillissement de l’audience entraine une chute des investissements publicitaires sur la télévision.  Le marché publicitaire représente environ 31 milliards d’euros en 2016 et les annonceurs investissent de moins en moins dans les médias traditionnels au profit des médias digitaux. L’investissement publicitaire dans la presse a connu une baisse de 6,4 % tout comme la radio et l’affichage qui baissent en 2016.

 

Le marché de la publicité digitale a atteint en 2016, 3,5 milliards d’euros.  Ce résultat est en croissance soutenue depuis 2003. Au contraire la télévision est en stagnation et même en légère baisse. Les investissements publicitaires dans la télévision en 2016 sont en recul et ne représentent plus que 28%. La publicité digitale qui représente 30% des investissements publicitaires est donc maintenant le média le plus utilisé par les annonceurs[1].

 

Ainsi la baisse de cet investissement publicitaire pour la télévision fait perdre une source importante de revenu pour les chaines de télévision en France. Cette perte d’argent a directement des conséquences notamment dans les investissements que chaines de télévision doivent faire dans le cinéma.

Les chaines de télévision constituent une part importante des financements du cinéma en France. Le pourcentage d’investissement des chaines dans le cinéma passe ainsi de 35,5% en 2015 à 25,4% en 2016 ce qui est le taux le plus bas depuis 1994[2].

 

Cette baisse de revenu pour les chaines de télévision s’explique par la diminution des revenus publicitaire comme expliqué ci-dessus mais également en raison de l’apparition de nouveaux acteurs digitaux concurrents très puissant.  Ces derniers, qui n’ont pas d’obligations règlementaires d’investissement, ni de contraintes fiscales, ont ainsi une position avantageuse face aux chaines de télévision.

Ces nouveaux acteurs comme Netflix, Amazon Prime Video ou encore Hulu présentent de réels risques à la fois pour la télévision mais également pour le cinéma en France car le sort de ces deux médias sont liés. Si les investissements publicitaires pour la télévision s’essoufflent, ce seront les investissements pour le cinéma Français qui diminueront.

 

Quelles seraient alors les solutions pour les chaines de Télévision ?

 

Les chaines de TV pour éviter cette fuite des investissements publicitaires au profit d’internet pourraient développer ce qui fait office de nouvelle arme : le programmatique pour la télévision linéaire. Le programmatique permettrait ainsi d’adresser sur chaque téléviseur en temps réel des publicités ciblées et en adéquations avec les personnes visées dans chaque foyer et en fonction des données récupérées sur ces derniers. Cela permettra donc à la télévision qui reste le mass média par excellence d’avoir une publicité ciblée pour chacun de ses auditeurs et non plus une publicité en adéquation supposée avec le programme visionné.

 

De plus, les chaines de télévision peuvent également développer davantage leur transition vers le numérique et le tout digital. Il faudrait qu’elles intensifient et continuent de développer leur stratégie et leur positionnement sur internet. Les chaines devraient donc amplifier la qualité et la quantité des programmes disponibles sur leur plateforme (6play, MyTF1, France.TV). La transition des chaines historiques vers l’internet se fait également dans les autres pays du monde et notamment aux USA. Les networks américains ont développé notamment de nouveaux canaux OTT comme CBS All Access et SHOWTIME par CBS national, HBO GO par HBO et Univision Now par Univision.

On comprend donc que les chaines de télévision elles aussi s’adaptent et favorisent de plus en plus leur contenu à travers le WEB. Les chaines de TV favorisent également les programmes disponibles en VOD (bien que la publicité non-linéaire se monétise trois moins cher qu’en linaire). Leur transition passe peut-être aussi par le lancement de plateforme SVOD (projet notamment soutenu par Delphine Ernotte) regroupant plusieurs chaines françaises entre elles mais également intra-européennes. L’objectif serait d’avoir une puissance d’investissement et de production suffisamment importante pour exister face aux plateformes venues des Etats-Unis telles que Netflix ou encore Amazon prime vidéo.

 

On remarque également que les chaines de télévision développent de plus en plus d’initiatives sur You tube ou sur les réseaux sociaux comme par exemple Golden Moustache avec M6. Les chaines de télévision ont bien compris qu’il était maintenant indispensable d’être présent sur les réseaux sociaux (Arte gère assez bien leur présence notamment sur Facebook et Instagram).

 

Pour lutter également contre le vieillissement de son audience et de la fuite du jeune public vers les acteurs du numérique, les chaines de télévision proposent de plus en plus de contenus en faveur des jeunes comme par exemple la téléréalité comme le fait le groupe TF1. Le groupe France télévision a décidé lui, de faire de France 4 une chaine à destination des jeunes et jeunes adultes. Il faudrait à mon sens, pour lutter contre la fuite de l’audience, miser davantage sur les programmes jeunesses/animations qui sont très consommés et notamment en TVR[3] (télévision de rattrapage) mais également miser sur les programmes de fictions courtes comme les séries et particulièrement les séries feuilleton français[4].

 

Enfin, un autre moyen qui est intéressant pour les chaines de TV est le « shazam for tv ». Cette mise à jour de l’application ne permet pas seulement d’identifier la musique utilisée pendant une émission, mais permet surtout d’avoir du contenu enrichi sur ce programme. Comme par exemple, des anecdotes, des statistiques, le casting, des vidéos inédites ou encore des bons de réductions pour acheter les produits d’une publicité.

On pourrait étendre ce raisonnement également à la publicité en imaginant un système qui permettrait, grâce à l’application shazam, de « shazamer » directement un produit qui passerait à la télévision, permettant ainsi de l’acheter rapidement.

 Quels sont les enjeux futurs pour la télévision ?

Pour terminer, selon une étude Médiamétrie sur l’année TV en 2017[5], les français regardent toujours autant la télévision mais les moyens de consommation de cette dernière changent. Il y aurait ainsi environ 26 millions de français qui regarderaient un programme de télévision sur un autre écran (tablette, smartphone et ordinateur). Selon Médiamétrie, cela représenterait ainsi une augmentation de 3 millions de téléspectateurs supplémentaires. Par conséquent, l’enjeu pour la télévision est de s’adapter aux nouveaux modes de consommation des français.  Mais également de trouver de nouveaux moyens de monnayer cette audience et ainsi réussir à inverser les prévisions pessimistes que les professionnels du secteur lui réservent.

 

Arthur Landault

 

[1] 18ème édition de l’Observatoire de l’e-pub du SRI, réalisé par PwC, en partenariat avec l’UDECAM

[2] Bilan 2016 du CNC

[3]  Le marché de l’animation en 2016 du CNC

[4] Bilan 2016 du CNC

[5] http://www.mediametrie.fr/television/communiques/l-annee-tv-2017.php?id=1819

 

PSG le Mag : retour sur le lancement du dernier-né du club rouge et bleu

Souhaitant capitaliser sur l’arrivée de Neymar, le Paris Saint-Germain a lancé en novembre dernier « PSG le Mag – Au Cœur du Club », un magazine papier haut de gamme qui remplace l’ancienne formule « 100% PSG », destinée à une cible junior et adolescente. Cette initiative vient certes de l’essoufflement du précédent magazine, mais miser sur le transfert le plus coûteux de l’histoire du football (222 M€) est-il suffisant pour faire renaître un magazine, qui plus est à une époque où le print peine à être rentable ? Retour sur la stratégie adoptée par le club rouge et bleu.

 

Une campagne offline en demi teinte 

 

Afin de faire la promotion du magazine, le club s’est, sans surprise, d’abord tourné vers les médias traditionnels. Outil habituel des annonces officielles, un communiqué de presse a été adressé à la base de données de journalistes du club, puis certains d’entre eux, pouvant avoir une influence complémentaire, ont été contactés directement : L’Equipe, Le Parisien, Paris Match, Gala etc. L’édition n’étant pas le coeur de métier du PSG, le club a établi un partenariat avec MédiaKiosk (filiale de JC Decaux spécialisée dans l’implantation et la gestion des kiosques de presse) afin de relayer le magazine efficacement sur tout le territoire, en privilégiant tout de même l’Ile-de-France.

 

Néanmoins, on peut regretter qu’aucune campagne d’affichage n’ait été réalisée sur ces kiosques ni en d’autres lieux de la capitale, ce qui peut laisser penser qu’aucune réelle réflexion sur le budget du magazine n’avait eu lieu en amont. Une campagne d’affichage stratégique dans certaines stations de métro proches du Parc des Princes aurait pu avoir un réel impact positif sur les ventes du magazine.

 

La sortie du magazine a coïncidé avec la réédition française de la biographie de Neymar, ce qui a été une occasion supplémentaire de promouvoir le premier numéro de PSG – Le Mag, qui affichait Neymar en couverture. Un jeu-concours a été organisé dans le magazine (via un formulaire papier à renvoyer) avec la possibilité de gagner cinq autobiographies dédicacées du joueur.

 

Le club a aussi profité de sa filiation avec beIN Sports (actionnaire commun) pour promouvoir le magazine. En effet, plusieurs émissions de la chaîne ont présenté le nouveau produit en direct. Cependant, cette forme de promotion n’a pas pu avoir lieu sur d’autres émissions proposées par d’autres chaînes, comme le Canal Football Club, qui refusent ce genre de pratiques et préfèrent privilégier la neutralité. Enfin, le magazine a su profiter d’un partenariat développé en amont par le Paris Saint-Germain avec France Bleu Paris afin que les journalistes de la station de radio mettent en valeur le magazine.

 

Finalement, la promotion du magazine s’est révélée assez discrète. Peu de moyens ont été mis en oeuvre car, plutôt que de privilégier une promo poussive, le magazine a pris le parti de produire un contenu très qualitatif avec des interviews et des reportages inédits afin de laisser les autres médias s’emparer du contenu et promouvoir, par leur reprise des meilleurs extraits, un contenu qui innove et se démarque.


 

« Il nous est apparu important malgré la toute puissance du digital aujourd’hui, de donner une nouvelle vie à un média print qui tentait à s’essouffler. Au lieu de se lamenter sur la toute puissance du digital qui engloutirait les médias print, en cette année 2017 où le club a franchi le cap des 50 millions de followers, tous réseaux confondus, on a préféré s’appuyer sur cette base de fans très importante pour accroître la notoriété et l’impact du magazine auprès de notre communauté. » Jérôme Touboul, Directeur de la communication sportive du Paris Saint-Germain et rédacteur en chef du magazine


 

Une campagne online maîtrisée

 

Compte tenu de la forte présence du Paris Saint-Germain sur les réseaux sociaux (+ de 52 millions de followers tous réseaux confondus au 31 janvier 2018), il était évident que la campagne de lancement passerait principalement par internet. Un compte Twitter spécifiquement dédié au magazine a été créé (@PSGLeMag) et accompagné par un mot de bienvenue sur le compte Twitter officiel du club, qui compte plus de 6 millions d’abonnés. De courtes vidéos ont aussi été réalisées de façon à nourrir la promotion sur les réseaux sociaux, friands de formats courts et visuels.

 

Le choix de créer un compte twitter spécifique devrait permettre à terme de créer une communauté engagée. C’est la direction que semble prendre ce nouveau compte en retweetant des photos de supporters en possession du mag ou en créant divers quiz et sondages. Après 2 mois, le compte du mag totalise un peu plus de 2 000 followers, un contingent assez faible mais qui prendra certainement de l’ampleur au fur et à mesure des parutions.

 

Aujourd’hui, il est encore difficile de mesurer l’impact des réseaux sociaux mais on ne peut que constater que le magazine a du mal à capter l’audience des fans du PSG. Néanmoins, ce n’est pas un pari impossible. Le club anglais d’Arsenal a lancé un compte twitter autour de son magazine « The Arsenal Magazine » et fédère une communauté de plus de 100 000 followers, mais après plusieurs années d’activité.

 

Certains joueurs titulaires du PSG ont aussi participé à la campagne de lancement du magazine en relayant la sortie du nouveau-né. Le hic : seuls les deux joueurs ayant fait la une du magazine (Neymar et Cavani) ont partagé l’information lorsqu’ils étaient directement concernés. La position silencieuse des autres joueurs est difficilement compréhensible car leur notoriété sur les réseaux sociaux aurait permis de faire de la promotion gratuitement auprès d’une cible phare pour le magazine. Serait-ce une question d’orgueil mal placé ?

 

 

Quel avenir pour le magazine ? On peut affirmer, sans se tromper, que la data jouera un rôle prépondérant dans le développement du magazine et surtout dans le ciblage des lecteurs potentiels. Le PSG possède une base de données importante, tant grâce à ses différents programmes de memberships qu’à ses réseaux sociaux qui pourra être mise à profit. Une campagne e-mailing, visant directement une base de 500 000 clients potentiels, vient même d’être lancée fin janvier, en complément à la distribution de 30 000 flyers lors des deux derniers matches organisés au Parc des Princes. Le prochain numéro du magazine, prévu fin février et consacré aux supporters, pourrait aussi permettre au club de toucher un peu plus son cœur de cible.

 

Lou-Eve Repussard

What about the garage gig, Facebook and Google?

Clémence Fonville (exchange student fall semester)

 

We have seen throughout the course that the advertising industry is going through some fundamental changes and that the commonly used standards are now open for discussion. Mainly, the invasion of tech firms into the ad industry is causing these changes. The key players in online advertising are not the traditional WPP or Publicis anymore, it is Facebook and Google who are setting the rules of the game. Especially, the recent advertising festival in Cannes has demonstrated the power of these tech firms in the ad industry. But while the power is shifting to tech firms, they are as well under threat. Google and Facebook have been openly criticized by big consumers regarding the measurement of ad effectiveness (Bond, 2017). The problem that they are facing is that these tech firm hold all the power in their hands when it comes to where to publish advertisements and how to measure the performance of these online advertisements. This means that companies pay them to publish their advertisements and at the same time rely on them to track the performance of this publishes. Hence companies are struggling to understand how objective these performance measures are and thus how much to invest to maximize their ROI.

 

It is very ironic that Facebook and Google hold the power of analyzing their own performances of linking a company to a publisher. It is as if a middleman is telling you after you have already paid him for guiding you to a clothing store, that the dress you are trying at that store is the perfect dress for you and that you will not find anything better. This middleman will then advocate that he is the best middleman to contact if you want to find the perfect dress, and no other person is able to judge this performance.  In my opinion, and I am joining that of many companies, the current practices for online advertising are not objective and there is an urgent need for change.

 

This urgent need for change is becoming more and more strongly resented in the industry. Not only because of the questionable objectivity of ad performance tracking but as well of the accusations that these tech firms are at the source of spreading fake news and hate speech. Google has very recently attempted to calm down this resentment by announcing to sharpen their YouTube policy for ad monetization. This is mainly following the bad publicity it recently got with YouTubers who have published questionable content but still were able to monetize the content through ads published alongside their videos (Litman-Navarro, 2018).

 

This action from Google follows another coming from Facebook who has announced January 11th that Facebook’s newsfeed algorithm will be changed. The change will prioritize posts that spark conversations and meaningful interactions between people and will prioritize posts from friends and family over public content (Cohen, 2018).

 

Unluckily for Facebook, this announcement has not generated an overall positive reaction, mainly brands and publishers are considered to become losers. The change in general means that brands will need to redesign their social media strategies to remain part of the conversations. And publishers will have less chances to sell their publishing space. But it does not entirely mean that these two groups will be the losers. The main downside that this change is bringing along is that it will make it much harder to connect with your fans or stand out if you are a small business. Facebook will prioritize brands that you as a user have interacted with in the past and with which your friends are interacting as well (Castillo, 2018). Besides, brands will still be able to be involved in the conversations or advertised along the conversation by paying a certain amount of money. But the prices of these advertisements will go up since the advertising space will diminish. This means that brands who have already much awareness and who have the possibility to pay the higher prices for advertising will continue to stand out. But smaller business will suffer. Before through social media they had a chance of reaching audience and consequently customers with small budgets, but now this seems to be a thing of the past.

 

As well, it seems that Google’s Youtube policy change will have the same consequence. Youtube’s Creator Blog has mentioned the following statistics regarding the policy change: “99 percent of those affected were making less than $100 per year in the last year, with 90 percent earning less than $2.50 in the last month.” This means that very unfortunately with the Google policy change also mainly the smaller YouTube channels (read: small businesses) will suffer, just like Facebook’s new newsfeed algorithm. In the the case of YouTube these small channels are paying the price of a blunder made by a well-known YouTuber who with the policy changes will still be able to monetize its YouTube channel in the future.

 

To summarize, through these changes Facebook and Google have partially reacted upon the critics they have faced publicly. They have shown to be willing to improve the online content shown on their platforms along with how I call it premiumizing the display of advertisements to their users. These changes do not lessen their power within the advertising industry and the problem of advertising performances remain. Facebook and Google will still need to reassure the public of their performance practices. This will mean providing some degree of transparency but unless forced by law to do so they will not be willing to give in their power.  And what can be concluded of today’s policy changes is, the main losers are the least powerful smaller businesses.

 

References

Bond D 2017 https://www.ft.com/content/9a9ac60a-575a-11e7-9fed-c19e2700005f

Castillo M 2018 https://www.cnbc.com/2018/01/16/facebook-news-feed-changes-not-doom-for-publishers-adam-mosseri.html

Cohen D 2018 http://www.adweek.com/digital/the-ad-communitys-reaction-to-facebooks-news-feed-algorithm-change/

Litman-Navarro K 2018, https://www.inverse.com/article/40270-youtube-partner-program-monetization-changes-logan-paul

The Next Stage Of Language Evolution & EMOJI in Business Communication

Emojis and Emoticons are omnipresent in today’s modern generation. In these passing years, these ideograms of modern ages have been widely known as internet shorthand for emotion for everyone ranging from love or heartbreak, sad or tears of joy until flags or even an avocado.

They’re vivacious, light-hearted. Plus, a broad range of emotions can be conveyed so efficiently in a way that even words sometimes can’t.

Emoji — the pictogram prodigy of text-based emoticons

Emoticon — the font-based representation of human faces, like 🙂

 

THE EVOLUTION OF EMOJI

1999 : The first model of modern emojis

Shigetaka Kurita first created the emojis for NTT Docomo’s mobile internet platform presenting a set of 176 pixelated symbols each on 12×12 pixels in dimension which are the ancestors of the later more complicated and ever-increasing set of emoji we use today.

Kurita’s kanji and manga-inspired emojis were openly welcomed by number of Japanese mobile users. Whereas, outside of the country, users started using the ideograms slowly, owing in part to the closed, complex and competitive matrix operated by different mobile phone operators in Japan.

However, companies see the social media taking off in the U.S. as the great opportunity to expand into overseas markets, it was now! — the time for emoji to go global.

2013 : The Publication of Emoji Dick

In the following years of emoji evolution, more emojis supporting gender and racial diversity were added as options. Emoji Dick was published in 2013, an all-emoji translation of Melville’s classic. A thousand of hours are spent by over 800 people working on the creation of this book.

2010 : Global tech giants like Apple, Google include emoji options on their messaging platforms

Apple’s inclusion of an emoji keyboard on the iPhone 5’s operating system in 2011 effectively turned emoji from being a weirdo Japanese thing into a real global communication tool.

2015 : Facebook’s Cooperation and Face with Tears of Joy (😂) as the word of the year

In 2015, Facebook co-opted emoji into shorthand and moreover, Face with Tears of Joy (😂) was crowned “word of the year by the Oxford English Dictionary

Not only is emoji is an expressive form of communication, helping to counter the lack of gestures and tone of voice in the written word, it’s also the fastest growing “language” of all time. Even though it is more popular among young ages, emojis also penetrate into almost every generation with an estimated 92% of internet users taking part.

2017 : Improved Diversity and Gender Representation Emojis

Considering the 2017’s emoji pack, this year’s main themes are inclusivity and diversity, with emoji’s creators aiming to expand the scope of their pictograms to better represent the full range of people using them.

Apart from that, this year’spack finally adds a full range of skin tones to all human emojis. The basic smiley emojis have always been a deep yellow, a kind of race-neutral skin tone reserved mainly for LEGO figures and residents of Springfield, but the more realistic depictions showing jobs or activities haven’t always catered to the full range of skin tones. Thankfully that’s no longer the case with these recent changes.

The latest update also includes improvements on gender representation – when many of these emojis were first launched, they had just one version apiece and predominantly followed gender stereotypes. Men were used to showcase most of the work-based activities while women were mainly seen getting massages and haircuts. With emojis used so frequently by so many – especially young people – they ran the risk of perpetuating these stereotypes. To combat that in a positive way, alternate versions of these characters have gradually been added to show that women can be construction workers and men can be dancers.

Going a step further, the new pack also includes suggestions for a series of gender-neutral emojis without typically masculine or feminine features. This would not only please those who don’t align with the conventional binary genders, but also provide a more neutral set of emojis for all, stripped of the inherent implications and biases of gender. Sometimes you just want to portray somebody waving or shrugging or smiling or running, and it’s not important whether they’re a man or a woman. Perhaps these will form a new ‘base’ emoji going forward, with users switching to a specific gender representation if they feel it’s relevant.

It then arouse a question that — with new, more diverse emojis coming soon, could those cute little smiley faces have a bigger cultural impact than we thought?

EMOJIS IN BUSINESS WORLD : Is it Appropriate to Use Emojis and Emoticons in Business Communication?

One question that has always been in my mind every time i write a business email aiming for a somewhat informal tone, i habitually finish my sentence with :), i typed, i deleted and repeated this for many times.

People usually use emojis and emoticons to express themselves more accurately as emojis and emoticons help to convey tone of the sentence for example, to avoid misunderstandings when making jokes.

SO — in my opinion, the answer is YES in cases or times that you aim to make some impressions. Yet, you need some tips for the professional use of emojis and emoticons.

  1. Use emojis and emoticons to convey your messages’ tones

The most common problem of the written communication is that there is the space left for misinterpretation.

The famous psychologist, Albert Mehrabian claimed that only 7% of our communication is verbal. 38% is vocal (our intonation) and 55% is nonverbal (our body language).

Emojis and Emoticons are here as tools to effectively solve the problem of the lack of nonverbal in written communication. Without emojis, the written communication can suffer from the ‘negativity effect’, which happens when the message is interpreted more negatively than intended.

However, there are some limitations here. Emojis range from dumplings to airbus planes and those are friendly in private communications. Yet, in business communication, you should avoid those and stick with face-like emojis instead.

  1. Avoid the emojis that are higher in risk of being misinterpreted

For the use of emoji in business communication, this means that you would do better to avoid the emoji that are higher in risk of being misinterpreted.

There is still a step beyond, now that some emojis and emoticons are universally positive, yet they are still being used in different expressions. Consider the wink emoji ;), some people agree that it is positive, to signal their friendliness, whereas, some use it as a way to represent their double meaning and irony.

3. Limit the number of Emojis

Packing your messages with emojis will obviously make you look unprofessional. But how many you can afford to throw in there depends primarily on your communication channel.

Emoji in email are fine, but they should be used with modesty for example, only use them at points that a sentence could be misinterpreted, and try to limit it per one email like below 1 emoji per 3 paragraphs.

However, live chat and messaging are much more accepting for emojis and emoticons than in email. That’s probably because of the informal effect of chat and real time communication.

4. Depend on who you are dealing with

In the end, whether the use of emoji is appreciated or not depends mostly on the person you’re interacting with. There are several factors regarding this issue.

      • CULTURE : looking at how asians (for the extreme example, the Japanese) differ from europeans when it comes to the use of emojis. It shows that culture has a huge impact.Moreover, cultural differences between industries and companies probably also play a role. There likely is a difference in emoji acceptance between a PR from advertising agency and an accountant from the government organization.
      • AGE : People mostly believe that it is only the younger generations who use emojis and emoticons. However, in the reality, they are popular in older groups as well.
      • GENDER : Women tend to use more emojis and emoticons than men now that women are more expressive in online as well as in real-life facial emotions.

All in all, to avoid misunderstandings that may occur and to be in the safest place, social mimicry should be used in the sense that — using emojis and emoticons only when your partner does so. When their tone is formal, better to exclude emoji. That also means it’s a good idea to save the use of emoji until after you’ve become more familiar with the person.

The Evolution of Ad Blocking

Before we dive into the evolution of ad blocking, first let’s start with taking a look at what is the ad blocking? According to Wikipedia, the ad blocking or ad filtering is a type of software (or less commonly, a computer hardware device), that can remove or alter advertising content from a webpage, website, or a mobile app. Ad blockers are available for a range of computer platforms, including desktop and laptop computers, tablet computers and smartphones. A variety of methods have been used for blocking advertisements. The benefits of this software are wide-ranging and the use of ad blocking software is increasing. However, many media owners and publishers rely on advertising to fund the free content that they provide to users. Some have taken counter-measures against users who block ads on the sites they visit, for example Forbes.

Now it’s time for the evolution timeline. The starting point of an ad blocking software is surprisingly humble. Henrik Aasted Sorensen originally wrote the source code for Adblock. It was the most popular and widely used extension dated back in 2002. However, where he started was as humble as just a thing he did to distract himself from university work.

« I suppose some people expect Adblock to have been created in a fit of anti-capitalist rage, or as an idealistic effort to return the internet to its less commercial roots, » Sørensen said. « What actually happened is I was supposed to be cramming for an upcoming exam at university [in Copenhagen, where he studied internet technology and computer science.] As a procrastination project, I decided to try out the relatively new possibility of creating extensions for the Phoenix browser — which is the browser that eventually got renamed Firefox. The idea was primarily to try out a new development environment and move a bit out of my development comfort zone.”

At the moment, there was an existing extension to remove ads, however it was only based on an image size. Sørensen then figured out that it would be better and more efficient to filter ads according to their address of the image, because ads tend to be centralized at specific address. The original Adblock just hide the ads from the webpage, it did not actually prevent ads from being downloaded.

Despite of the limited functionality, Sørensen launched the source code to the public and it became an immediate success. « I remember it as a runaway success from day one, which caught me quite by surprise. One thing that stands out as funny in retrospect is how giddy it made me when Adblock got a front page mention on a website that dealt with Mozilla technology. Of course, Adblock has been mentioned in far bigger publications since then, » Sørensen said.

After he finished his studies and began working full-time, Sørensen abandoned his involvement in the project and his excitement in seeing Adblock flourished. The owner of the code had been changed hands to hands for years, until 2006, when Wladimir Palant, the Adblock Plus co-founder, picked up the code and rewrote the code to be assured that the ads were completely blocked from being downloaded at all, not just blocked from view. The original code were modified almost completely, little of the original one remained today.

No matter how successful and profitable the Adblock Plus is, the original creator Sørensen said he has never made any money from his original Adblock code. However, the owner of Adblock Plus, the Germany-based company, Eyeo, earns millions of dollars by doing business with big name companies like Google, Microsoft and Amazon. Eyeo charged those companies with huge fees to get their ads white-listed. Some of the acceptable ads will be appeared to Adblock Plus users. Adblock Plus also calculated and charged 30% of the additional ad revenues they would have made were the ads unblocked to those companies. On the other hand, PageFair estimated that Google will lost $6.6 billion in global revenue to ad blockers in 2016.

Ben Williams, Adblock Plus operations and community manager, has previously told Business Insider that only about 10% of the partner companies actually pay for their ads to be unblocked on the white-list and the fees are depended on the company’s size.  Sørensen comments on Adblock Plus and other ad blockers that runs similar white-listing strategy have “a fine line to walk. « It won’t require much more than a tiny misstep before the endeavor is labeled as simple extortion. Had I still been involved, I would not have chosen that direction, earning money from Adblock never really entered into the equation for me while I was involved. I’m a huge fan of the open source movement and I benefit from it on a daily basis in my work. On the other hand, you could argue that I dropped out of the development, and that anyone who picked up the mantle is allowed to make that decision for themselves, » Sørensen said.

Now that we learned about where did it all started, the yearly timeline of the evolution of ad blocking is here. After the Danish developer, Henrik Aasted Sørensen builded the first widely used ad blocking extension in 2002, the boom in internet pop-ups advertisement declined dratiscally in 2004. The enormous number of ads that popped up in separated windows of the web browser were seen as the most intrusive and most obnoxious features on the internet. Later, major companies, Time Warner’s AOL unit, Google and Yahoo launched software that blocked those annoying pop-up advertisements from opening. And soon the reach of those ads were reduced sharply.

After Wladimir Palant had developed Adblock Plus from the original source code of Sørensen. The Adblock Plus has been the most downloaded and used ad block extension since its creation in 2006. It is an open source project that blocking annoying ads on the web as we know it.

Later in 2009, the use of Adblock Plus increased continually. Wladimir Palant said that the reason behind Adblock Plus was to give control back to internet users by allowing them to be able to choose and block annoying ads by their own choice. He also presented an approach to fair blocking.

Wladimir Palant then launched Adblock Plus as a Chrome Extension in 2010. And the consequences of supporting only one browser has limited the Adblock Plus’ options enormously. As in that moment, Internet Explorer was the dominant browser, however, it did not give a hand enough to the usable extension support. And by creating an ad blocker extension for the Internet Explorer would be very complicated. On the other hand, Google Chrome supported JavaScript-only extensions, which Palant believed that he could more or less reuse his Adblock Plus source code.

Global adblock users reported to be grow 30% from 30 million to 39 million in 2012. This exponential growth rate was demographically clustered in Poland, Greece, Sweden and Denmark, all of them have more than 20% growth rate in ad blocking. Number of Adblock Plus global download reached 77 million in 2013, a 35% growth from last year. According to PageFair, adblock users characteristics were found as typically young, tech-savvy and more likely to be male.

As the same time with the rise of Google Chrome, the Adblock also grow together with the penetration rate nearly doubled to be 70% in June 2014. A report of PageFair said the millennial users drove the adblock usage, 41% of the adblock users was 18-29 years old.

After Apple users complained that the ads tracked them, slowed down web browsers’ speed and were extremely annoying, Apple then enabled ad-blocking apps through its new mobile operating system, iOS 9 in 2015. In less than 48 hours, ad-blocking applications, for example, Peace, Purify and Crystal had been ranked so high in the Apple’s App Store top chart.

The online advertising companies must have been shaking in 2016, when a report from Global Web Index showed that 37% of internet users have blocked online ads on their mobile device over the last month. Moreover, 42% of who have not blocked the ads said that they are definitely interested. This will resulted in more than 80% of blockers, which definitely leave a huge impact on online advertising revenue.

And that was the Evolution of Ad Blockers that we use today, from how it was originated to the one that we installed today. I would like to give more information about the AdBlock Plus (ABP) since it is the most well known and used among ad blockers. It is available for Firefox, Chrome and Opera. Its handy and effective features that contributed to its success are quick set up, loading preset filter lists that allow users to quickly block most of the annoying online ads, along with the option to filter malicious software. Moreover, it offers savvy internet users to be able to choose additional block lists, customized filters, or even whitelist their favorite websites. AdBlock Plus also covers the mobile version with two different offerings for both Android and iOS users. For iOS users, the seamlessly advertisement blocking on Safari is the integration between the AdBlock Plus application and the content blocker system in Apple’s mobile OS. While the AdBlock Browser provides Android users with a Firefox-based Android browser that automatically block any of the advertisings.

 

Vayada Leelasiwaporn

Coup de mou dans le dynamisme de France Télévisions

Coup de mou dans le dynamisme de France Télévisions La télévision publique coincée entre valeurs d’hier et enjeux de demain Chacun le sait, la consommation de télévision aujourd’hui n’est plus ce qu’elle était. Tous les groupes médias sont confrontés à la délinéarisation de la télé. Le constat est simple. La télévision s’efface au profit de la vidéo. Les rendez-vous donnés par les chaînes, aux téléspectateurs sont de moins en moins rentables. Elle apparaît de plus en plus comme un média « has been ». Par ailleurs, on assiste à une explosion de la consommation de contenus à la demande. Ces enjeux, les professionnels les connaissent et ils semblent dépassés par cette mutation. L’arrivée de Delphine Ernotte à la tête du groupe public laissait présager un virage dans la stratégie du groupe, notamment en ce qui concerne le digital et les nouvelles pratiques. L’ancienne numéro deux d’Orange a été nommée à la tête du groupe, pour son projet. A l’heure de la convergence entre les médias et les télécoms, cette nomination s’annonçait comme du pain béni.

Une cadre de l’ancien opérateur public de télécommunications représentait une réelle valeur ajoutée. Orange a mené d’une main de maître son passage dans le secteur privé mais a aussi su se positionner pour ne pas s’écrouler face à l’arrivée sur le marché, de l’entreprise Free. Les temps ont été durs mais cette époque là est révolue et Delphine Ernotte a fait partie avec Stéphane Richard du comité exécutif qui a su réorienter la stratégie d’Orange pour contrer les politiques agressives des nouveaux arrivants sur le marché des télécoms.
Un manque criant d’innovation et de dynamisme Pour le moment, l’image dynamique mise en oeuvre chez l’ex-France Télécom, n’a pas été transposée chez France Télévisions. Certes, Delphine Ernotte est en poste depuis le mois d’août 2015 et il est encore très tôt pour pouvoir faire le bilan de son mandat. Mais lors des dernières conférences de presse du groupe, il ne se dégageait pas l’idée d’une mutation ou d’une évolution. Des petits changements cosmétiques ont été apportés aux grilles des différentes chaînes. Ce n’est pas ce que l’on attend! Nous aimerions que l’on nous propose la télévision de demain. Des programmes innovants, une offre de télévision publique repensée pour les nouveaux usages sur le digital. Or, ce qui a été annoncé c’est une volonté de développer les images de marque des différentes chaînes composant l’entité France Télévisions. S’y ajoutent la volonté de créer des « rendez-vous » avec les téléspectateurs en deuxième partie de soirée et la création d’un « label » France pour les fictions françaises. La révolution n’aura pas lui tout de suite! Il semble que les patrons de chaînes n’aient pas saisi l’enjeu des défis de la télévision de demain. Certes, un « Plan création » a été annoncé à l’horizon 2020 (les chaînes porteront leurs investissements dans la création digitale à 10 millions d’euros par an).

Mais, avoir l’ambition de donner des « rendez-vous » alors qu’aujourd’hui les pratiques pour les contourner se multiplient, semble illusoire. Par ailleurs, si l’on souhaite faire revenir les téléspectateurs et gagner de l’audience il serait intéressant de développer une télévision qui colle plus à l’image des français. Delphine Ernotte a révélé il y a quelques jours qu’elle rêverait d’embaucher Laurence Haïm et Yann Barthès. Les animateurs c’est une bonne chose, mais un concept d’émission et de l’innovation c’est mieux. Les audiences sont en souffrance y compris suite aux aménagements mis en place à la rentrée de septembre. Depuis début janvier, les après-midis de France 2 ont été à nouveau modifiés. Sur le digital, pas de changement depuis quelques temps. Outre une cellule de prospective, extrêmement dynamique et un blog (« meta-media ») très intéressant et novateur, pas de révolution à signaler. Un changement attendu avec la nouvelle plateforme « Pluzz » La nouvelle plateforme « Pluzz » devrait être mise en service à partir du mois de mai 2017. La patronne de France Télévisions l’a annoncé à la mi-janvier. Tout d’abord elle changera de nom. Mais sera aussi repensée dans un format plus adapté à l’époque pour un usage simplifié. Elle permettra de visionner les programmes en replay, la VàD et un service VOD. Ce service est l’une des nouveautés annoncées. A priori, il devrait être mis en service à l’automne prochain. Peu
d’informations ont été dévoilées sur ce projet.

Lors du FIPA, à Biarritz, le patron de la RTBF, JeanPaul Philippot a annoncé une éventuelle participation à l’offre de vidéo à la demande par abonnement. On sait également que la patronne du groupe public négocie actuellement ce projet avec plusieurs producteurs, sur le principe du partage des revenus. Les discussions sont en cours notamment avec Banijay Zodiak, Cyber Group Studios, Lagardère Studio, Makever, Mediaparticipations, Univers Ciné, Newen Studios, Millimages, Xilam et Tétramedia. Le business plan de ce projet stratégique n’a pas encore été approuvé en Conseil d’administration. Le service se retrouvera confronté à des concurrents français et internationaux bien installés Enfin, la grande inconnue, et pas des moindres, vont-ils mettre en place une forme de collecte de data à travers le nouveau « Pluzz »? Delphine Ernotte n’a pas évoqué le sujet. Toutes les télévisions de rattrapage demandent au consommateur un minimum de données pour visionner les contenus. Ce n’est pas le cas de France télévisions. On peut accéder aux services en ne donnant aucune information. Or, on se demande si service public et récupération des données de l’utilisateur sont conciliables. L’avenir et les audiences se jouent sur ces informations. Il s’agirait de rattraper le retard accumulé dans le domaine voire même de trouver un compromis entre le fait d’optimiser les audiences via les données tout en préservant la confiance du public. Tisser et préserver un lien avec le spectateur, aujourd’hui, cela passe notamment par le digital.

Charlotte Tomaka

Clue, le futur de la santé est-il connecté ?

 

La startup berlinoise Clue, dont l’application a été lancée en 2013, a réuni un total de 30,3 millions de dollars lors de ses multiples levées de fonds. L’application mobile met la science et la donnée au service de connaissances personnelles actionnables dans le domaine de la santé féminine.

La cofondatrice Ida Tin est partie du constat que depuis 60 ans, première commercialisation de la pilule contraceptive, aucune innovation majeure n’a eu lieu en la matière. Et si la technologie pouvait entrer en jeu ?

Clue, mais qu’est-ce donc ? Voici des indices !

L’application mobile s’est positionnée comme un traqueur du cycle menstruel et une aide à la contraception et la fertilité. L’application est disponible dans plus de 190 pays, 15 langues et comptabiliserait selon elle 5 millions d’utilisateurs actifs. L’application repose sur trois technologies principales : le machine learning, les big datas et le cloud. Clue devrait proposer à l’avenir du hardware avec notamment l’utilisation de la technologie de réseau de capteurs sans fil.

L’application Clue peut être utilisée avec ou sans création de compte utilisateur :

  • Sans compte (opt out) : les données sont stockées localement sur le mobile de l’utilisateur, certaines fonctionnalités et la récupération des données sont impossibles. Les données ne sont partagées avec aucun tiers.
  • Avec compte (opt in) : les données sont stockées sur les serveurs propriétaires de Clue. Les données personnelles collectées sont anonymisées et sont utilisées pour la recherche par des universités partenaires comme Oxford University ou encore Columbia.

Les applications de suivi du cycle représentent la deuxième catégorie la plus téléchargée après les applications de running dans la catégorie forme et santé de l’App Store. Il existe à ce jour une centaine d’applications mobiles sur cette thématique sur le store français. Quels signaux sont actuellement envoyés sur le marché de la santé connectée et quelles stratégies peuvent y émerger ?

La santé connectée : un marché attractif !

Selon Statista, le marché global de la santé numérique a été évalué à 60 milliards de dollars en 2013 et devrait être multiplié par quatre d’ici 2020, pour atteindre les 233,3 milliards de dollars. Le marché devrait être plus particulièrement tiré par la m-santé, santé connectée grâce au mobile, la santé sans fil (« wireless health ») qui regroupe tous les usages de technologies sans fil au service de la santé et enfin la télémédecine qui désigne l’usage des NTIC pour permettre l’exercice de la médecine à distance. Le segment de marché de la m-santé devrait générer 55,9 milliards de dollars en 2020.

Le culte du « quantified self », déjà une habitude de consommation…

La mesure de soi, « quantified self », n’est pas née avec le numérique. Cependant, le numérique a permis sa généralisation et son partage. Ce terme désigne l’ensemble des méthodes et technologies permettant à l’utilisateur de mesurer ses données personnelles pour mieux se gérer lui-même. Cela peut regrouper la gestion de sa productivité, de son bien-être ou encore de sa santé. L’émergence et le succès d’applications permettant de suivre la santé de ses utilisateurs sont indissociables de l’accélération du phénomène de mesure de soi.

… Malgré une méfiance à l’égard des produits de santé connectée !

Il existe néanmoins un enjeu fort de confiance envers les services et produits du marché la santé numérique. Une étude Statista montre qu’un quart des consommateurs américains entre 35 et 44 ans sont soucieux du fait que leurs données de santé, et plus particulièrement leurs dossiers médicaux, soient stockés dans le cloud. Les générations les plus jeunes sont plus enclines à partager leurs données que leurs ainées.

Quant au partage des données de santé de manière anonyme pour faire avancer la recherche médicale, le clivage entre la génération des 18-24 ans et des 25-34 ans est particulièrement marqué puisque 40% des 18-24 ans y sont favorables tandis que les 25-34 ans sont parmi les générations les moins enclines à partager ces données (28%).

Enfin, la confiance des médecins est primordiale pour apporter de la légitimité aux produits et services de la santé numérique ainsi que favoriser leur développement et leur usage. L’enjeu actuel est de rassurer les médecins sur la manière selon laquelle les données sont traitées puisque la principale préoccupation des médecins en Europe est la mauvaise interprétation des données.

L’importance de se positionner en « good data company »

Face à ses concurrents, Clue affirme être une « Good data company » et être très vigilante quant aux données de ses utilisateurs. Son concurrent Ovia Health espère valoriser ses données auprès des compagnies d’assurance et la réputation de Glow a été dégradée lors de l’été 2016 dans un rapport du site américain Consumer Reports démontrant des failles de sécurité concernant les données des utilisateurs, depuis démenties par Glow.

L’actualité juridique est particulièrement riche dans ce domaine avec l’entrée en vigueur du règlement européen sur la protection des données personnelles en 2018. Clue devra dès lors intégrer toutes les contraintes législatives à venir, en assurant une protection effective des données de ses utilisateurs dès la conception du hardware, en intégrant la notion de privacy by design.

Une stratégie de verrouillage des utilisateurs et de coopétition avec Apple

La stratégie de Clue est une stratégie de verrouillage et de mise en place d’un switching cost psychologique. L’utilisateur peut accéder grâce à l’application à toutes les données qu’il a entrées depuis le début d’utilisation de l’application. Le machine learning permet d’avoir des données dont la pertinence augmente avec l’utilisation de l’application. Si l’utilisateur quitte l’application, il perdra non seulement ses données, mais surtout la fiabilité des prédictions proposées par l’application. Clue ne verrouille pas ses utilisateurs de manière agressive : il est possible d’exporter ses données pour pouvoir les emmener en consultation médicale par exemple. Le verrouillage réside également dans le design de l’application puisque l’utilisateur est habitué à l’interface et en changeant d’application, il sera obligé d’apprendre à utiliser la nouvelle interface, ce qui peut constituer un switching cost psychologique.

L’arrivée d’Apple sur le marché a incité Clue à développer une logique de coopétition avec cet acteur. Plutôt que d’affronter frontalement Apple, Clue a décidé de coopérer avec lui en permettant de synchroniser les données de santé reproductive de Clue avec l’interface Health Kit de Apple. Cependant le passage par l’application Clue propose davantage de catégories que ce qui est pris en charge par le Health Kit, pour favoriser l’usage direct de l’application.

Du software au hardware, les prémisses du modèle d’affaire

Ida Tin, depuis les débuts de Clue, croit dans l’utilisation des capteurs sans fils, en plus des algorithmes et du machine learning, au service de la santé. Clue permet le suivi des données entrées par les utilisateurs eux-mêmes. En complément de l’application, il est déjà possible de se synchroniser avec FitBit, et Health Kit et ainsi, de prédire par la fréquence cardiaque, quand l’utilisatrice est plus fertile. Clue espère grâce à l’utilisation d’objets connectés, favoriser l’émergence d’une alternative aux moyens contraceptifs classiques.

Clue pourrait à terme constituer une alternative aux contraceptifs hormonaux, sous réserve d’études et tests cliniques rigoureux prouvant l’efficacité et la fiabilité de ce nouveau mode de contraception par rapport aux contraceptifs traditionnels. L’enjeu majeur est d’instaurer la confiance auprès des utilisatrices. Les alternatives actuelles restent contraignantes puisqu’elles nécessitent la prise de température basale et un suivi du mucus quotidiennement.

Le modèle d’affaire de Clue repose dès lors sur le hardware et non sur l’application seule. Le service proposé pourrait être à l’achat du support hardware et/ou à l’abonnement au service lié à l’usage du hardware. A date, aucune information descriptive sur l’objet connecté en cours de création n’a été communiquée, le projet restant secret et devant d’après les cofondateurs présenter une « innovation scientifique majeure ».

De l’application mobile au dispositif médical

Selon la directive Européenne 93/42/CEE, on qualifie les accessoires utilisés avec des dispositifs médicaux comme des dispositifs médicaux eux-mêmes. Avec le développement du hardware, il y a requalification de l’application Clue et les règles qui s’y appliqueront seront dès lors plus contraignantes. Clue semble avoir néanmoins déjà pris en compte en partie cet aspect juridique puisque tous les contenus rédigés sur l’application sont suivis d’une bibliographie citant la littérature scientifique ayant permis leur rédaction.

La course à l’innovation est lancée sur le marché de la santé connectée !

Le time to market du produit hardware semble long puisque la startup a été fondée il y a quatre ans. L’innovation technologique, la date de lancement du produit ainsi que les stratégies de pricing, communication et distribution seront déterminantes dans la réussite du modèle d’affaire de Clue. L’enjeu règlementaire viendra complexifier davantage les règles qui s’appliqueront à Clue, plus particulièrement sur le territoire européen. Plusieurs modèles d’affaires sur la m-santé féminine devraient s’affronter et l’avenir nous montrera s’ils pourront cohabiter ou si de gros acteurs comme Apple avec son softwares HealthKit ou encore Google, qui investit dans la recherche et développement de hardwares liés à la santé, capteront l’essentiel du marché.

 

Alice Fauroux

Le marketing digital au service de la politique

Le marketing politique a la particularité d’utiliser les techniques du marketing commercial classique pour promouvoir des idées. Ainsi, il agit sur le produit, en l’occurrence un candidat ou une idée, de manière à favoriser son adéquation avec les consommateurs (l’électorat, le citoyen, l’adhérent), créer la différence avec le produit concurrent, le faire connaitre par le plus grand nombre de consommateurs et avec un minimum de moyen afin d’optimiser les achats (suffrage, soutiens, adhésions). Il existerait donc un marché électoral, caractérisé par une offre, une demande et des marques.

Dès lors, il est possible d’assimiler la communication politique au marketing mix articulé autour des 4P :

Product : candidat – programme – parti

Price : Frais de campagne – nombre de voix

Place : lieux visités par le candidat – lieux de tractage et de promotion du candidat

Promotion : affiches – tracts – meetings – médias

S’il s’apparentait plus à un marketing de communication avant l’explosion du digital, il a pris une toute nouvelle dimension avec l’exploitation des capacités et outils du marketing digital. Comment la politique s’est-elle appropriée les techniques du marketing digital au point qu’elles en deviennent indispensables à la victoire ?

Le branding

Le marketing est le propre des marques, et l’essence de celles-ci, c’est la concurrence, ce qui est également l’essence de la politique dans une société démocratique. Le terme de branding désigne une logique d’action marketing ou publicitaire qui cherche à positionner une marque commerciale dans l’esprit du consommateur. A l’aune de cette définition, on pourrait se demander si les partis et les hommes politiques ne seraient pas devenus des marques comme les autres. Selon Marcel Botton, « les partis et a fortiori les hommes politiques sont des marques » : même besoin de notoriété et d’attractivité, mêmes outils marketing et même combat concurrentiel.

Le personnal branding prend d’ailleurs souvent le pas sur l’image des partis, toujours selon Marcel Botton « Marine Le Pen incarne son parti, tout autant que George Clooney incarne Nespresso »[1]. Très attachée à son image, Marine Le Pen a, par ailleurs, pratiqué le « rebranding » du Front National en donnant naissance au « Mouvement Bleu Marine » lors des élections présidentielles de 2012, exemple d’une adaptation du discours et de l’offre au contexte d’une campagne et aux attentes de nouveaux électeurs potentiels.

Le community management

Le réseau social aux messages en 140 caractères s’est imposé comme l’outil de marketing digital privilégié des personnalités politiques. D’abord utilisé pour créer une relation de proximité avec les internautes, Twitter est devenu le lieu incontournable du buzz. Toutes les marques ont ainsi créé un compte et investis dans des community manager pour tenter de sortir leur épingle du lot dans le flux d’information continu du réseau social. Ils entretiennent ainsi leur image de marque afin de pénétrer le quotidien des internautes, dont la majorité a tendance à voter pour une personnalité plus que pour un programme politique.

Les politiques ont misé sur une présence importante sur Twitter, et il le leur rend bien : le réseau social a bien souvent influé sur le résultat des élections. Récemment, Jean-Frédéric Poisson, pourtant inconnu du grand public, a déchainé la twittosphère et ainsi gagné une notoriété inespérée, les hashtags « poisson » et « clashpoisson » ayant écrasé ceux concernant ses concurrents.

Les applications smartphone

Développer une application smartphone est un élément incontournable pour cibler les fameux « millenials ». Tout comme les annonceurs, les politiques tentent désespérément de séduire les jeunes.  Hillary Clinton l’a bien compris et a lancé une application qui renouvelle la façon de mobiliser les militants. Réalisée par des développeurs de DreamWorks, cette application propose des défis quotidiens à remplir : s’inscrire à la mailing list, reposter une publication d’Hillary Clinton sur les réseaux sociaux ou encore se rendre au siège local du Parti démocrate pour aider à la campagne sur le terrain. Pour chaque mission accomplie, le supporter reçoit des points qu’il peut échanger contre un autographe de la candidate. Cette stratégie semble intelligente dès lors qu’elle rend l’expérience partisane ludique et permet au parti de récolter de nombreuses datas.

 

Le data mining, nouveau levier d’action politique

La qualification ultra-ciblée des bases de données permise par les outils de gestion de communautés citoyennes deviennent des atouts majeurs du marketing politique. Démocratisées par Barack Obama lors de sa campagne de 2008, de nouveaux programmes de gestion/CRM optimisés permettent aux politiques de mieux qualifier leurs bases de données et cibler davantage leurs actions sur le terrain comme sur le web. A l’époque, le candidat américain s’était entouré de jeunes informaticiens venus de Google et Facebook qui avaient mis en place un projet data reposant sur trois piliers :

  1. L’agrégation de données sociodémographiques et nominatives sur une base géographique (données publiques)
  2. Corrélation prédictive des votes en fonction de l’historique des résultats électifs précédents par zone géographiques (données publiques)
  3. Corrélation avec les sondages d’opinions et les études ad hoc réalisés afin de connaitre les thèmes de bascule propres à influencer le vote des électeurs indéterminés en fonction des zones d’habitation.

En France, les candidats à la primaire de la droite, Alain Juppé en tête, ont suivi les traces de l’ancien président américain, et ont fait appel à Nation Builder pour optimiser leur campagne. Cette plateforme permet d’administrer un site, de collecter des contacts et des données et d’organiser des campagnes militantes. L’aspect interactif est essentiel : les équipes d’un candidat sur le terrain l’alimentent avec les informations qu’elles recueillent et le candidat peut envoyer ces équipes faire campagne auprès de publics ultra-ciblés. Il n’y a pas de limite à un outil qui permet maximiser toute information personnelle afin de décrocher un vote, un don ou un coup de main pour une opération de tractage.

Ces nouveaux outils basés sur la data, permettent d’optimiser les dépenses marketing en e-mailing. Tout comme le font les annonceurs commerciaux, l’e-mailing politique pratique le retargeting (notamment à destination des indécis) et l’A/B testing (deux versions de courriels sont envoyées à deux panels de sympathisant et un bilan est réalisé pour savoir laquelle est la plus efficace : ouverture, taux de clics sur la pièce jointe, réponse etc.) 

La stratégie digitale à suivre : le cas Beppe Grillo

Tout commence en 2005 avec la création de son blog. Beppe Grillo caricature et dénonce les classes politiques italiennes, et partage ses coups de gueule. Son blog est l’un des plus lus d’Italie et atteint la 9ème position des blogs les plus populaires au monde. Il mise sur l’international en enrichissant d’une version anglaise et japonaise son blog, dont les visites augmentent au niveau mondial. C’est près de 150 000 et 200 000 visiteurs par jour en Italie.

Celui qu’on surnomme le « messie » utilise les réseaux sociaux et son blog pour créer des rassemblements contestataires dans toute l’Italie. Dès 2007, il parcourt l’Italie avec son « Vaffanculo Day ». Il utilise le portail du réseau social Meet Up pour former des groupes locaux à travers le monde (aujourd’hui 856 groupes, dans 14 pays qui comportent environ 120 000 membres) et créer des leaders d’opinion. Boycottant les plateaux télé, ses différents meetings du « Tsunami Tour » sont retransmis en direct sur son site, ainsi que sur sa chaîne Youtube (La Cosa). Son écosystème digital est prolifique, le relayage des informations sur les différents sites permet de créer un nouveau moyen de répandre ses idées en dehors des médias traditionnels. Il a également développé sa propre application. Aujourd’hui sa page Facebook compte 1,2 millions de fans, 1 044 491 followers sur Twitter et près de 110 millions de vues sur ses vidéos Youtube.

[1] Marcel Botton, « Les hommes politiques sont des marques comme les autres », 2008

 

Noémie Hennig

Data 1st party : Ce que les médias devraient apprendre des GAFA.

Dépasser ses first party data pour mieux vendre de la publicité.

En acquérant CCM Benchmark au mois d’octobre 2015, le Groupe Figaro avait pour objectif de devenir le groupe digital leader en France, en terme de visites d’une part, avec 24 millions de visiteurs uniques mensuels, et de data d’autre part, en diversifiant ses données 1st party. Son alliance avec l’éditeur de sites communautaires lui permet, en effet, de récupérer un autre type de données first party, comme les logs des internautes sur les forums. Une belle promesse publicitaire.

Le groupe, à l’instar des autres médias en presse et en télévision, a pris conscience d’une nécessité nouvelle : la  qualification véritable de son audience. Ainsi, avec le passage du média planning à l’audience planning, et la généralisation des DMP chez les annonceurs, ces derniers sont devenus exigeants. Les médias ont une promesse à tenir : une audience qualitative, et donc qualifiée. Exit les abus des premières heures de la publicité en ligne, pour le moins en apparence ; les éditeurs de contenu jurent avoir réglé les soucis de visibilité, de brand safety, et de fraude.

La combinaison de la data 1st et 3rd party : « connaître les inconnus ».

Internet a permis aux éditeurs de récolter de nouvelles données 1st party, plus précises, grâce aux web analytics : les données nominatives pour les utilisateurs loggés, les données comportementales pour tout visiteur (temps passé sur le site, durées d’écoute ou de lecture, moments de « décrochage » de lecture ou de visionnage, etc), la géolocalisation. Néanmoins, pour pouvoir vendre de la publicité ciblée, cette donnée 1st party de l’éditeur ne suffit plus car, si elle permet d’analyser le trafic et les comportement en ligne des internautes, le pourcentage de personnes loggées en presse écrite ou en radio reste très faible, ce qui ne permet pas de les identifier précisément. C’est notamment la raison pour laquelle les plateformes de catch-up TV de chaînes comme M6 ou TF1 obligent désormais leurs utilisateurs à se créer un compte afin de visionner des contenus.

Il a donc fallu enrichir ces profils avec de la data 3rd party, vendue ou louée par des acteurs tiers. Celle-ci apporte un autre type d’information sur l’internaute anonyme qui arrive sur un site, grâce aux « traces » qu’il a laissé lors de sa navigation, hors du site. Les acteurs de la 3rd party data, tels que Weborama, collectent les données des cookies et des tags, afin de définir des profils d’audience.

La combinaison de la data 1st et 2nd party  – Mieux cibler le consommateur visé par l’annonceur grâce à ses données.

Afin de parfaire le ciblage publicitaire, un autre type de données est injecté dans les plateformes d’achat d’inventaire : la donnée 2nd party, c’est-à-dire les données du partenaire commercial. L’annonceur peut ainsi tenter de cibler précisément, chez le média, les profils de sa base de donnée. Le croisement de la data 2nd party (de l’annonceur) avec la data 1st party (de l’éditeur) permet donc d’améliorer la qualité et la valeur du ciblage publicitaire : ce n’est plus la quantité d’impressions délivrées qui est valorisée, mais la qualité du ciblage du prospect.

D’un point de vue publicitaire, les médias traditionnels s’emploient donc à rattraper leur retard sur la collecte de données en ligne et le ciblage publicitaire. En revanche, ils sont encore loin d’optimiser la valeur de cette data, notamment 1st party, en les mettant au service de leurs contenus.

Traiter ses datas au service du contenu également.

Collecter des données ne suffit pas, c’est leur traitement qui apporte de la valeur à la data. Les données collectées sur l’audience en ligne pourraient permettre aux médias de recréer des marques fortes en optimisant le contenu et le personnalisant pour chaque utilisateur. Utiliser la data à des fins uniquement publicitaires est un palliatif fragile à la baisse des revenus : si l’audience déserte les contenus, c’est également à terme la disparition du « temps de cerveau disponible » si cher aux annonceurs. Or pour l’instant, les DMP semblent avoir du mal à quitter les régies pour rejoindre également les rédactions.

Pour la majorité des éditeurs, les algorithmes de recommandation autour du contenu sont encore loin d’être une réalité à l’exception de Melty, premier groupe médias chez les jeunes. Son business modèle repose ainsi sur « Shape », son algorithme prédictif. Celui-ci permet au média en ligne d’anticiper les sujets qui plairont à l’audience et deviendront viraux. Il influence aussi bien le fond, en s’inspirant des requêtes Google des tranches d’âge concernées et en faisant évoluer l’article en fonction des comportement de lecture, que la forme, en conseillant la sémantique la plus à-même de faire remonter l’article dans les moteurs de recherche.

 C’est pour s’aligner avec Google News ou la recommandation du News Feed de Facebook que les éditeurs traditionnels cherchent, de plus en plus, à créer une page d’accueil évolutive et personnalisée. Le Washington Post, depuis son rachat par Jeff Bezos, utilise ainsi deux nouveaux outils pour renforcer son audience en ligne. D’une part, Bandito lui offre la possibilité de publier un article avec cinq titres, photos et traitements de l’histoire différents, arbitrés par un algorithme en fonction de la combinaison générant un engagement maximal du lecteur. D’autre part, Loxodo lui permet de mesurer son « lead » : la qualité perçue d’un article par rapport à ceux d’autres éditeurs, ou la réaction provoquée par une notification mobile.

En améliorant leur contenu grâce au traitement de la donnée, les « marques» média tels que Le Elle, les Échos ou le Figaro susciteraient une attention plus captive. Ce cercle vertueux autour de la data permet aussi une diversification : opérations spéciales, événements, location ou vente d’emailing à des entreprises partenaires. Néanmoins, l’utilisation de la 1st party data à des fins d’amélioration et de personnalisation des contenus n’est pas encore une réalité pour la majorité des éditeurs dits « traditionnels ». Ceux-ci se limitent encore à une valorisation publicitaire.

Les GAFA et NATU, très en avance sur le traitement des données.

Face à eux, des acteurs tels que Google ou Netflix ont construit leurs business model autour de la donnée 1st party. Ils n’excellent pas seulement dans le traitement de leur data, via des algorithmes auto-apprenant (deep learning et machine learning) et de recommandation qui permettent d’améliorer constamment l’expérience de l’utilisateur, ils ont également pris une longueur d’avance sur la quantité de données stockées. On pourrait presque évoquer un phénomène de « vinification » des datas, dans le sens où, Facebook, comme Google, a segmenté, croisé, fait « macérer » des données comportementales, émotionnelles, transactionnelles, contextuelles depuis dix ans.

Si les médias aujourd’hui, commencent à « profiler » leur base de données, la supériorité des GAFA[1] est donc incontestable en terme d’expérience dans la connaissance de leurs utilisateurs (consumer centric).

La vraie supériorité : avoir une donnée 1st party assez puissante pour se passer de la 3rd.

 Ces nouveaux acteurs ont donc dépassé la nécessité d’acquérir une donnée autre que leur 1st party data grâce à leur expérience son traitement. Des entreprises, telles que Netflix,  dont l’algorithme est devenu la proposition de valeur, peuvent se passer d’intermédiaires de la 3rd party en intégrant leurs outils à leur algorithme propriétaire.

Celui de Netflix développe ainsi de la 1st party data dès son premier contact avec son utilisateur : il se log dès le premier mois d’abonnement (gratuit sur le modèle freemium), ce qui permet à la plateforme d’associer précisément la donnée nominative et comportementale, affinitaire, émotionnelle ou transactionnelle. Si la data ne permet pas de produire des contenus originaux, elle guide les choix de production et leur suggestion au consommateur[2]. L’algorithme de recommandation se base sur les goûts et le profil du client ainsi que sur un système de filtrage à partir de profil similaire (look-alike). Netflix ne faisant que croître, ce modèle éditeur est devenu un best case, au regard de l’importance du traitement de la 1st party data.

En conclusion, la question n’est pas tant de se demander pourquoi aller au delà de la first party mais quelle sera sa nature, qui la possèdera et comment l’utiliser. La vraie bataille sera celle de la data, entre nouveaux détenteurs de la données (GAFA, FAI) et médias, qui en auront besoin tant pour orienter leurs contenus que pour les monétiser. L’importance d’aller au-delà de la 1st party data découle aussi de l’emprise des FAI sur cet actif naturel des médias.

 

[1] Google, Amazon, Facebook, Apple

[2] Pour se faire les programmes sont “taggés” et “séquencés” pour en déduire des dénominateurs communs à partir de facteurs tels que : le rythme de visionnage, le contenu de ces programmes ou le genre notamment.

Claire Manzano

TELEGRAM, le marketing digital de l’ère post-snowden

« When you say I don’t care about the right to privacy because i have nothing to hide, that is no different than saying I don’t care about freedom of speech because i have nothing to say (…) ». Qui citer d’autre, pour définir l’ère post-snowden, qu’Edward Snowden lui même ?

L’on associe traditionnellement la question de la vie privée à celle du secret des correspondances : la tradition se perpétue même si les techniques de correspondance changent pour devenir essentiellement numériques. Ce statu quo est impeccablement illustré par le nom de l’application de messagerie chiffrée qui a inspiré cet article, Telegram, créée en 2013 en Russie.

L’ère post-snowden est significative en ce qu’elle globalise la question de la protection des données  à caractère personnel tant verticalement (dans les relations entre institutions politico-économiques et les individus) qu’horizontalement (dans les relations entre individus ou groupes d’individus). Apparait alors un marché considérablement élargi, à l’instar de la masse des personnes potentiellement concernées par ce désir de protection : Telegram a été téléchargé près de 50 millions de fois en 2016.

Illustrant succès et limites de la dynamique entrepreunariale post-snowden, l’intérêt de Telegram va plus loin puisque l’application a su utiliser cette dynamique pour se reconvertir en social media, modèle plus pérenne.

Garantir la protection des données à caractère personnel : une stratégie marketing initiale efficace mais en perte de vitesse ?

Affaire Snowden, développement exponentiel des techniques de hacking, guerre numérique à échelle mondiale dont les dernières élections américaines sont un exemple évocateur, remise en question des pratiques commerciales de certaines grandes multinationales (…), tout ceci a contribué à distiller une véritable doctrine de la protection des données à caractère personnel qui ouvre un marché prometteur pour tous moyens de communication s’engageant à la garantir. Ce marché est en outre propice à un marketing opaque vue la difficulté pour les utilisateurs, même sensibilisés à l’informatique, de vérifier si les applications qu’ils utilisent sont bel et bien strictement sécurisées. Il s’agira alors de se démarquer de ses concurrents en communicant d’une façon convaincante sur un degré de sécurité prétendument supérieur : Telegram base sa stratégie sur le constat d’échec de ses principaux adversaires, Facebook et WhatsApp, à protéger les données  à caractère personnel qui y transitent. «Unlike other services, when we say we don’t share your data with third parties, we mean it », peut on lire sur le compte twitter de l’application qui, à la différence des autres,  fonctionne grâce à un cloud, ne stockant ainsi (presque) rien sur le téléphone. Opération réussie : début 2014, WhatsApp subit une panne mondiale de plusieurs heures ; le malheur des uns faisant le bonheur des autres, Telegram annonce alors avoir enregistré plusieurs millions de nouvelles inscriptions près de 24 heures après le bug, soit une augmentation de près de 2500%.

La question du financement et donc de l’appartenance boursière est également au coeur de la tactique marketing de Telegram : l’application se revendique auto-financée et indépendante (« Telegram can’t be sold ») tandis que Facebook rachète WhatsApp, en 2014, pour 19 milliards de dollars provoquant instantanément de sérieux questionnements -voire des investigations- sur le partage de données entre les deux entreprises.

Il ne reste plus qu’à décrire Pavel Durov, co-fondateur de la messagerie : créateur en 2006 de Vkontakte, le Facebook russe, menacé par le Kremlin (à qui il a, notamment, refusé l’accès aux profils des manifestants de Maïdan), exilé, ami des hackers …, tout jusqu’à son physique et son nom incarne et crédibilise l’image de Telegram comme arme contre le totalitarisme. Le charme opère puisque 15 milliards de messages sont envoyés chaque jour depuis l’application, et ceci sans le moindre investissement marketing significatif.


Mais cela ne tient que tant que la crédibilité de Telegram, comme messagerie inviolable, perdure. Là réside probablement la limite du marketing digital de l’ère post-snowden. Il faut s’assurer que la technologie utilisée est toujours la plus fiable, alors que les hackers sont de plus en plus performants et innovants. Pavel Durov tente de s’en assurer en offrant de 300 000 dollars à toute personne qui trouverait une faille dans son système. Il n’est pas sûr que cela ait été totalement efficace puisque l’application a été récemment pointée du doigts pour avoir été victime d’un piratage de grande envergure en Iran (15 millions de numéros de téléphone aurait été collectés), information partiellement démenti par Telegram[1]. L’application pourrait également, selon certains, avoir joué un rôle lors des prétendues tentatives des services secrets russes pour compromettre le nouveau président américain (rappelons qu’aucune des ces informations ne sont, actuellement, confirmées ou vérifiables).

De nouvelles applications, réputées plus sécurisées, commencent d’ailleurs à voir le jour, à l’instar de Signal (recommandée par Snowden lui même mais victime de problèmes techniques) téléchargée 3,62 millions de fois, ou Wicker-Me (3,8 millions).

Autre épine, l’utilisation assumée de l’application par des terroristes, dont certains impliqués dans les attentats récemment perpétrés en France, qui pose des questions éthiques et suscite des tentatives de réaction de différents gouvernements (« Les échanges de plus en plus systématiques opérés via certaines applications, telles que Telegram, doivent pouvoir (…) être identifiés et utilisés comme des éléments de preuve (…) » déclare Bernard Cazeneuve, alors ministre de l’intérieur, qui souhaite « armer véritablement nos démocraties sur la question du chiffrement », suggérant que « la Commission européenne étudie la possibilité d’un acte législatif pour rapprocher les droits et les obligations de tous les opérateurs »). Le droit national, régional et international est donc à la recherche d’armes juridiques pour lutter contre ces nouveaux canaux de communication. Si Telegram réagit timidement (suppression de 78 comptes liés à l’EI suite aux attentats de novembre 2015, création de la chaine IsisWatch qui publie des rapports réguliers sur le nombre de canaux ou de bots pro-Daesh bannis de la messagerie), il est évident que cela n’est pas dans son ADN, ni dans celui de Pavel Durov, qui déclare refuser de se plier à des « restrictions locales à la liberté d’expression ».

Plus globalement, l’on peut se demander si le concept premier sur lequel repose Telegram n’est pas fondamentalement incompatible avec l’effet de réseau que génère l’application. Si la confidentialité promise attire des masses conséquentes d’utilisateurs, ces masses attireront à leur tour la convoitise et le système se fera prendre à son propre piège. Associé à une inviolabilité quasi-impossible sur le long terme rendant inévitable la naissance de concurrents hautement compétitifs, et à la pression éthique, politique et juridique que subit le modèle, l’on doit s’interroger sur la pérennité de la vision qu’a Telegram du marketing digital de l’ère post-snowden.

Renouvellement de la stratégie marketing : utiliser la dynamique de l’ère post-snowden pour se reconvertir en social media et en plateforme digitale.

Il semble que Telegram ait assumé et anticipé cette plus ou moins inéluctable perte de vitesse, puisque l’entreprise entame une mutation intéressante et choisit d’utiliser bénéfiquement son effet de réseau pour se reconvertir en social media. Outre le service de messagerie individuelle ou groupée (un groupe pouvant contenir jusqu’à plusieurs milliers de personnes), Telegram propose des «  chaînes », listes de diffusion non limitées en taille, publiques ou privées, accessibles à partir d’URL permanents. Le diffuseur de n’importe quel message ou lien peut voir, en live, le nombre de vues qu’il suscite et le nombre de transmission à des membres extérieurs à la chaine.

Ce support détient un intéressant potentiel commercial et marketing pour les marques, engendrant une convoitise qui, si elle est problématique à gérer pour une application de messagerie sécurisée, devient potentiellement une force pour un social media : c’est peut-être la solution qu’a trouvé Telegram pour échapper à son paradoxe.

Telegram tend également à devenir une plateforme digitale complète et centralisatrice. D’abord, son utilisation ne requière pas d’espace de stockage puisque l’application utilise un système de cloud, servant initialement à éviter la présence de datas dans la mémoire de l’appareil utilisé. Ceci permet notamment d’envoyer des fichiers beaucoup plus volumineux que ceux pouvant transiter via d’autres systèmes de messagerie. Ensuite Telegram fournit deux types d’API à d’éventuels développeurs : des « Bot API », permettant de connecter des bots (systèmes interactifs robotisés avec lesquels l’on peut tchatter) au système de messagerie et des « Telegram API » permettant de développer des applications sur la plateforme. Enfin, l’on peut citer, à titre d’exemple des divers services maintenant offerts par Telegram (qui dispose d’ailleurs depuis peu d’une version disponible sur ordinateur), une option pour transférer de l’argent disponible en Russie et au Brésil ou des stickers crées sur mesure par des artistes … D’aucun pourrait répondre qu’il manque encore la possibilité de passer des appels via l’application : c’est en cours !

L’évolution de Telegram atteste donc d’une stratégie marketing pragmatique. Il reste que cela sonne vraisemblablement le glas de l’idéologie entrepreneuriale initiale, résumée ainsi : « its non-profit model means that it was not created to make the billions that other companies strive for : it was build to offer a better messaging service to the people ».

[1] Droit de réponse de Telegram : https://telegram.org/blog/15million-reuters

 

Athur Terry

Data et programmatique : un couple gagnant ?

Face à une expérience en ligne extrêmement dégradée, la publicité programmatique se révèle être une perspective d’avenir intéressante. L’augmentation constante du taux d’équipement des adblockers en France pousse les annonceurs et les éditeurs à réinventer le modèle publicitaire en ligne. Ces dernières années IAB a avoué privilégier l’optimisation des revenus publicitaires et les outils de retargeting qui permettaient de conserver des CPM et CPC rentables. Cette stratégie a conduit à accroître la pression publicitaire sur les internautes qui sont maintenant plus de 30% à être équipés d’adblockers.

Depuis 2015, IAB fait marche arrière et Scott Cunigham prêche pour un standard publicitaire dit « LEAN », plus léger, moins intrusif qui laisse le choix aux internautes. Aujourd’hui éditeurs et annonceurs tentent de se renouveler en pariant sur des formats innovants, la brand utility et la personnalisation de la publicité. L’association du big data et l’évolution de la publicité programmatique sont les deux éléments essentiels de cette transformation. La France est l’un des pays prescripteurs en termes de ventes d’annonces automatisées, fin 2016, les ventes mobiles représentent 43% des ventes annuelles soit 239 millions et une croissance de plus de 60%. Cette tendance continuera de se renforcer, emarketer estime à 518 millions de dollars les dépenses en programmatique en 2018. Le couple data programmatique est au coeur de cette évolution réussie.

Du marketing de masse au marketing à la performance

Le terme de programmatique désigne, dans le cadre du marketing digital, l’automatisation de l’achat et de la vente d’espaces publicitaires sur n’importe quel device.

La publicité ciblée, une révolution permise par le RTB sur Ad Exchange

La programmation RTB (real time bidding) que l’on pourrait traduire par « offres en temps réel » est comparable à une salle de marché boursier sur laquelle se vendent et s’achètent des espaces publicitaires en ligne. La vraie révolution intervient avec le modèle du Ad exchange : les transactions, qui s’effectuaient sur un Ad Network jusqu’à lors, ne concernent plus des espaces publicitaires mais des audiences. Ainsi, le même espace publicitaire n’est pas commercialisé aux mêmes personnes avec le même message : l’annonceur peut désormais cibler une audience. En effet, grâce à un logiciel de bourse en temps réel, l’annonceur propose des flux d’informations concernant la cible qu’il aimerait toucher et ne va payer que pour des audiences qui correspondent à ses critères. D’un autre côté, les éditeurs proposent des inventaires dont ils ont qualifié l’audience, plus cette dernière est connue et précise, plus elle peut être vendue chère aux annonceurs, il existe donc un véritable enjeu au de la donnée de l’audience.

En pratique, l’annonceur va contacter une agence (sauf s’il dispose d’une équipe marketing compétente en interne) qui utilisera une Demand Side Plateforme afin de fixer les paramètres de la campagne publicitaire (cible, budget etc.). C’est le DSP qui fera le travail en faisant automatiquement et en temps réel des offres d’achat d’impressions. Pour cela, il se connecte à un Ad Exchange, lui-même connecté à différentes Sell Side Plateform. Ces dernières permettent aux éditeurs de vendre leurs inventaires disponibles en automatisant leur gestion selon la stratégie qu’ils ont définie et d’optimiser leurs revenus publicitaires. La suite du processus se déroule de la façon suivante :

La programmatique RTB sur Ad exchange constitue une véritable révolution dans le domaine de la publicité digitale dès lors qu’elle offre l’opportunité à l’annonceur de cibler le bon client final en lui proposant une publicité personnalisée grâce à la data.

L’enrichissement des données, clef de voûte d’un marketing performant

Le véritable enjeu de la programmatique c’est la data. La prise de décision en temps réel de répondre à l’achat ou non d’un espace publicitaire repose toujours sur les données. La data s’avère donc être la clef de voûte du marketing digital : l’annonceur cherche à atteindre la bonne cible, l’éditeur cherche à maximiser la donnée et le prestataire veut faire du profit grâce à la valeur de sa revente dans les ad exchange. Il existe plusieurs formes de collecte de données : celles concernant l’individu lui-même (formulaires, life logging, cloud etc.), celles concernant d’autres individus connectés au premier (liens, commentaires, contacts), les traces (données de navigation implicites ou explicites, cookies, tags, logs) et les collecteurs historiques (CRM, achat de bases de données). Il faut néanmoins souligner que toutes les données des réseaux sociaux sont considérées comme des données personnelles par la loi française et leur utilisation est subordonnée au consentement de la personne (« opt-in »).

« L’Oréal, l’achat programmatique dynamise les ventes »

L’Oréal s’érige en véritable modèle de réussite  dans la transition du marketing de masse au marketing segmenté. En 2012, le groupe se lance dans la programmatique avec l’objectif d’optimiser les taux d’engagement de ses pubs grâce au ciblage des audiences. L’Oréal renonce donc à toucher un public le plus large possible mais tente de segmenter son audience pour mieux connaître les consommateurs et leur délivrer les bons messages au bon moment. La marque de cosmétique a relevé le défi avec  Shu Uemura qui ne parvient pas à atteindre sa cible sur le marché américain. Pour la campagne Shupette, L’Oréal désire développer la notoriété et intensifier les visites du site Shu Uemura.

La première phase de l’opération consistait à identifier l’audience existante grâce à Google Analytics Premium et Double Click Bid Manager. Cette étape cruciale a permis d’acquérir de nouveaux prospects grâce aux annonces ciblées sur les réseaux sociaux et le display.

L’acquisition correspond à la seconde phase, pour ce faire Shu Uemura utilise DoubleClick Bid Manager pour le remarketing de la gamme Shupette.

Grâce à sa data interne et l’achat programmatique, le chiffre d’affaires atteint le double des estimations, aux Etats Unis, le CPA va jusqu’à dépasser les objectifs à hauteur de 73%.

Cette opération montre à quel point data et programmatique sont indissociables pour une évolution vers la personnalisation de la publicité.

L’optimisation du budget marketing

L’automatisation de la vente et de l’achat de médias a conduit à une réduction du gaspillage et permis une plus grande optimisation des coûts et des opérations, selon les conclusions d’une enquête que l’IAB. Avant, l’annonceur devait définir un groupe cible, une série de critères, rencontrer une agence marketing en mesure d’identifier les éditeurs pertinents pour l’affichage et seulement quelques semaines plus tard un contrat était signé. Le processus était lent et inefficace en matière de ciblage. Avec le traitement automatisé de la data au sein d’une DMP et un échange en temps réel sur un Ad exchange, les entreprises font des économies : d’une part parce qu’elles évitent le recours à des acteurs payants et parce qu’elles optimisent leur marketing. En effet, dès lors que les annonceurs achètent une audience qualifiée ils offrent une publicité personnalisée directement au client final avec la possibilité de retargeter, redimensionner. Ils économisent ainsi le budget marketing alloué initialement à la masse dont la plupart est désintéressée du produit.

Une alternative qui séduit :

Selon l’étude de l’IAB susmentionnée, une majorité d’acteurs de l’industrie de la publicité déclare avoir adhéré aux méthodes programmatiques de vente et achat média. 900 acteurs parmi annonceurs, agences et éditeurs, situés dans 29 marchés différents ont été interrogés dans le cadre de cette étude : seuls 8% des éditeurs, 13% des annonceurs et 7% des agences interrogées ont déclaré ne pas avoir recours au programmatique. 90% des professionnels interrogés affirment vouloir augmenter les investissements dans ces méthodes dans les 12 mois prochains.

Selon l’agence IPG MediaBrands, la publicité programmatique devrait représenter près de 33 milliards d’euros en 2019. Elle constitue d’ores et déjà près de 40% du display, qui lui-même représente, rappelons-le, environ un tiers de la publicité digitale (un marché toujours dominée par le search).

 Data et programmatique : un couple inséparable

Il y a encore quelques années l’achat en programmatique avait mauvaise presse parce qu’il servait principalement à écouler les espaces invendus des éditeurs. Le programmatique n’est pas tout à fait débarrassé de cette image « d’achat media low cost » qui pose la question de  brand safety. Pourtant, la rencontre entre data et programmatique permet d’améliorer l’expérience d’achat automatisé pour l’annonceur. Ce dernier a la possibilité d’affiner ses acquisitions, il n’achète plus uniquement des impressions, mais bien des profils de consommateurs sur lesquels il collecte des informations. Selon Béatrice L’hospitallier, directrice data du groupe Les Echos-Le Parisien, cette évolution permet aux annonceurs de sortir du modèle de performance et d’utiliser le programmatique pour des opérations de branding afin de profiter d’audience qualifiée. Mutualiser les données acquises par les annonceurs et les éditeurs ouvrent également le champ des possibles et donne le pouvoir de détecter les jumeaux marketing qui sont similaires aux audiences déjà identifiées et susceptible d’avoir les comportements d’achat identiques.

D’autre part, la data est synonyme de fiabilité pour les annonceurs. Les annonceurs ont longtemps été réticents à investir dans l’achat programmatique pour des raisons de brand safety mais aussi à cause des phénomènes de fraudes aux impressions. Les bots auraient coûtés 6,3 milliards de dollars en 2015 aux annonceurs pour des pubs qui n’ont jamais été visibles par les internautes. Aujourd’hui, Sophie Poncin affirme que les réticences des annonceurs se font moindres et laissent place à une approche très qualitative.

 

  Anouar Lmabrouk

@anouar_smh

Deepomatic, un nouveau moteur de recherche au service de la mode, 100% français

Deepomatic est une start-up française dédiée à l’intelligence artificielle et à l’image. Son domaine de prédilection est la mode et l’équipe a pour ambition de répondre à un besoin grandissant des internautes, avoir accès à tout, tout de suite en créant un moteur de recherche de reconnaissance d’images.

Les prémices de la start-up

Deepomatic est née de la rencontre de trois amis, à l’école Normale Sup de Lyon : Augustin Marty, Alois Brunel et Vincent Delaitre. Leur première idée est de monter Smyle. Le but était de créer une marketplace qui récupère tous les sacs et les chaussures disponibles chez les e-commercants francais et de permettre aux utilisateurs de naviguer à travers cet immense catalogue pour trouver des articles qui se ressemblent. En clair : une envie d’un sac Marc Jacobs alors que les économies font défaut ? Il suffisait à l’utilisateur de rentrer une photo du modèle voulu et Smyle se chargeait de trouver un article similaire, à prix bien évidemment plus avantageux.

Les trois amis, un peu trop ambitieux, ont décidé d’arrêter cette affaire et de se concentrer sur ce qui savent faire le mieux : le développement de la technologie de recherche par image. Deepomatic voit alors le jour.

Les trois compères sont partis de trois constats. Premièrement, le mode de consommation de prédilection est désormais le ATAWAD (any time, anywhere, any device),  74% des français lisent au moins une marque de presse en version numérique, et 54% sont des lecteurs sur mobiles ou tablettes[1]. Deuxièmement, le e-commerce est en plein essor. Selon le dernier baromètre de la Fevad (Fédération du e-commerce et de la vente à distance) 35,5 millions de français achètent sur internet, et 6,6 millions d’entre eux ont déjà effectué des achats à partir de leur mobile[2]. La mode représente une part importante du marché du e-commerce, l’habillement et les chaussures ont effectué en 2016 5,2 milliards d’euros de chiffre d’affaire. Troisièmement, les français deviennent de plus en plus allergiques à la publicité. Un sur trois affirme avoir déjà installé un bloqueur de publicité[3]. Cette aversion envers la publicité numérique est une préoccupation pour les annonceurs qui doivent s’adapter et chercher de nouvelles solutions de publicité.

L’objectif de Deepomatic est donc de répondre aux envies tous les clients des sites de e-commerce tout en satisfaisant également les éditeurs et les e-commerçants.

Deepomatic, comment ça marche ?

Deepomatic est installé directement sur les sites des éditeurs de magazines féminins. Grâce au deep learning, l’algorithme développé repère les différents éléments qui composent les photographies présentes sur les sites internet visités par les internautes : la robe, les chaussures, le chapeau, les lunettes etc. L’algorithme recherche ensuite sur les sites de e-commerce la pièce en question (le “perfect match”), ou bien d’autres articles similaires (forme, couleur, motifs).

Cette technologie tend à satisfaire tous les acteurs de la chaine, les éditeurs, les e-commerçants ainsi que les consommateurs finals. En liant des images des sites internet des éditeurs à des produits achetables, l’algorithme permet aux médias de monétiser automatiquement leur contenu tout en apportant un trafic qualifié aux e-commerçants. Les internautes, quant à eux, ont désormais la possibilité de trouver facilement leurs produits de mode préférés, sans avoir à se disperser sur les dizaines, voire les centaines de sites des e-commerçants.

L’outil Deepomatic est disponible sur le site « Puretrend », qui poste plusieurs centaines de photo par jour. Et avec plusieurs millions de visiteurs uniques par mois sur le site, ce nouveau système de référencement représente une manne potentielle pour les sites commerciaux.

La publicité, un ras le bol grandissant

Le modèle publicitaire actuel est obsolète et contraint d’évoluer. L’objectif est de Deepomatic est de donner à la publicité en ligne une forme innovante. Pour cela, l’équipe installe un iframe discret au sein des pages articles, avec la possibilité d’être redirigé vers la boutique de l’e-commerçant. Cette publicité in-content est pour l’éditeur une valeur ajoutée qui permet de rompre avec le modèle d’une publicité intrusive pour l’internaute. La publicité devient moins agressive, le but étant réellement de cibler le public. La publicité est alors contextualisée et interactive. Ce sont les internautes qui viennent chercher le service, qui décident d’interagir avec l’image et de s’engager dans une démarche commerciale.

De plus, Deepomatic propose aux e-commerçants de développer ensemble de nouveaux leviers d’acquisition de trafic grâce au shoppable content. L’univers éditorial est tout à fait capable de générer une performance significative. Dans la mesure où Deepomatic rend un service à l’internaute, les CTR sont élevés et apportent un trafic important au site d’e-commerçants. Les tests réalisés par frenchweb ont montré que du shoppable content sur une vidéo promettait des taux de clic entre 7 et 11% et entre 3 et 5% sur des photos shoppable[4].

Comment la start-up se rémunère-t-elle ?

Deepomatic se rémunère par le biais d’une commission de 5% sur le prix des articles vendus via l’outil proposé. Le modèle d’attribution choisi est le modèle du last click. Il ne s’agit pas du modèle idéal car de nombreux articles peuvent sortir de leur champ d’attribution. Le modèle d’attribution de Deepomatic serait donc à repenser, mais un obstacle de taille est venu semer le doute dans la traçabilité des internautes. Le 11 janvier dernier, la Commission européenne a dévoilé son projet de révision de la directive de 2002 sur la « e-privacy »[5]. Bruxelles prévoit que les cookies tiers (ceux qui ne servent pas au fonctionnement direct du service, mais qui permettent de connaître les habitudes des internautes) devraient être bloqués par défaut et que leur activation dépendrait de l’utilisateur. Cette mesure fait trembler l’industrie publicitaire. Le but est louable : renforcer la sécurité des données personnelles, mais il met en péril le système publicitaire. Il serait alors impossible pour Deepomatic de tracer les achats effectués grâce à l’algorithme…

Une vocation à devenir le véritable « Shazam » de la mode ?

Dans un futur plus ou moins proche, Deepomatic a pour ambition de mettre à disposition cette technologie innovante entre les mains du consommateur. L’équipe fait le pari qu’il y aura de plus en plus de recherches par voix ou par image, comme le démontre à l’heure actuelle l’essor des assistants vocaux, tels que Siri, Google Voice ou encore Amazon Echo.

Technologie prometteuse avec un système d’utilisation très simple. Via une application Deepomatic, chaque utilisateur pourra photographier un vêtement dans la rue, sur une affiche, voire sur une personne et retrouver d’un clic, grâce à l’algorithme, la pièce recherchée ou encore des articles semblables sur tous les sites de e-commerce. Le bonheur à portée d’un clic ? En effet, quelle femme n’a jamais rêvé d’avoir la même robe que son ennemi sans avoir à lui demander où elle l’a trouvée ?

Alice Petit

[1] ACPM, One Global, 2016 V4

[2] http://newspaper.fevad.com/wp-content/uploads/2016/09/Plaquette-Chiffres-2016_Fevad_205x292_format-final_bd.pdf).

[3] Baromètre sur les Adblocks sur le marché français, vague 2, novembre 2916 http://www.iabfrance.com/content/etude-sur-les-adblocks-presentation-de-la-v2.)

[4] http://www.frenchweb.fr/5-enseignements-a-tirer-du-shoppable-content/268479

[5] http://www.lefigaro.fr/medias/2017/01/05/20004-20170105ARTFIG00300-en-menacant-les-cookies-bruxelles-inquiete-l-industrie-publicitaire.php

Comment s’opère la concurrence Google et Facebook ?

 Depuis plus d’an et demi, Facebook a accéléré le nombre de produits mis à la dispositions de ses utilisateurs gratuitement ou non de manière intense. Cette diversification des activités, n’est pas novatrice pour certaines d’entre elles. En effet beaucoup d’entre elles étaient déjà proposées par Google. Les deux géants américains s’affrontent désormais sur des terrains concrets et bien identifié.

Continuer la lecture de « Comment s’opère la concurrence Google et Facebook ? »

La Vidéo On Line, nouvelle économie de l’attention pour les annonceurs ?

Mais qu’est ce que la VOL publicitaire ?

La vidéo online publicitaire est un format vidéo que l’on inclut dans un contenu digital pour mettre en avant une publicité. Deux types de formats peuvent être observés : l’instream d’une part, cela se caractérise par une publicité se trouvant dans le flux vidéo tel que le pre-roll qui se met en marche en amont des vidéos. L’outstream d’autre part qui affiche une vidéo sur une page web au milieu d’articles comme l’inRead.

La Vidéo on line, le format web incontournable  

Une étude Cisco a démontré que la vidéo on line représentera 82% du trafic Internet d’ici 2020, ce qui signifie que de nouvelles offres publicitaires ne cessent de s’insérer dans les contenus en ligne. Nous pouvons alors parler d’une nouvelle mine d’or pour les annonceurs qui peuvent ainsi placer leurs publicités dans ces vidéos. Ainsi, ils pourront obtenir de meilleurs rendements que la publicité traditionnelle en ligne qui engrange rarement de bons retours sur investissements. C’est par la vidéo on line que les annonceurs espèrent notamment attirer l’attention des consommateurs.

La VOL publicitaire est en plein essor et cela provient en partie des médias sociaux. En effet, les publicités vidéo sur les réseaux sociaux ont vu leur croissance exploser en 2016  avec +351%  d’évolution. Les annonceurs misent donc énormément sur les réseaux sociaux tels que Facebook et ses vidéos autoplay, Youtube se positionnant comme la nouvelle télévision ou Snapchat et ses vidéos verticales.

Le fait est que la publicité numérique a détrôné la publicité TV depuis 2016. Dès lors, le numérique est devenu le premier media récepteur d’investissement avec une part de marché de 29,6% alors que la télévision n’en représente désormais que 28,1%. « La télévision de papa » n’est plus la seule en course sur les contenus visuels.

Une étude récente de Google montre même que la vidéo online gagne du terrain en termes d’impact et d’efficacité des formats publicitaires.Cette avancée des médias numériques se témoigne notamment par le fait que 58% des internautes français ont l’habitude de regarder des vidéos en ligne au moins une fois par semaine.

Il est donc clair que l’impact de la VOL est significatif et un nouvel enjeu à saisir pour les annonceurs. Cependant le marché publicitaire doit encore se développer et utiliser à bon escient ces nouvelles opportunités.

Une automatisation de la VOL grâce au programmatique

La vidéo en ligne s’est ouverte aux achats programmatiques sur divers devices,  tels les  ordinateurs, tablettes et mobiles, qui sont en train de bouleverser le marché de la VOL.

En 2017, le programmatique ne sera pas uniquement utilisé pour les achats d’espaces vidéo mais également pour automatiser la création et optimiser les annonces. Des milliers de variations d’annonces vidéo seront générées et permettrons aux marketeurs de mener des campagnes particulièrement ciblées et personnalisées.

Criteo a fait une étude prévisionnelle sur l’évolution du secteur du e-commerce et sur la façon dont les annonceurs doivent s’y préparer. Avec des prévisions partagées, les résultats sont plus qu’encourageant pour l’e-commerce en France : +14,6%  de croissance sur le marché en ligne ; même si le panier moyen a diminué de 5 euros pur atteindre les 70 euros. Néanmoins, la VOL n’est pas encore à la pointe du programmatique. La data et le retargeting vidéo semblent encore rares.

Il est nécessaire d’adapter son contenu publicitaire à la VOL  

Il semble évident que la vidéo doit s’imposer pour les annonceurs, qui doivent désormais adapter leurs messages publicitaires à ce contexte particulier de la commercialisation programmatique. Même si le marché semble favorable,  le format de la VOL est bien trop proche de celui de la télévision. En effet, les annonceurs aimeraient pouvoir décliner leurs publicités sur télévision, ordinateur et mobile. Or, ils doivent comprendre aujourd’hui que chaque média doit adapter son contenu publicitaire dont la VOL.

Il faut repenser la vidéo par le format : en vidéo verticale ou horizontale, la durée jusqu’à 30 secondes et la forme d’intégration en pré-roll ou mid-roll. Snapchat l’a bien compris avec son format de vidéo verticale sur mobile. Ce qui importe est l’expérience utilisateur, il faut créer de l’interactivité, peu importe que le consommateur soit sur sa tablette ou son ordinateur.

Le digital permet justement d’apporter cette interactivité à la vidéo et d’inciter le consommateur à visionner le contenu pour ensuite cliquer sur le lien vers le site web afin d’éventuellement finir par une vente en ligne. La clé reste la même pour tous les médias : la qualité du contenu visuel est ce qui permettra d’attirer l’attention des consommateurs.

Quelle croissance pour la publicité VOL ?

La vidéo en ligne n’en est qu’à ses débuts et les opportunités offertes par le digital ne sont pas encore totalement exploitées par la publicité. Désormais le marché de la VOL n’a plus qu’à se développer et adapter les messages publicitaires ainsi que leurs contenus, particulièrement depuis l’arrivée du programmatique qui continue de s’accroître.

L’enjeu n’est donc plus réellement technologique, mais aussi pédagogique pour les annonceurs qui doivent encore une fois investir dans une nouvelle forme de contenu digital.

 

Laetitia Rey

Les mutations du livre numérique

Dans un contexte de redressement du marché global du livre, le e-book est loin de s’imposer comme le format dominant au détriment du livre physique, comme cela a été le cas pour la vidéo, la musique ou le jeu vidéo. Tour d’horizon.

Un livre numérique est un livre édité et diffusé en version numérique, disponible sous forme de fichier, qui peut être téléchargé et stocké pour être lu soit sur un écran tel que celui d’un ordinateur personnel, d’une liseuse ou d’une tablette tactile, soit sur une plage braille, soit sur un dispositif de lecture de livres audio. Il peut également être lu en ligne. Il est à noter que les ventes de bandes-dessinées et de mangas sont incluses dans le total des ventes de l’édition en France. Ainsi, le plus gros succès littéraire de l’année 2015 a été la dernière BD de Astérix.

Selon une étude de Xerfi, le marché du livre français a progressé de 1,8% en valeur en 2015, rompant avec 5 années consécutives de baisse. Plus intéressant, les ventes d’ouvrages imprimés ont progressé de 0,7% sur les cinq premiers mois de l’année 2016 : le physique semble donc loin d’avoir dit son dernier mot.

Ainsi, on est loin du raz-de-marée attendu pour les e-Book. C’est d’ailleurs une des différences principales entre les marchés américains et français : un taux de pénétration très différent du livre numérique comme le montre ce graphique du Syndicat national de l’édition. Le livre numérique est bien plus démocratisé aux Etats-Unis qu’en France : 24% vs 6,5% de PDM / CA total livres en 2015. Selon Xerfi, ce tauxde PDM donne une valeur de seulement 280 millions d’euros pour un marché global de presque 2,7 milliards d’euros.

Pourtant, la situation du e-book aux Etats-Unis n’est pas non plus paradisiaque. Sur les 6 premiers mois de l’année 2015, les ventes d’E-Books ont ainsi diminué de 10,4% outre-Atlantique. Dans le même temps, le patron de la grande chaînes de librairies Waterstones au Royaume-Uni annonçait retirer les Kindle de ses rayons pour cause de ventes trop faibles. En France, les ventes de liseuses, support le plus confortable pour la lecture numérique, continuent de plafonner à 350 000 par an selon GFK.

Loin d’être parfaitement objectifs, nous pouvons tout de même avancer ces quelques facteurs afin d’expliquer le trou d’air vécu par le e-book :

  • Le faible catalogue des bibliothèques numériques (surtout en français)
  • Des prix jugés trop élevés par les clients
  • Un attachement non négligeable au support papier
  • Un confort de lecture supérieur sur papier

Si la progression du livre numérique n’est pas effrénée en termes de ventes, elle reste néanmoins soutenue au moins dans les usages : 19% des français affirment avoir lu au moins un e-Book sur les 12 derniers mois en progression de 3 points et les éditeurs poussent vers un élargissement de l’offre numérique comme l’a montré Madrigall en rendant disponible ses bandes-dessinées. Xerfi pronostique ainsi une PDM de 10% pour l’année 2017.

Aux Etats-Unis, le manque de dynamisme du livre numérique tient également d’une autre explication : la nouvelle augmentation de son prix par ce qu’on appelle les BIG 5, c’est à dire les 5 plus grands éditeurs américains, alors que le prix des livres physiques restait stable. La part des ventes de livres numérique a donc logement diminué, sauf pour les indépendants et les petits éditeurs auxquels le livre numérique permet une meilleure visibilité.

 

En 2015, ce sont ainsi 204 millions de livres numériques qui se sont écoulés contre 653 millions de livres papier. Leur part de marché est tombé à 24% comme nous l’avons vu, alors qu’elle se situait à 28% en 2013. Certains genres connaissent un succès plus grand en numérique comme les polars (51% en numérique). Concernant les appareils utilisés, le smartphone est le seul à tirer son épingle du jeu, et tous les autres appareils sont moins utilisés pour la lecture numérique qu’auparavant, même si les liseuses continuent à dominer le marché aux Etats-Unis en offrant un plus grand confort pour la lecture numérique. De même, on note que l’ordinateur est un support peu adapté à la lecture numérique.

De nouvelles offres vers la consommation illimitée

L’abonnement Kindle a une promesse forte : accéder à plus d’un million de titres, dont 25 000 en français, à partir de 9,99€ par mois, sur tous les appareils. On trouve aussi des services français comme Youboox qui propose le même type de service ou Izneo qui est spécialisé dans la bande-dessinée et les mangas. Ces trois acteurs vendent des abonnements à 9,99 euros à leurs clients, ce qui permet d’accéder à un catalogue de titres plus ou moins fourni.

Leur inspiration vient évidemment des autres industries culturelles comme le cinéma (Netflix) ou la musique (Spotify) pour lesquelles ce business model a fonctionné à merveille. La distribution des contenus, leurs formats et leurs modes de consommation plongent le consommateur dans l’abondance. Il se retrouve face à un “hyperchoix”, désormais libre de lire / regarder où, quand et comme il veut une offre pléthorique de contenu.

L’arrivée de ces services sur les marchés de l’édition littéraire va-t-elle modifié les usages, les équilibres et les chaînes de valeur et déstabiliser ce marché comme elle l’a fait pour la distribution physique ? Va-t-elle enfin faire exploser le livre numérique ? Mais, le marché du livre a de nombreuses spécificités qui complexifient la mise en place de ces business models.

Le prix unique du livre numérique en garde-fou

La nouvelle législation de 2011 est une transposition de la législation en vigueur pour le livre physique (loi Lang de 1981). L’éditeur fixe un prix pour le livre numérique qui doit être respecté par les revendeurs, qu’ils opèrent depuis la France ou l’étranger afin de protéger les créations françaises. Les éditeurs sont donc tenus de fixer un prix de vente public qui peut différer en fonction du contenu de l’offre, de ses modalités d’accès ou d’usage (abonnement en streaming par exemple).

Un conflit a logiquement éclaté avec les plateformes comme Kindle Unlimited qui proposaient des abonnements illimités allant à l’encontre de cette législation sur le prix unique du livre numérique. La médiatrice du livre Laurence Engel a jugé cette offre contraire à la législation française du prix unique du livre, car les éditeurs ne peuvent plus fixer le prix de leurs produits dans ce modèle.

Le nom a tout d’abord été modifié pour “Abonnement Kindle”, car les abonnés payent désormais pour des crédits de consultation prenant place dans une sorte de cagnotte. Chaque éditeur et auteur indépendant doit fixer un prix de consultation à la page, qui est déduit de la cagnotte de l’abonné. Hélène Mérillon, la fondatrice de Youboox, résume bien le mécanisme :

« Les prix à la page définis par les éditeurs sont affichés dans l’application. Chaque page lue est comptabilisée pour venir abonder un compte commun dont l’équilibre est surveillé par Youboox, conformément aux dispositions validées par la médiatrice »

Le système a beau être transparent, c’est un vrai casse-tête pour les abonnés, loin de la simplicité que l’on peut par exemple trouver dans la musique. Difficile dans ce cadre d’imaginer une fulgurante augmentation de la part de marché du livre numérique en France grâce à ces nouvelles offres. L’apport réel du e-book est peut-être à chercher ailleurs…

Le livre numérique facilite l’autoédition

Avec sa plateforme d’auto-édition, Amazon permet à tout auteur, auto-édité ou non, de télécharger soi-même, simplement et gratuitement ses ebooks et de les mettre en vente sur la boutique Kindle. Les ouvrages sont ainsi accessibles non seulement aux possesseurs de la liseuse Kindle, mais également à tout un chacun via les applications Kindle pour ordinateur, smartphone et tablette. Occupant une place de premier plan sur ce marché, Amazon s’est lancé dans l’autoédition pour augmenter l’offre de livres numériques disponibles sur sa plateforme de vente et alimenter ses terminaux de lecture en contenus bon marché.

À l’heure actuelle, 55 000 titres français autoédités seraient ainsi disponibles dans le Kindle Store. Face à des maisons d’édition classiques qui refusent énormément de manuscrits et/ ou qui payent souvent la majorité des auteurs au lance-pierre, le géant américain a permis à des écrivains d’être publiés gratuitement. Mais de là à se transformer en machine à fabriquer des best-sellers?

Il est vrai que certains projets refusés par des éditeurs méritent d’être publiés et que l’édition numérique permet de réparer cette injustice culturelle à moindre frais car le numérique casse la coûteuse barrière de la distribution. Fini la tournée des salons du livre pour espérer vendre quelques exemplaires : Amazon.fr, c’est 17 millions de visiteurs uniques par mois et autant de lecteurs potentiels. Le self-publishing représente ainsi 12% des ventes d’ebooks aux Etats-Unis en 2015 contre 8% en 2014 selon une étude du cabinet Nielsen.

Publier est une chose, mais assurer la visibilité de son livre parmi l’offre pléthorique que favorise ce système en est une autre. La suppression des intermédiaires entre l’auteur et le lecteur implique non seulement que l’auteur se démène sur les réseaux sociaux pour promouvoir son livre mais aussi que le livre se fasse remarquer avec des bons scores et des commentaires élogieux des utilisateurs du site. Le pouvoir bascule des éditeurs traditionnels qui opèrent habituellement cette sélection vers les lecteurs qui plébiscitent les contenus qu’ils aiment.  Cela implique donc que l’auteur devienne sa propre marque conduisant un travail de marketing de soi et de construction de sa réputation s’il souhaite conquérir un lectorat.

De plus, avec l’absence de filtre éditorial et l’abaissement de barrières l’entrée, l’accès au marché s’en est trouvé facilité, ce qui a entraîné l’inflation de la production qui s’accompagne d’une concurrence accrue.  Il est d’autant plus difficile de se distinguer dans cette nouvelle économie de l’attention dans laquelle l’offre est abondante mais les ressources disponibles (temps, argent) pour la consommer nettement plus réduite.

On le voit bien, le livre numérique ne s’est pas encore imposé comme un format de référence, mais il ouvre le champ des possibles pour cette industrie avec des offres faisant la promotion d’une consommation illimitée et la montée en puissance de l’autoédition.

Jean charles thebaud

L’innovation technologique au service du social media et des marques  

Depuis  quelques  années  déjà,  les  innovations  technologiques  dédies  aux  réseaux  sociaux  ne   cessent  d’émerger  et  apportent  avec  elles  de nouvelles  problématiques  de  branding  et  de   contenus.  Bien  que  le  ROI  ne  soit  pas  encore  présent  de  dans  l’utilisation  des  réseaux  sociaux, surtout  sur  Instagram  ou  il  est  très  compliqué  de  «  tracker  »  les  utilisateurs,  les  marques   arrivent  à  se  distinguer  notamment  via l’exploitation  des  formats  innovants.  Ces  formats  sont   utilisés  par  les  marques  dans  leur  démarche  de  transparence  le  plus  souvent.  Par exemple,   beaucoup  misent  sur  l’avenir  et  les  vidéos  à  360°  sur  Facebook. Egalement,  le  live  est  au  cœur   des  pratiques  aujourd’hui.

Il  y  a  une  semaine,  Instagram  lançait  son  option  de  LIVE.  Après  Twitter,  YouTube  et  Facebook,   c’est  au  tour  d’Instagram  de  se  mettre  à jour  avec  une  fonctionnalité  majeure.  Plus  qu’un   besoin  technique,  cette  évolution  technologique  est  les  symbole  d’une  besoins  constant  d’instantanéité.  C’est  le  pari  qu’avait  réussi  Snapchat,  et  c’est  au  tout  de  petit  frère  de   Facebook  de  s’y  mettre. Avec  ces  formats  et  ces contenus  originaux,  nous  sommes  typiquement  au  cœur  de  ce  que   recherchent  les  marques  et  les  entreprise  dans  le  cadre  de  leur communication.  Via  des   stratégie  de  branding  et  d’awareness,  les  marques  manipulent  et  s’adaptent  aux  supports  que   la  technologie  leur propose.  Le  but  ultime  que  ces  marques  cherchent  à  atteindre  pour  la   plupart  d’entre  elles  est  de  toucher  les  millennials,  cette  tranche  de  la  population  très  sensible   aux  nouvelles  technologies  et  au  social  media.

Effectivement,  une  marque  a  la  volonté  d’être  une  marque  active,  à  jour  sur  ce  qu’il  se  fait  en   termes  de  contenus  et  d’innovation.  De  plus,  de  développement  récent  de  la  réalité  virtuelle   laisse   beaucoup   de  sociétés   rêveuses   quant   aux  possibles  utilisations  à  des  fins   de   communication  sur  les  réseaux  sociaux.  Pourquoi  mettre  à  profit  cette  innovation  ?  Pour   rester  connecté  à  ce  qui  se  fait  de  mieux  et  terme  de  format  et  de  proposer  une  expérience   de  marque  inédite  reflétant  les  valeurs  la  marque.       L’atout  numéro  un  des  réseaux  sociaux  pour  une  marque  est  la  vidéo.  Oui,  malgré  la  baisse   significative  du  reach  global  et  de  l’engagement  sur  Facebook,  la  vidéo  est  le  format  qui   engage  le  plus  et  qui  permet  une  portée  clairement  supérieure  aux  statuts  liens  ou  photos  .   Sur  Facebook,  sur  Instagram  et  de  plus  en  plus  sur  Twitter,  la  vidéo  rythme  les  fils  d’actualité   et  s’impose  de  façon  palpable.  Au  format  360  ou  live,  la  vidéo  est  déjà  le  fer  de  lance  des   marques.

Bien  que  85%  des  vidéos  soient  visionnées  sans  le  son,  elles  restent  un  levier   prédominant  dans  la  rechercher  de  visibilité  et  de  viralité  d’un  contenu  ou  d’un  message  pour   une  entreprise.  Cette  dernière  l’utilise  déjà  assez  souvent  d’ailleurs.       Snapchat  est  également  de  la  partie  avec  ses  Stories  et  ses  pages  dédiées  sur  lesquelles  on   peut  trouver  Le  Monde,  Melty,  Konbini  ou  encore  L’équipe.  Cela  bouleverse  totalement  la   manière  dont  une  marque,  qu’elle  soit  média  ou  non,  imagine,  fabrique  et  pousse  son   contenu.  C’est  un  nouveau  paradigme  que  nous  voyons  actuellement  notamment  via  la  forme   mais  aussi  le  fond  d’un  contenu.  Qu’il  soit  informationnel  ou  communicationnel  un  contenu   va  prendre  de  la  valeur  d’une  part  sur  sa  qualité  mais  d’autre  part  à  travers  son  support.

Le contenu  et  la  manière  dont  il  est  mis  en  avant  sont  des  enjeux  majeurs  pour  les  marques   actuellement.  Egalement,  la  data  permet  des analyses  plus  précises  et  permet  une  logistique   dans  le  déploiement  des  contenus.       Ce  qui  doit  retenir  l’attention  des  marques  sur  leur communication  en  ligne  c’est  créer  un   contenu  qui  provoque  une  réaction  chez  l’internaute,  qui  lui  fait  naitre  une  émotion.  Et  cela   devra se traduire  par  de  l’engagement  et  une  activité  sur  la  page  de  la  marque  ou  ses  comptes   en  ligne.  Prenons  l’exemple  de  la  réalité  virtuelle qui  est  très  éloquent.  A  travers  elle,  les  user   vont  pouvoir  vivre  une  expérience  unique  et  singulière.  Oui  plusieurs  marques  ont  déjà  testé ce  format  avec  la  vidéo  260  sur  Facebook.  Je  pense  notamment  à  J&B,  le  Washington  Post  ou   encore   Milka.   Ces  trois  acteurs  très différents   ont  tous  pris  conscience  de  l’évolution   technologique  qui  a  lieu  actuellement  et  qui  se  met  en  place  sur  les  réseaux  sociaux.  On voit   bien  qu’ils  proposent  des  expériences  qui  vont  se  distinguer  et  qui  donneront  envie  de   consommer  cette  marque,  de  s’engager  avec elle.

Retenons  alors  que  l’innovation  technologique   permet  aux  marques   de  repenser  leur   communication  et  surtout,  leur  stratégie  de contenu  que  ce  soit  dans  sa  création  on  sa   diffusion.

 

Valentin Richardot

La magie de yuzzit ou la mémoire augmentée

Accompagnée de Sud de France Développement,  la start-up vient d’être récompensées au Consumer Electronic Show (CES) de Las Vegas. Objet intelligent, connecté à une application, Yuzzit est une sorte de petit boîtier connecté et intelligent.

Yuzzit enregistre pour vous des lieux géolocalisés, vous invite à enregistrer vos pensées et retrouve en fin de journée tout ce que vous avez aimé lors de votre journée sur un fil personnalisé.

Vous n’oublierez plus rien : ni l’emplacement de votre voiture, ni la petite robe noire repérée dans une boutique, ni le restaurant au coin de la rue. Yuzzit vous promet de se souvenir de tout ce que vous voudrez.

Pour cela, le wearable est doté d’un micro intégré et intelligent qui permet d’enregistrer des notes vocales.

Shazamer, tagger sa vie.

L’idée née dans les années 2000. Le fondateur, Frédéric Bruel, souhaite identifier tout ce qu’il voit, entend, rencontre.

Cela germe dans son esprit. Shazam est lancé en 2002 comme service téléphonique et débarque en 2014 sur l’Apple Store : le succès est enclenché. Je shazame, tu shazames… Mais, il (Frédéric Bruel), veut « shazamer » plus que de la musique. L’idée de Yuzzit est née. Lancée en 2016, elle se fait vite remarquer. L’application et son wearable reconnaîtront plus vite que la musique.

La fin du post it.

La startup Yuzzitit entend tagger notre vie. Plus que de se remémorer de manière digitale tous les moments de notre journée, Yuzzit est un outil pour notre to do list comme pour nos achats… Il yuzzit, nous yuzzitons, vous yuzzitez ?

Le wearable est un boîtier doté d’une technologie de « clipping ». Un clic, le boîtier enregistre le lieu, la musique ou la voix, via une technologie « speech to text », qui facilite le bookmark.

Deux clics, Yuzzit enregistre une action personnalisée, comme l’enregistrement d’un programme. Le wearable est bien une prolongation de soi. La transformation numérique permet par le tactile ou la voix d’être toujours plus proche du corps.

Les technophobes vont diront que cela simplifie l’accès aux fonctionnalités, les automobilistes éviteront une amende quand les technophiles prescripteurs vous diront que Siri suffit et fonctionne très bien.

La reconnaissance vocale, c’est la tendance du CES 2017 : Siri, mais aussi Alexa, Amazon Echo… Yuzzit développe toutes ses technologies en interne. Dix personnes s’y activent.

Petite révolution ou gadget ?

L’internet des objets avec la miniaturisation des processeurs permet d’intégrer des technologies très puissantes dans un porte-clef qui récolte une myriade de données.

Comme toute startup dont le cœur d’activité repose sur la data, Yuzzit a dû intégrer un paramètre essentiel dans son business model : la protection des données.

Pour nous rassurer, l’aspect confidentialité est pris en compte dès la création. C’est ce qu’on appelle la « privacy by design ».

En effet, l’actualité juridique se révèle riche dans ce domaine avec l’entrée en vigueur du règlement européen en 2018. Cette privacy deviendra une condition sine quanon.

Sécurisé, Yuzzit devient votre alter ego, notre journal intime 4.0 ; le mécanisme n’est qu’en second lieu celui du partage sur les réseaux sociaux.

Yuzzit se propose comme une Killer App en intégrant Bluetooth low energy, géolocalisation, API (Facebook ou Google Maps) ainsi qu’un cloud de reconnaissance audio universelle.

Trop d’applications, une application

78% des applications téléchargées sont utilisées moins d’une fois avant d’être définitivement supprimée. Plus besoin de se souvenir où l’application, ni même le wearable est caché… bippez à distance votre yuzzit.

L’utilisation de ce pense-bête 2.0 est très intuitive. Doté également d’un d’un système de reconnaissance vocale, le wearable peut reconnaître la voix de son utilisateur mais également une émission à la radio ou encore à la télévision. De quoi donner des idées aux annonceurs tv ?

Yuzzit avec sa logique servicielle fonctionne sur une co-création de données avec ses utilisateurs. C’est une boîte de technologie, où le consommateur est une ressource (« customeras a resource ») et le produit une commodité.

Un marketing 4.0

Pour se différencier, du côté B2C, Yuzzit devra proposer une promesse limpide et des fonctionnalités essentielles attendues par les consommateurs. A priori, peut-être un Yuzz, tout détenteur de smartphone. Le développement d’une réelle masse critique, d’une communauté permettrait de faire exister cette cet outil pour capter l’attention de chaque utilisateur.

Le « tag » devient la nouvelle technologie marketing. Mais parallèlement, 90% des ventes se font encore, en France, en physique : quoi de mieux que de se rappeler où aller acheter l’objet de sa convoitise.

Des perspectives d’évolution

1/La segmentation B2B2C pour atteindre une masse critique d’utilisateurs via des acteurs prescripteurs

Pour atteindre une masse critique, les concessionnaires automobiles seront des partenaires clefs.

En voiture, chacun se transporte d’un point à l’autre sans avoir forcément accès à son smartphone : Yuzz.it prend alors tout son sens. Logiquement, c’est un service que le concessionnaire pourrait offrir à son client lors de l’achat d’une voiture. Le wearable Yuzz.it serait alors remis avec le porte-clef de la voiture. Le concessionnaire pourrait, par ailleurs, nouer des partenariats avec des assurances de voitures telles que Axa dans l’offre du Yuzz.it. Ainsi, ce porte-clef malin éviterait bien des accidents au volant.

Dans un premier temps, l’objet du porte clef avec l’appareil Yuzz.it serait conservé avant la mise en place de la « car-as-a-platform ». Dans un futur proche, certains constructeurs pourraient proposer directement dans le dashboard de leur voiture, des fonctionnalités et des services à leurs clients. Alors, la licence seule pourrait être proposée au sein de cette automobile du futur.

Au sein d’une API, qui appelle des fonctions de données, il convient de multiplier les partenariats afin de proposer et d’assembler un maximum de services. En effet, face à des géants du web, une solution de reconnaissance vocale et de clipping ne suffisent pas. Aussi, c’est une source supplémentaire de revenus pour les différents clients de yuzz it. Dans le modèle B2B2C, le client final a une expérience client optimisée permise par une récolte de données en opt in du B2B.

Carrefour, pourrait proposer le device Yuzz It aussi à ses clients afin qu’ils se souviennent des produits qu’ils souhaitent mettre sur leur liste de course ou pour récolter des données sur leurs clients. Plus en avant encore, Carrefour pourrait faire payer le device du Yuzz à d’autres fins utiles. Le B2B2C prend ici un autre sens. Carrefour vend son objet mais n’utilise pas en retour les données de l’utilisateur. Cet outil permettrait aux clients de chez Carrefour de (re)commander un produit (comme le dash button pour Amazon) ou à recevoir des push pour des offres pour lesquelles les clients auraient choisi de souscrire. Ce sont des business model totalement différents. Mais Yuzzit, comme nous l’avons dit, peut être un outil de base, un device comme une licence, que les entreprises se réapproprient selon leurs besoins.

Selon le client, il y a donc plusieurs possibilités de “revenue model” :

• Facturation de l’objet : la marque qui commande des boîtiers à Yuzzit facture une somme moins importante que le prix de vente affiché dans les commerces (49€) et réalise du co- branding.

• Facturation de la privacy : Carrefour vend le boîtier yuzzit mais c’est le client qui est au commande de l’objet connecté pour en faire ce qu’il souhaite. Carrefour concurrence ainsi Amazon.

• Objet gratuit versus data : la marque offre l’objet et en récupère la data, un concessionnaire ou le salon de l’automobile auront tendance à choisir ce modèle.

 

2/Le géomarketing, un évolution clivante

Le géomarketing est une fonctionnalité à double tranchant. Tout d’abord, il faut avoir atteint une masse critique pour espérer pouvoir revendre les données de ciblage de manière intéressante pour des partenaires. C’est pourquoi, le géomarketing ne peut être permis qu’à partir d’un certain seuil d’utilisateurs pouvant intéresser des annonceurs ou des partenaires.

Aussi, la deuxième barrière de cette recommandation, vient du opt in. Le yuzz doit avoir accepté de recevoir des offres contextualisées.

En push, Yuzz It pourrait suggérer tant des publicités, que des offres promotionnelles ou des sorties. Pour ce faire, il faut penser un contenu intéressant pour le client en s’associant à des partenaires.

Si cela est bien fait, avec un contenu créatif, voire du gaming, des publicités pensées avec du DCO (Dynamic Creative Optimization) voire personnalisées en fonction des personnes avec un message et un habillage ingénieux, cela peut être gagnant, alors les utilisateurs n’iront pas vers le opt out. Au contraire, avec une publicité ou des push trop intrusifs, l’utilisateur de yuzz pourrait considérer que sa data sert plus les intérêts des annonceurs ou des partenaires que le sien ; alors la mise en œuvre pourra faire échouer cette fonctionnalité.

Enfin, pour les restaurants, le revenu sharing de ce produit est plus complexe. Le restaurant n’aurait aucun intérêt à donner ou vendre l’objet yuzzit tel quel. Aussi, dans un premier temps, yuzz it pourrait être un apporteur d’affaire pour les restaurants. Comme Mapstr, yuzz permet de se souvenir des restaurants où l’on veut aller. Mais si yuzz it convertit une envie en une réservation dans le restaurant, un système de commission pourrait être envisagé. Ainsi, dans un premier temps, Yuzzit doit déjà proposer une API ouverte à des partenaires hôteliers ou de la restauration pour avoir un maximum d’endroits répertoriés. Bien que l’API de Google Maps soit quasiment suffisante, il ne faut pas que Yuzzit soit trop dépendant des données de Google Maps.

D’un point de vue plus stratégique, Yuzzit aurait intérêt à développer les meilleures fonctionnalités de Shazam, de Dash Button d’Amazon, de Mapstr, de Evernote ou encore de Wistiki dès sa version de lancement afin de devenir une killer app.

 

Alix de Goldschmidt

Le programmatique, la publicité personnalisée bientôt à la télévision ?

 

Alors qu’il a déjà fait ses preuves sur le web, l’achat programmatique peine à percer sur le téléviseur. Paradoxe, alors que la télévision connectée (IpTv) est aujourd’hui, le mode de consommation majoritaire en France. Les régies publicitaires semblent saisir les enjeux du marché et lancent leurs premières offensives.

Au premier semestre de 2016, la part du programmatique représentait plus de 50 % du display selon l’Observatoire de l’e-pub du SRI. L’explosion de ce mode d’achat a d’ores et déjà su conquérir le marché publicitaire digitale. Les chaines et leur régie l’ont déjà expérimenté sur leurs plateformes numériques. Malgré son succès, le programmatique peine à percer sur d’autres marchés publicitaires, notamment sur celui de la télévision linéaire.

Cependant, avec près de 80 % de taux de pénétration dans la population française, la télévision connectée (IpTV) possède toutes les capacités techniques nécessaires pour développer l’achat programmatique en Tv. Dans une société où le consommateur est de plus sollicité par les marques, la distribution d’une publicité ciblée et personnalisée pourrait être le remède à cette surpression des messages publicitaires. Les régies publicitaires des chaines se saisissent de la question petit à petit. Les acteurs du marché cherchent, à travers de nouvelles offre innovantes liant offre programmatique et offre classique, à maximiser l’efficacité des campagnes publicitaires.

Afin d’en saisir les enjeux, il est essentiel de différencier la télévision linéaire et la télévision non linaire. La question du programmatique n’appelant pas les mêmes réponses en fonction de la manière de consommer le média Télévision.

Explosion du programmatique sur la télévision non linéaire 

Aujourd’hui, le marché du programmatique, porté par le RTB est en forte croissance ( +50% sur le display et 10% sur la vidéo – en RTB). Malgré les craintes initiales de dévalorisation des espaces publicitaires, aucune destruction de valeur n’est à déplorer. Pourquoi ? Les régies – et leurs chaines – ont su s’entourer de partenaires dont la priorité était de « premiumiser » l’achat programmatique. Les plus connus sont aujourd’hui La Place Média et Audience Square, les deux régies publicitaires programmatiques, leaders sur le marché. Ces places de marché digitale ont mis au centre de leur préoccupation le principe de « brand safety », afin de sauvegarder la valorisation des inventaires publicitaires.

Par ailleurs, les régies misent de plus en plus sur le programmatique direct plutôt que sur le programmatique pur : là où le programmatique pur permet de connaitre la catégorie de site sur lequel la publicité va être délivrée, le programmatique direct permet la connaissance du média précis de diffusion.

Les régies publicitaires se positionnent également sur la data en imposant le système du log. A l’image d’M6, qui ne donne accès au contenu d’M6 Play qu’en échange de data utilisateurs. Pour cela, l’utilisateur à pour obligation de se logger, soit via Facebook connect, soit en renseignant un certain nombre d’informations personnelles type sexe, âge et adresse mail. Cette initiative permet à la régie de développer sa data 1rst party et parallèlement séduire les annonceurs avec une audience qualifiée.

Enfin, les régies publicitaires développent des offres basées sur la data, permettant d’augmenter le ROI de leur campagne grâce à une audience qualifiée, et donc par extension, un ciblage plus précis. L’illustration parfaite est le lancement de Data One par TF1, en partenariat avec Kantar, qui se rapproche des habitudes de consommation en proposant une approche basée sur des GRP par produit – par exemple GRP Sodas ou GRP biscuits. Cette offre permet entre autre de s’adresser à des profils d’acheteurs produit – Exit la ménagère de moins de 50 ans avec enfants – mais également de détecter les décisionnaires d’achat.

Le programmatique est donc bien installé pour ce qui est de la télévision non linéaire tant pour le display que pour la vidéo. Le nouveau challenge pour les régies et acteurs du programmatique d’adapter ce mode d’achat à la télévision linéaire.

La puissance du téléviseur …

La télévision est et reste le média de masse par excellence, idéal pour valoriser son image de marque ou pour les lancements produits. Il permet de toucher la plus large audience de manière efficace et économique, malgré son coût d’entrée élevé. Après l’avoir désertée pendant un temps, les annonceurs reviennent vers le petit écran progressivement.

Malgré tout, la télévision, a dû faire face à une dévalorisation de son inventaire publicitaire. La cause principale réside dans la fragmentation de l’audience, elle-même due à une multiplication de l’offre. Une note une dévalorisation de 37% entre 1993 et 2016. De plus, le temps accordé à la publicité par heure est passé de 9 minutes à 6 minutes depuis 2009. Certains acteurs du marché souhaiteraient remonter ce temps publicitaire à 12 minutes. Cependant, la surpression publicitaire à la télévision (à l’image des USA par exemple) serait une erreur à ne pas commettre, dans une société où le « ras le bol » publicitaire est déjà virulent.

… boosté par le programmatique

La télévision connecté (IpTv), représente aujourd’hui près de 80 % des téléviseurs en France. La technologie est donc là et permettrait la mise en place du mode d’achat programmatique – techniquement parlant. Avec la fragmentation des audiences, les régies ont intérêt à conserver et augmenter la valeur de leurs inventaires publicitaires. Pour cela, la data collectée par les FAI via les boxes (et donc les téléviseurs connectés) est une vraie mine d’or. Les régies lancent d’ailleurs des offres programmatiques allant dans ce sens.
Tout d’abord, l’exemple de TF1 avec son offre One Data, fondée sur une collaboration avec les FAI permettant d’enrichir la data de l’IpTV, apportant une data comportementale, sur les goûts et les manières de consommer des téléspectateurs.

Canal + Régie est à l’initiative du projet ALLADIN (All Ad In). La régie du groupe Canal a voulu réunir toutes les régies publicitaires françaises autour de ce projet plaçant la programmatique au centre des problématiques de rentabilité publicitaire. L’objectif principal de ce consortium est de constituer une large base de données qualifiées, réelle monnaie d’échange unique face au traditionnel Médiamat. La data segmentée « traditionnelles » sera donc couplée avec une approche dite plus « reach ». Autrement dit c’est le rapprochement entre la puissance de frappe de la télévision traditionnelle et le ciblage précis, aujourd’hui possible sur le web.

Cette innovation structurelle du marché est indéniablement en marche. Cette méthode programmatique remplacera-t-elle à terme les méthodes de vente traditionnelle ? Rien n’est moins sûr. En effet, les acteurs du marché imaginent, pour le moment, une solution de complémentarité entre les deux approches. Par ailleurs, les contraintes de la programmatique sur le web ne sont pas les mêmes que sur la télévision. Inconcevable par exemple, d’imaginer un écran noir en cas de non vente d’un espace publicitaire. La mise en vente d’espace publicitaire en temps réel n’est donc pas pour tout de suite.

Il existe sur la média Télé, une barrière législative concernant l’interdiction de la segmentation des messages publicitaires (à l’exception de France 3 régions).

Enfin, imaginons que ce système se révèle efficace et soit mis en place. La question de la propriété des revenus publicitaires devient légitime dans ce marché de plus en plus intermédié. On risque une guerre de pouvoir entre les régies, les agences et les nouveaux arrivant sur le marché, détenteurs de la data qualifiée : les FAI.

 

Alexandra Douffiagues

La responsabilité juridique de Google dans la gestion des campagnes adwords : éditeur ou hébergeur ?

La question du statut juridique de moteurs de recherche tels que Google a créé beaucoup de polémiques. Google est-il un simple hébergeur ? Google est-il un éditeur ?

En qualifiant juridiquement le moteur de recherche, la responsabilité de Google change radicalement.

En tant qu’hébergeur, la responsabilité de Google est allégée : le moteur de recherche n’est pas responsable des contenus mis en ligne. Cependant en tant qu’éditeur, le moteur de recherche serait responsable des contenus puisqu’il exerce un contrôle sur la mise en ligne.

D’après la loi sur la confiance dans l’économie numérique, le statut d’hébergeur permet d’engager la responsabilité simplement si l’hébergeur a connaissance du caractère illicite des données stockées ou bien si le caractère illicite des données stockées a été porté à sa connaissance. [1]

Cette interrogation sur la responsabilité juridique d’un moteur de recherche a délié les langues, la doctrine s’est déchainée sur cette question. La Cour de Justice de l’Union Européenne a tranché le 23 mars 2010 en disant que le moteur de recherche Google était bien un hébergeur. [2]

De ce régime d’hébergeur dont bénéficie Google découle un nombre important de conséquences notamment sur la question de la gestion des campagnes adwords.

  • La responsabilité de Google dans la gestion des campagnes adwords.

Google bénéficie du régime juridique d’hébergeur, mais qu’en est-il pour la gestion des campagnes awdords ?   Google a-t-il un rôle actif ou passif dans la gestion des campagnes adwords ?

La Cour de justice de l’Union européenne le 23 mars 2010 a précisé certains points quant à au régime éditeur/ hébergeur. Elle énonce en effet qu’un prestataire de service comme Google a une activité qui revêt un aspect « purement technique, automatique et passif »[3] et donc doit bénéficier du régime d’hébergeur. La Jurisprudence s’est inspirée de cette solution dégagée par la Cour de justice de l’Union européenne.

La jurisprudence française va devoir se poser la question suivante : Google joue-il un rôle passif ou outrepasse-il ses simples fonctions techniques de « stockage » d’information publicitaire?

Le système de gestion adwords est un mécanisme automatique, le moteur de recherche n’exerce aucun contrôle dessus, c’est la décision rendue par la Cour d’appel de Paris le 11 décembre 2013. La Cour a en effet analysé les conditions de vente et la politique adwords, elle en conclut que Google n’était pas intervenu dans la sélection des mots clés et n’avait pas rédigé l’annonce.[4]

La Cour d’appel le 9 avril 2014 précise que Google  « n’intervient, par son offre AdWords, que comme un prestataire intermédiaire dont l’activité est purement technique, automatique et passive, impliquant l’absence de connaissance ou de contrôle des données qu’il stocke ».[5]

Google est donc un hébergeur dans la gestion des campagnes adwords. Si Google avait la main sur la gestion des campagnes adwords la décision aurait été différente et le régime juridique retenu aurait été celui de l’éditeur.

  • La gestion des campagnes adwords et l’usage de la marque d’autrui

Malgré cette affirmation par de nombreuses décisions de justice sur la responsabilité de Google dans la gestion des adwords, une autre question est soulevée fréquemment et pose problème : Google est-il responsable de la gestion des adwords quant à l’usage de la marque d’autrui ? Concrètement, une société peut-elle utiliser comme mot clé pour se référencer la marque d’un concurrent ?

La jurisprudence a du trancher si oui ou non Google était complice d’actes de contrefaçon et de publicité trompeuse en autorisant un tel référencement. Finalement cette problématique repose toujours sur l’éternelle question du régime hébergeur/éditeur.

Le 13 juillet 2010, la chambre commerciale a rendu trois arrêts dans le même sens. La responsabilité d’éditeur avait été écartée à chaque fois. [6]

Un arrêt de la chambre commerciale du 29 janvier 2013 s’inscrit dans la lignée des décisions rendues auparavant. En l’espèce, une société spécialisée dans le matériel Hi fi dénommée Cobrason a intenté une action en justice contre une société qui utilisait le mot Cobrason comme mot clé pour se référencer dans les liens commerciaux de Google. La question posée était donc de savoir si Google était responsable pour avoir autorisé un tel référencement. La chambre commerciale a énoncé que la gestion des campagnes adwords était un mécanisme automatique et que Google en tant qu’hébergeur n’était pas responsable.

En revanche, du côté de l’annonceur les solutions ne sont pas forcément toutes les mêmes. En effet, dans l’arrêt de la Cour de justice de l’Union européenne rendu le 23 mars 2010, celle-ci a déclaré que les juridictions nationales devaient au cas par cas estimer si il y a bien contrefaçon, concurrence déloyale ou même publicité trompeuse. Les juges du fond se sont saisis de cette opportunité et à plusieurs reprises ont cherché à voir si les annonceurs avaient bien commis une contrefaçon ou étaient coupables de publicité trompeuse.

A titre d’exemple, le TGI de Nanterre a rendu une décision le 6 septembre 2012 et a donné des indices pour estimer si les annonceurs étaient coupables de contrefaçon ou de publicité trompeuse : les juridictions nationales doivent examiner si l’internaute moyennement attentif peut établir un lien entre le site de l’annonceur et le titulaire de la marque en question.

Ces différences de régime entre annonceurs et moteurs de recherche s’expliquent par le caractère passif/actif que chacun d’entre eux exerce. L’annonceur a l’intention en associant les mots clés, il a un rôle actif. Le moteur de recherche tel que Google n’a pas de rôle actif dans le référencement. 

  • Une problématique semblable : Google suggest.

Dans le même esprit, une autre problématique tenant au caractère passif ou actif de Google avait secoué la doctrine. C’était le cas du fameux Google suggest. Le moteur de recherche a intégré à sa barre de recherche des propositions de recherches qui s’affichent en fonction de la recherche de l’internaute.

En 2010, la société Lyonnaise de garantie intente une action contre Google car elle constate que lorsqu’est tapé sur la barre de recherche « lyonnaise de g » des propositions déplaisantes s’affichent pour la société telles que« Lyonnaise de garantie escroc ».

Le 14 décembre 2011, la Cour d’appel de Paris condamne le moteur de recherche puisqu’il dirigeait la publication. Google saisit la Cour de cassation qui penche du côte du géant de l’internet et prononce une décision qui va dans le même sens que celles rendues à propos de la gestion des campagnes adwords : «  la fonctionnalité aboutissant au rapprochement critiqué est le fruit d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats ». [7] 

Pour le moment l’avenir du moteur de recherche semble assuré mais la doctrine étant fluctuante, Google n’est pas à l’abri d’un revirement de jurisprudence.

 

                                                                                                              Angélique de La Tullaye

[1] http://www.lettredesreseaux.com/P-748-454-A1-la-responsabilite-de-google-dans-la-gestion-de-son-service-adwords-soumise-a-examen-ca-paris,-9-avril-2014,-rg-n-13-05025.html

[2](CJUE, 23 mars 2010 affaire C-236/08).

[3] (CJUE, 23 mars 2010 affaire C-236/08).

[4] http://www.haas-avocats.com/actualite-juridique/le-statut-dhebergeur-reaffirme-pour-google-adwords/

[5] http://www.lexplicite.fr/feuilleton-google-qualite-dhebergeur-confirmee-cour-dappel-paris/

[6] https://www.courdecassation.fr/jurisprudence_2/chambre_commerciale_574/arrets_rendus_17008.html

[7] https://www.legalis.net/actualite/cassation-google-nest-pas-responsable-des-suggestions-litigieuses/

L’intelligence artificielle au service de la publicité

Chaque jour, plus de 30 millions de mobinautes utilisent des applications et se retrouvent confrontés à des écrans figés par les publicités interstitielles. Face à cette pression publicitaire qui se fait de plus en plus présente, les consommateurs sont nombreux à s’équiper d’ablockers, on dénombre 419 millions d’utilisateurs en 2016[1]. En France, le phénomène est croissant bien qu’encore assez faible. 7% de la population a installé un bloqueur de publicité ou un outil similaire. Récemment le CSA a estimé que 15% de la population souhaite s’équiper d’un bloqueur [2]de publicité pour se protéger face à la pression publicitaire. Ce phénomène pourrait représenter un manque à gagner important pour les annonceurs et éditeurs. Le cabinet Jupiter Research, estime que la perte pourrait atteindre la colossale somme de 28 milliards de dollars à l’horizon 2020. Depuis l’éclatement de la bulle internet, les revenus publicitaires en ligne ont chutés, et les acteurs du marché ce sont surtout concentrés sur les solutions de retargeting et la performance pour maintenir des CPC ou CPM significatifs[3].

Il va s’en dire que les adblockers pousse le marché de la publicité à se renouveler et dessinent de nouveaux enjeux. Depuis quelques années, le RTB et le programmatique se sont développés et renouvelés pour proposer des plateformes d’achats publicitaires dotées d’intelligence artificielle. Le programmatique permet d’effectuer des achats d’impressions en 150 millisecondes et génère des flux de données considérables, qu’une intelligence humaine ne peut assimiler et analyser. Le recours à l’intelligence artificielle est donc de plus en plus commun et le deep learning permet de cibler avec de plus en plus de précision les profils clients. Pour Eric Clemenceau, directeur de Rocket fuel, ces technologies permettent de sortir du ciblage sociaux-démographiques assez classiques et d’associer un véritable profil à une impression. C’est également l’occasion pour les annonceurs d’optimiser leur investissement puisqu’une entreprise comme Rocket Fuel est capable de faire de la vente en temps réel en y associant du big data.[4] Ce qui signifie qu’il y a la possibilité d’acheter une quantité d’impression importante, tout en acquérant des données précises sur le comportement et l’engagement des prospects[5].

Grâce à ces analyses, les annonceurs identifient non pas un profil par consommateur mais plusieurs profils, la notion de moment, prend de plus en plus d’importance. On souhaite toucher la bonne personne, au bon moment et sur le bon device. Ce sont des données qui ont une importance croissante, dans la mesure ou nos usages varient en fonction des moments de la journée. Un internaute, n’a pas les mêmes envies un lundi soir ou un samedi soir, il n’y aurait pas d’intérêt à l’exposer deux fois aux mêmes campagnes. Ce sont autant d’élément que l’intelligence artificielle permet d’analyser en croisant les données[6].

L’intelligence artificielle n’est pas utilisée qu’au sein du marché programmatique, IBM est actuellement en phase de test pour proposer un outil de ciblage également basé sur IA. Il y a quelques années, IBM développe son programme informatique d’intelligence artificielle capable de répondre à des questions en langage naturel[7]. Après avoir racheté la Weather Company, IBM se lance dans une phase de test pour faire de la publicité cognitive. En se basant sur les données, la météo, et les questions de l’internautes, IBM souhaite développer des publicités interactives. Le projet est encore jeune, mais le groupe a déjà signé des partenariats avec GFK, et la marque de soupe Campbell. L’internaute, pourra interagir avec ses publicités et en fonction de la météo, des ingrédients en leur possession, une recette de soupe sur mesure sera proposée.

Ce type d’avancée représente un moyen de s’éloigner de la publicité intrusive en ligne. Les GAFA[8] dont le modèle économique repose majoritairement sur la publicité, s’intéressent de plus en plus à la question de l’intelligence artificielle. Google développe sa propre activité dans ce domaine grâce à sa filiale du Deep Mind et le service Amazon Echo est également doté d’une intelligence artificielle[9].

Enfin, plus récemment, Axelle Lemaire secrétaire d’état en charge du numérique et de l’innovation lance la mission « France IA » avec pour objectif de définir une stratégie nationale et identifier les atouts du secteur[10].

 

 

Anne-Laure Duperval

[1] http://www.journaldugeek.com/2016/06/02/adblockers-mobile/

[2] https://www.csa.eu/fr/survey/adblocking-la-necessite-d-un-new-deal

[3] http://www.journaldunet.com/ebusiness/publicite/1164357-adblockers-l-iab-fait-son-mea-culpa/

[4] https://hubinstitute.com/2014/08/lintelligence-artificielle-au-service-lachat-despace-publicitaire-hubforum/

[5] http://lareclame.fr/rocketfuel-interview-minute-eric-clemenceau-163606

[6] http://lareclame.fr/rocketfuel-interview-minute-eric-clemenceau-163606

[7] http://www.journaldunet.com/ebusiness/publicite/1187637-ibm-watson-met-de-l-intelligence-artificielle-tans-ses-pubs/

[8] http://digitalpost.ddb.fr/lintelligence-artificielle-quels-benefices-pour-les-marques-et-leurs-consommateurs/

[9] http://digitalpost.ddb.fr/lintelligence-artificielle-quels-benefices-pour-les-marques-et-leurs-consommateurs/

[10] http://www.zdnet.fr/blogs/green-si/engageons-la-reflexion-sur-l-avenir-de-l-intelligence-artificielle-39847462.htm

DATA EN OPN BAR CHEZ PERNOD RICARD

Depuis 3 ans, Pernod Ricard peaufine un prototype de bar à cocktails connecté, l’Opn, qui pourrait disrupter le secteur des spiritueux. Mais la data est-elle le meilleur accompagnement des alcools forts ?

Annoncé depuis 2014 sous le nom de code « Projet Gutenberg », puis rebaptisé« Opn » en 2017 pour un lancement en 2018, le minibar connecté de Pernod Ricard est composé de 29 cartouches amovibles, indépendantes les unes des autres, et dotées d’un bec verseur. Ces dernières sont jetables, une fois vides, et contiennent toutes des alcools brandés Pernod Ricard (Ricard, Chivas, Absolut, Havana Club, Malibu… On recense 15 marques stratégiques locales et 13 marques stratégiques internationales : au total, 28, presque la totalité des cartouches prévues qu’une stratégie de longue traîne pourra ainsi valoriser).

Posée sur un plateau doté d’une puce NFC, la partie physique est reliée à une application mobile via le bluetooth et le wifi. L’application, personnalisée, permet de monitorer les volumes de liquides. Qu’il s’agisse de mixologie, en suivant des recettes de cocktail sur l’application : l’alcool à tirer clignote jusqu’à s’éteindre, quand le bon dosage est enfin atteint. Puis, on passe au deuxième produit à mélanger qui s’allume et ainsi de suite. Ou, qu’il s’agisse de réassortiment : si le niveau d’un alcool est bas, il est immédiatement repéré par l’application en ligne qui le commande automatiquement. L’application est interactive et propose des choix lui permettant de comprendre les goûts de l’utilisateur, au-delà du recensement de ses recherches en pull (300 recettes de cocktails ont été créées à partir des alcools Pernod Ricard et sont disponibles sur l’application dédiée).

La segmentation clients

Ce prototype du BIG (le Breakthrough Innovation Group, la cellule de disruption de la marque) repense la consommation d’alcool autour de trois insights : les nouveaux usages liés à la data, l’accompagnement des produits Pernod Ricard dans une logique de vente et de visibilité soumise aux impératifs de la loi Evin, et la forte culture des bars et de la mixologie. Ces 3 paramètres définissent la cible clients d’Opn : évidemment, un consommateur majeur, connecté, possesseur de nouveaux devices (tablette, smartphone) et utilisateur d’applications. Un consommateur d’alcools, sensible aux innovations produits et technologies (donc, dans un premier temps, des innovators et des early adopters) et indépendant financièrement.

Les baromètres de la consommation de boissons alcoolisées et autres études Nielsen dégagent des trends auxquels les usages d’Opn sont liés et affinent la cible. Dans le monde des vins et des spiritueux, le cocktail reste un puissant créateur de valeur, synonyme d’expérience et d’évasion gustative[1]. En France, les jeunes en sont les premiers consommateurs[2]. Et, 72% des Français déclarent déguster des cocktails chez eux, donc hors des circuits classiques des CHR (Cafés Hôtels Restaurants)[3] [4]. C’est ce segment client plus spécifique qui est visé. En résumé : voilà un consommateur jeune, friand de créativité alcoolisée et que l’on touche chez lui.

L’Opn s’articule ainsi autour d’une logique de commerce everywhere. Le bar connecté transforme un lieu privé avec les marqueurs typiques du CHR (la carte de cocktails, les produits, la mixologie experte du barman) et propose au client une expérience at home riche autour de la convivialité (création d’évènements auxquels on convie ses amis, possibilité de sonder leurs goûts en ligne, création de « before » avant de sortir, etc.).

L’objet connecté inverse la chaîne de valeur usuelle de la consommation de spiritueux. On part du dernier point de contact du parcours client, du « dernier mètre » avant la décision d’achat, pour repenser l’expérience consommateur à rebours d’un marketing top-down. A la question qui travaillait Pernod Ricard, « comment être visible en CHR en proposant des services facilitant l’achat de produits Pernod Ricard », l’Opn a trouvé une réponse inédite : investir les modes de vie cocooning des consommateurs et penser son minibar sur le modèle d’un e-commerce qui agrège les clients ne passant pas par la case CHR.

Un bémol néanmoins : la question de la  substitution des recharges, avec des marques moins chères, pourrait mettre à mal la réussite du business model, à l’instar des fabricants d’imprimante (concurrencées par des fabricants de cartouches d’encre meilleur marché), ou de Nespresso, dont les machines sont devenues compatibles avec des capsules d’autres constructeurs.

L’Opn, une proposition au point ?

Si l’Opn est en dernière phase de test, on peut d’ores et déjà critiquer l’ergonomie du produit et son positionnement.

  • Le pianocktail et la promesse technologique : c’est la source littéraire revendiquée par Pernod Ricard. Dans L’Ecume des jours, l’écrivain crée ce mot-valise (pianocktail) pour désigner un piano bar au sens propre du terme : un piano qui produirait une boisson alcoolisée dont le goût traduirait les sensations éprouvées à l’écoute d’un morceau de musique. Voilà une promesse marketing forte et quasi intenable! C’est davantage la démarche intellectuelle de Vian qui a guidé la cellule BIG : partir d’une expression, « une bibliothèque d’alcools », et la prendre au pied de la lettre pour inventer un produit avec une identité forte. Dans leur communication, le parti pris d’un storytelling revendiquant cette référence brouille l’ADN de l’Opn. On est davantage sur la réinvention de la flasque d’alcool (les cartouches jetables). Les emprunts à l’univers du livre pour customiser l’Opn (ses matières) ne sont justifiés aujourd’hui que pour décomplexer l’achat d’alcool et se rapprocher de la vente en ligne de livres.

Par contrecoup, ce packaging gomme l’aspect tech de l’Opn, à un moment où d’autres solutions connectées existent, notamment le Somabar, une innovation qui intègre les mêmes fonctions en lien avec les nouveaux devices, sans restriction aux marques d’alcool, plus une mixologie automatisée par la machine.

http://www.youtube.com/watch?v=TV_anIhRxJk&feature=youtu.be

  • L’automation du réassort : jamais à sec, l’Opn propose un réassortiment qui, s’il est vraiment automatique, pose problème. Cette fonctionnalité se démocratise pour les produits de consommation présents en grande distribution. On pense à la Smart Drop d’Evian pour passer commande d’eau ou au Dash Button d’Amazon. Avec Pernod Ricard, on est sur une obligation de rappel de consommation avec modération, et un produit très encadré par la loi. Un réassortiment absolument automatique ne nous parait pas envisageable. On suppose que l’application, quand elle détecte le niveau bas d’une cartouche, envoie un pop-up d’information au client. Ce dernier, s’il souhaite recommander l’item, donne son consentement via un opt-in et un écran où le consommateur doit déclarer être majeur (date de naissance à valider). Rappelons aussi la réglementation des ventes à emporter des boissons alcoolisées, interdites entre 22H et 8h, qui suspend la prise en compte de la commande sur ce laps de temps, sans torpiller la promesse marketing (on ne se fait livrer qu’aux heures ouvrables en France).
  • Autre problème lié à la consommation d’alcool fidélisée par la marque : la santé du client. Nous n‘avons pas d’informations sur des menus de l’Opn où le compte client serait associé à une déclaration santé personnalisée. Dans le cas d’un consommateur diabétique, quelle association est possible pour conjuguer le plaisir de la dégustation et le suivi de son bien-être sans obliger à la collecte de data sanitaires? De plus, nous ne savons pas si l’Opn est associé avec une autre application développée par Pernod Ricard : Wise Drinking (suivi de la consommation en temps réel, calcul du taux d’alcoolémie, appel d’un référent ou d’une compagnie de taxis quand le client est en abus d’alcool).

Au final, l’Opn est un puissant collecteur de data sensibles qui engagent l’identité sociale de la personne (sa propension à être plus ou moins fêtard) et, potentiellement, les déviances liées à l’alcool (l’alcoolisme mondain, notamment). Les mesures propriétaires sur les données posées par Pernod Ricard (via sa régulation technique de l’accès à l’application) vont-elles forcément s’accompagner d’accords stricts de confidentialité ? L’adoption sur le long terme des objets connectés est à ce prix…

Nicolas Bauche

[1] Fédération Française des Spiritueux : http://www.spiritueux.fr/maj/phototheque/photos/pdf/ffs_reperes2013.pdf

[2] Baromètre 2014 de la consommation des boissons alcoolisées

[3] Ibid

[4] 54% des consommateurs de cocktails ne consomment pas les mêmes recettes tout au long de l’année (Etude Cocktail, Nielsen, 2016)

Plateformisation des médias : nouveaux défis pour les éditeurs

Une page se tourne dans l’histoire mouvementée des médias à l’ère numérique. Les médias traversent actuellement une période de changement drastique, symptomatique de la révolution du mobile. En moins de cinq ans, la migration des audiences sur le mobile a renversé le rapport de force entre les éditeurs et les plateformes sociales qui distribuent leurs contenus. Désigné par le terme anglais « distributed content », l’expression française est encore plus parlante : la transformation des médias trouve sa suite dans la « plateformisation » des contenus, phénomène selon lequel le succès d’une marque média dépend de sa capacité à distribuer habilement ses contenus hors de son site, sur une multiplicité de plateformes. Les plateformes dont il est question sont bien connues : il s’agit principalement de réseaux sociaux comme Facebook, Snapchat, Instagram, Twitter ou Periscope, d’applications de curation de contenu comme Apple News ou Flipboard, d’applications de messagerie (Viber ou Wechat par exemple) ou de solutions d’intégration de vidéos. Des médias tels que MinuteBuzz en France ou NowThis aux États-Unis capitalisent sur les nouveaux usages en distribuant 100% de leurs contenus via une trentaine de plateformes fédératrices d’une audience mondiale, sur lesquelles nous passons une partie considérable de notre temps. Chacun de ces nouveaux canaux de distribution met en place des technologies pour conserver cette large audience dans son environnement applicatif, au détriment des sites web des éditeurs de contenus. Un tour de passe-passe qui plonge les médias dans une ère où le site web n’est désormais plus le centre de gravité d’une marque média. Quel impact sur l’industrie de contenus ?

Une audience mouvante rendue captive par les plateformes sociales

L’argument principal des réseaux sociaux tient en deux mots : « user first ». Une expérience de lecture optimisée pour le mobile, un temps de chargement significativement réduit, des formats publicitaires maîtrisés et parfaitement intégrés, telle est la logique invoquée par les plateformes sociales pour justifier la mise en place de leurs outils à destination des éditeurs de contenus. De plus, ce mode de consommation est assez naturel, étant donné que les utilisateurs passent déjà une grande partie de leurs temps sur ces plateformes. L’intégration directe des contenus ne fait qu’uniformiser l’expérience. Aux articles, on préfère désormais des formats vidéo courts, basés sur l’émotion, propices à la consommation sur les réseaux sociaux. Les formats live et les productions originales se multiplient également. Ces formats intégrés au sein même des plateformes pourraient devenir une norme pour les médias : Facebook a mis au point les Instant Articles pour permettre aux éditeurs d’héberger leurs contenus directement sur le réseau social, et leur promettant de distribuer leurs contenus là où l’audience se trouve. Snapchat avec Discover, touchant la cible si convoitée des 15-34 ans, distribue les contenus des médias

sélectionnés au sein de sa plateforme, sous des formats repensés pour le réseau social. Google est également dans la course, en développant AMP (Accelerated Mobile Pages), un format allégé, qui à défaut d’être une plateforme sociale, devient un standard à adopter par les éditeurs pour figurer en bonne position sur les résultats de recherche via Google. On pourrait citer encore beaucoup d’autres exemples illustrant ce phénomène de désintermédiation entre marques médias et utilisateurs. En s’appuyant sur leurs audiences colossales pour convaincre les éditeurs, et en proposant aux mobinautes de consulter des contenus dans les meilleures conditions possibles sans être redirigés sur les sites des médias, les plateformes sociales réussissent progressivement à s’accaparer une partie de l’activité de distribution des contenus, et à rendre captive une audience réputée pour sa volatilité et son insubordination.

La question de la monétisation : vers la dépendance économique des médias ?

Le phénomène de plateformisation a ses conséquences : les éditeurs, privés d’une part importante du trafic sur leur sites web, deviennent rapidement le « maillon faible » dans la chaîne de valeur des médias numériques. En effet, qui dit perte de trafic dit perte de valeur aux yeux des annonceurs, entraînant la fragilisation de leur modèle économique reposant pour la grande majorité sur la publicité.

Et les régies des médias dans tout cela ? Elles sont peu à peu supplantées par celles des réseaux sociaux, qui sans les contraindre, les incitent fortement à passer par elles pour une optimisation et une intégration des formats synonymes de meilleures performances. Cela signifie néanmoins, de leur céder un pourcentage variable des recettes publicitaires. Les médias perdent donc progressivement la main sur leur audience, et sur la valeur économique qui leur est associée. Rappelons que Google et Facebook captent plus de 54% des recettes publicitaires mondiales selon les dernières estimations. La conquête de nouveaux lecteurs passe-t-elle donc nécessairement par la dépendance économique envers ces titans du digital ? Souffrant déjà du phénomène des adblockers, l’industrie des contenus en ligne peut aujourd’hui difficilement se passer de l’exposition que leur offre ces gigantesques canaux de distribution.

L’enjeu de la mesure

Une des difficultés majeures à l’ère de la plateformisation des médias est de récolter, traiter et analyser une quantité de mesures différentes provenant de plateformes différentes aux audiences différentes. Passée la première étape de récupération des données via les API des canaux de distribution, comment les analyser sans mesure commune ? Cette dispersion de la data sur des plateformes ayant souvent des définitions différentes d’un même indicateur implique de considérer la mesure de la performance autrement : moins se concentrer sur un total de vues quand on sait qu’une vue peut être comptabilisée à 3 secondes chez les uns et à 1 seconde chez les autres, et se focaliser davantage sur la couverture totale, l’interaction et le fait de toucher à chaque fois de nouveaux utilisateurs. À cela s’ajoute des rapports de mesure d’audience fournis moins régulièrement que par des instances tierces comme Médiamétrie. MinuteBuzz, le premier média européen à avoir opéré sa transformation en média 100% plateformes sociales et 100% vidéo, a suspendu son abonnement chez Médiamétrie et fonctionne désormais sans leur rapport quotidien. Le média ne raisonne donc plus en visites uniques mais en nombre de vidéos vues et en taux de complétion. Néanmoins, ce manque de standard de mesure sur toutes les plateformes complexifie les modèles d’attribution, et a donc un impact sur la monétisation.

La plateformisation des contenus, un phénomène ne pouvant plus être ignoré

Certes, l’adaptation à cette perte de contrôle sera douloureuse pour les entreprises qui ne repenseront pas rapidement leur business model dans le sens d’une distribution multi- plateformes. Mais comme lors de toute transformation de l’industrie, un temps de latence est nécessaire pour définir clairement les règles du jeu, notamment en termes de mesure, d’attribution et de monétisation. Enfin, toute transition de l’industrie offre des opportunités à saisir. Les médias pourront miser sur les options de ciblage toujours plus fines offertes par leurs hébergeurs pour augmenter leur notoriété, repenser une stratégie de contenu adaptée à chacune des plateformes, et redéfinir le rôle de leur site web, avant d’obtenir des réponses aux nombreuses questions qui se posent. D’ici là, l’Internet ne cessera pas de changer de visage.

 

Mariana Durandard
@Mariana_Drd

Quitter la version mobile