L’année 2019 marquera-t-elle la fin du géant Steam ?

Photo by Sean Do sur Unsplash

En 2017, l’industrie du jeu vidéo a dépassé les 4,3 milliards d’euros de chiffres d’affaire en France, ce qui représente un record historique dans le secteur. Aujourd’hui, comme a pu l’expliquer le S.E.L.L, l’industrie est également principalement portée par les ventes de jeux dématérialisés, qui représentent plus de 39% des revenus de l’industrie en France.

Lorsque l’on parle de « jeux dématérialisés », on parle surtout d’un nouveau mode de distribution des jeux vidéo, puisqu’on passe d’une distribution physique à une distribution purement digitale, que ce soit sur console, PC, et plus récemment sur Smartphones et tablettes.

Et s’il y a bien un acteur qui a pu profiter de cette dématérialisation des jeux vidéo, c’est sans nul doute la plateforme de distribution de jeux en ligne. Apparue avec la dématérialisation, son développement est intrinsèquement lié au changement de mode de consommation des joueurs, qui ont de plus en plus tendance à télécharger des jeux en ligne plutôt que les acheter sous format physique.

Cette évolution du comportement des consommateurs est d’ailleurs aujourd’hui très visible pour les joueurs de PC Gaming, puisque plus de 95% des ventes de jeux PC en 2017 se sont faites sous format dématérialisé.

Steam, l’acteur incontournable du PC Gaming

Créée en 2003 par le développeur de jeux vidéo Valve, Steam est la première véritable plateforme de distribution de jeux en ligne sur PC. Elle est aujourd’hui sans conteste devenue le leader de la distribution de jeux vidéo en ligne, avec plus de 21 500 jeux proposés dans sa bibliothèque, dont plus de 7600 jeux sortis rien qu’en 2017. En outre, se sont également l’ensemble des services proposés par la plateforme qui lui ont permis d’atteindre le succès qu’on lui connaît aujourd’hui : on peut entre autres citer les fameuses soldes Steam, très attendues par l’ensemble des joueurs.

Mais la plateforme est également devenue un havre pour les créateurs de jeux et notamment pour tous les développeurs indépendants ; en leur donnant la possibilité de s’adresser aux joueurs plus facilement grâce à une importante désintermédiation du marché. Alors que la distribution physique oblige les développeurs à passer par une multitude d’intermédiaires pour sortir leur jeu, proposer leur jeu sur la plateforme de Valve leur permet de simplifier le processus le plus possible en ne passant que par un distributeur, Steam.

Cette désintermédiation permet aussi aux développeurs de récupérer une plus grosse part du gâteau lors de la vente de leur jeu. En l’espèce, Steam ne récupère que 30% des revenus de la vente d’un jeu en sa qualité de distributeur, ce qui permet pour le développeur de récupérer jusqu’à 60% des revenus sur la vente d’un jeu, soit près de 3 fois plus que pour la distribution physique.

Avec 4,3 milliards de dollars de chiffres d’affaire en 2017, et plus de 291 millions de joueurs, Steam est aujourd’hui la plateforme numéro 1 du PC Gaming en Occident, et ne cesse d’établir de nouveaux records d’année en année puisque la plateforme aurait entre autres réussi à conquérir plus de 63 millions de joueurs rien qu’en 2017.

C’est donc tout naturellement que d’autres distributeurs en ligne ont commencé à apparaître et à se positionner en tant que concurrents de Steam sur le marché. Parmi ces nouvelles  plateformes, on peut entre autres retrouver celle de Blizzard Entertainment (Battle.net), d’Electronic Arts (Origin) ou encore celle d’Ubisoft (uPlay).

2018 : un tournant pour la plateforme ?

Bien que Steam ait été confrontée à de nombreux concurrents depuis déjà plus de 15 ans, 2018 a cependant marqué un tournant sur le marché.

Premier coup dur en été 2018, lorsque Discord, logiciel de communication pour les gamers réunissant près de 200 millions d’adeptes, a lancé sa propre boutique de jeux dématérialisés sur sa plateforme. Alors que Twitch s’était elle aussi décidé à sortir sa boutique de jeux en ligne l’année précédente, Steam s’est alors retrouvée face à une concurrence déjà préétablie sur le marché, avec une énorme base de clients potentiels.

Mais c’est un décembre 2018 que le réel coup dur a eu lieu, avec la sortie de l’Epic Games Store, des créateurs du jeu phénomène Fortnite.

A priori, l’Epic Games Store aurait pu être une plateforme de téléchargement de jeux tout à fait ordinaire, qui aurait pu se noyer parmi une multitude de concurrents déjà bien présents dans le secteur. Cependant, la plateforme d’Epic Games a plusieurs points forts, le premier étant … Fortnite.

Ce qu’il faut savoir dans un premier temps, c’est que l’une des particularités du jeu est que sa version PC n’est uniquement disponible que sur le site officiel d’Epic Games. Avec aujourd’hui plus de 125 millions de joueurs, le jeu a donc réussi à se construire sans l’aide de grands noms de l’industrie comme Steam, puisqu’il n’est officiellement jouable sur PC, console et mobile que depuis octobre dernier. C’est donc en partie grâce à la très forte popularité de son jeu qu’Epic Games a réussi à se faire un nom et à pouvoir s’imposer comme potentiel concurrent de Steam.

Le principal point fort de l’Epic Games Store ne réside cependant pas dans la popularité de la marque auprès des joueurs, mais dans sa capacité à attirer les créateurs sur la plateforme. Avec une promesse d’obtenir près de 88% des revenus de la vente d’un jeu contre ‘’seulement’’ 60% sur Steam, Epic Games se place en effet comme un distributeur intéressant pour n’importe quel développeur. De quoi challenger la place du leader du marché.

Encore plus inquiétant pour Steam, la stratégie d’Epic Games a déjà porté ses fruits ! Ubisoft, le 4ème éditeur mondial de jeux vidéo, a déjà annoncé un partenariat d’exclusivité avec l’Epic Games Store pour la sortie de son prochain AAA, Tom Clancy’s : The Division 2. Ce partenariat ne sera pas sans conséquence pour Steam, puisque Ubisoft est l’un des éditeurs vendant le plus de jeux sur sa plateforme : en 2018, pas moins de 3 jeux de l’entreprise française se situaient dans le Top 12 des meilleures ventes de jeux sur Steam (Far Cry 5, Assassin’s Creed Odyssey, Rainbow Six : Siege).    

Mais s’il y a bien une chose qu’Epic Games ne peut pas retirer à Steam, c’est sa réputation et sa capacité de rétention des créateurs … Ou pas ?  

En l’espèce, cela fait quelques années déjà que l’on reproche à Steam sa mauvaise gestion de sa bibliothèque de jeux. Avec de plus en plus de jeux sur sa plateforme, Steam ne réussit pas gérer l’ensemble de ses titres, et beaucoup d’entre eux, notamment les jeux indépendants, passent très souvent inaperçus aux yeux des joueurs. Il y a donc aujourd’hui trop de choix pour les joueurs et pas assez de visibilité pour les créateurs ; de quoi rendre Epic Games encore plus dangereux s’il réussit à se forger une bonne réputation auprès des développeurs.

De la concurrence sur mobile ?

Si Steam doit faire face à une concurrence acharnée sur PC, elle doit aussi se confronter à l’envolée des applications de jeux sur mobile, et même si les deux univers Mobile et PC ne ciblent pas la même population (casual gamers VS core gamers), l’App Store (Apple) et le Google Play Store (Google) n’en sont pas moins des adversaires qu’il ne faut pas sous-estimer. 

Comme a pu le décrire App Annie, c’est effectivement sur mobile que les jeux ont connu la croissance la plus forte. Ils représentent à eux seuls 74% des dépenses sur les magasins d’applications en 2018, et devraient également atteindre près de 60% du marché des jeux d’ici fin 2019 (+35% depuis 2013).

Et alors que les jeux 100% mobiles comme Candy Crush Saga, Clash of Clans ou Pokemon GO font déjà le bonheur d’Apple et de Google (qui récoltent 30% des revenus pour chaque achat fait dans leur magasin d’applications), il est maintenant possible de télécharger des jeux originellement disponibles sur PC.

Ainsi, de grands titres du jeu vidéo comme Final Fantasy XV, Minecraft ou Grand Theft Auto sont aujourd’hui disponibles sur mobile ; mais on peut surtout y retrouver des jeux comme Firewatch, FEZ, Inside ou encore Life is Strange : des pépites du jeu indépendant encore inconnues du grand public avant leur sortie sur mobile.

Alors que le jeu indépendant a fait la gloire de Steam par le passé, leur arrivée sur mobile ne peut être que de mauvais augure pour la plateforme de Valve. Tout comme avec l’Epic Games Store, on pourrait tout à fait envisager que les développeurs décident de prioriser d’autres canaux de distribution que celui de Steam pour sortir leurs dernières nouveautés, en les sortant par exemple d’abord sur mobile, puis sur PC.

Et cela pourrait arriver beaucoup plus rapidement que prévu si Steam ne réussit pas à maintenir sa position de leader sur le marché et à retenir l’ensemble de ses développeurs sur sa plateforme …

Affaire à suivre. 

Eva Hulin

La publicité en ligne et les enfants : stratégies pernicieuses d’acteurs du net

Les enfants sont de plus en plus nombreux à passer du temps sur des applications de jeux sur smartphone. Elles sont devenues des activités incontournables des plus jeunes. Apprendre l’alphabet, entretenir un jardin ou être docteur de peluche, les concepts sont très variés.

Nombre d’entre elles sont gratuites et leur modèle d’affaire pose alors question. En effet, afin d’assurer un modèle économique pérenne, la publicité est le produit largement adopté par les créateurs d’application.

L’Université du Michigan a mené une étude sur les applications mobiles destinées aux jeunes enfants de moins de 5 ans. Elle met en avant les stratégies publicitaires des éditeurs d’applications pour enfants. Sur près de 150 applications testées, les chercheurs montrent que 88 % des applications payantes et 100 % des applications gratuites contenaient de la publicité. 

Bien que la publicité envers les enfants de moins de 13 ans soit très encadrée par la loi en France comme aux États-Unis. Il semble néanmoins que certains fournisseurs de contenus déploient des stratégies publicitaires parfois redoutables.

L’étude de l’Université du Michigan met notamment en cause l’application Doctor Kids éditée par Budadu disponible sur le Playstore de Google. Le jeu sensibilise les jeunes enfants aux pratiques médicales. Mais, sous couvert de cet aspect récréatif, l’application semble marcher sur une corde sensible concernant les règles de publicité. En effet, l’enfant peut acheter des accessoires payants pour évoluer dans le jeu. Pour les pousser à l’achat, l’éditeur a établi une rhétorique discutable. Le Figaro rapporte que « si l’enfant refuse d’acheter les accessoires virtuels payants du jeu, l’un des personnages se met à pleurer. »

L’Autorité de régulation professionnelle de la publicité formule des dispositions générales, reconnues par l’ensemble des professionnels en France. Elle formule les obligations suivantes « 7.1 La publicité ne doit pas suggérer que la seule possession ou l’utilisation d’un produit donne à l’enfant un avantage physique, social ou psychologique sur les autres enfants de son âge, ou que la non-possession de ce produit aurait un effet contraire. » et « 7.2 La publicité s’adressant aux enfants ne doit pas susciter un sentiment d’urgence d’achat ou suggérer que cet achat possède un caractère indispensable. » Le constat est pourtant clair, cette application associe le refus d’achat à quelque chose de douloureux, en jouant sur l’émotionnel et l’affectif particulier développé des enfants. L’éditeur de l’application est garant des contenus publicitaires mis en avant dans son application. 

Mais un autre acteur mérite également une attention particulière : Google. Le géant du web distribue Doctor Kids depuis son magasin d’application. Avant d’y être disponible, les applications doivent répondre à certaines conditions. Les applications pour enfants doivent répondre au programme Designed for Families. Ce programme fournit un ensemble de contraintes liées aux contenus publicitaires notamment ce qui suit « Il doit être possible de distinguer clairement les annonces du contenu de l’application ». Dans le cas de Doctor Kids, il est indéniable que le contenu publicitaire est dissimulé dans l’univers du jeu puisqu’un personnage du jeu auquel l’enfant joue se met à pleurer lorsque ce dernier refuse d’acheter des accessoires. L’univers immersif des applications peut être un danger pour les enfants puisque la publicité est intégrée dans un environnement de divertissement. 

Malgré le fait que Google paraisse transparent sur sa politique envers la publicité, il n’empêche que des failles apparaissent dans la plupart des nombreux produits proposés par la firme. En témoigne notamment l’affaire sur les publicités ciblées envers les enfants de moins de 13 ans sur Youtube en 2016. La plateforme de vidéos en ligne officiellement interdite aux moins de 13 ans est tout de même une pépinière de dessins animés et de comptines pour enfants. YouTube semble délibérément tenter d’attirer ce jeune public sur sa plateforme. En effet, Little Baby Bum se classe comme la 9ème chaîne la plus populaire. La chaîne propose des vidéos où des personnages chantent des comptines. Cumulées, ces vidéos totalisent près de 18 milliards de vues. Vingt-trois associations de défenses des droits des enfants aux États-Unis ont attaqué la plateforme et la société-mère Google pour pratiques illégales. La loi américaine est relativement similaire à la loi française dans ce domaine : le Children’s Online Privacy Protection Act (COPPA) interdit la collecte en ligne d’informations personnelles sur les enfants de moins de 13 ans, sans le consentement vérifiable de l’un des deux parents. Néanmoins, le géant collecterait un nombre colossal de données sur les enfants pour les revendre aux publicitaires dont leur localisation, leur numéro de téléphone ainsi que le modèle d’appareil utilisé alors même qu’il se défend de faire de la publicité ciblée pour les enfants partout sur internet.  

Les enfants sont en effet une cible marketing particulièrement intéressante pour ces empires du net. Ils sont les acheteurs de demain. En les conditionnant dès le plus jeune âge à des comportements d’achat, les entreprises s’assurent des clients fidèles par la suite. Mais ils sont également des prescripteurs d’achat hors pairs. L’enfant a un réel rôle dans les comportements d’achat des adultes, il reconnaît les marques, il a des préférences. La marque Peugeot l’avait d’ailleurs bien compris avec son slogan pour sa voiture 806 : « 806, la voiture que les enfants conseillent aux parents.» En effet, selon Kantar Media en 2016, 47% des mères d’enfants de 0 à 14 ans estiment qu’il est bon de les consulter pour des achats qui les concernant tandis que 30% des mères achètent toujours les marques préférées de leur enfant. Le Baromètre Conso-Famille 2016 montre quant à lui que la prescription des enfants dans les achats alimentaires est particulièrement forte sur les produits pour le petit déjeuner et le gouter. 

Mais l’enfant est également celui qui dispose d’un certain pouvoir d’achat. « À partir de 8 ans, l’enfant commence à s’intéresser au monde des adultes, demande de l’argent de poche et davantage d’autonomie, recherche l’approbation de ses pairs. L’entrée au collège marque le passage vers l’adolescence et ses changements physiques, l’intégration de nouvelles règles, plus seulement celles de la famille mais émanant aussi du clan », résume Xavier Terlet, directeur du cabinet XTC World Innovation. Grâce à l’argent de poche, les enfants deviennent des cibles marketing avec une forte propension à payer pour un produit. Cet argent de poche représentait en 1,1 Mrd € en France en 2016 et LSA Conso note que les enfant n’ont aucun mal à doubler la valeur de leur argent de poche. En effet, cet argent est souvent gardé à la maison et ce sont souvent les parents qui avancent l’argent mais qui ne se font pas souvent remboursé des achats impulsifs de leurs enfants. Par ailleurs, selon Junior City, plus de 80% des 4-14 ans ont un livret d’épargne pour un montant moyen de 1 400 €. 

Ainsi les géants du net ont bien compris l’eldorado que représente la jeunesse connectée dans le ciblage marketing et semble redoubler de stratégies pour les atteindre de manière parfois pernicieuse. 

Valentine Tucoulat

SOURCES

https://www.michigandaily.com/section/research/university-study-finds-excessive-inappropriate-ads-apps-children

https://www.clubic.com/application-mobile/actualite-846883-apps-enfants-truffees-publicites-manipulatrices.html

http://www.lefigaro.fr/secteur/high-tech/2018/04/09/32001-20180409ARTFIG00154-publicites-youtube-accuse-d-avoir-illegalement-cible-des-enfants.php

http://www.lefigaro.fr/medias/2018/09/17/20004-20180917ARTFIG00160-little-baby-bum-l-empire-des-videos-youtube-pour-enfants-qui-vaut-des-millions-d-euros.php

https://www.arpp.org/nous-consulter/regles/regles-de-deontologie/enfant/#toc_0_7

https://developer.android.com/google-play/guides/families/

https://www.lsa-conso.fr/les-kids-petits-et-deja-grands-consommateurs-dossier,239946

LE DROIT A L’OUBLI POUR LES MINEURS

LE DROIT A L’OUBLI POUR LES MINEURS

En partant du constat que la nouvelle génération est hyper connectée, il convient de souligner que les mineurs sont les plus vulnérables car ils sont remplis d’insouciance et ne voit pas le mal.
En parallèle, cette jeunesse est prématurément présente sur les réseaux sociaux et toujours plus exposée pour mieux s’intégrer ou montrer son appartenance à une communauté. Les mineurs se doivent d’être protégés des « erreurs de jeunesse », ils auront l’occasion de les regretter dans le futur que ce soit sur un plan professionnel ou personnel.

L’objectif du droit à l’oubli est de protéger la vie privée de toute personne physique, mais ce droit est encore plus important pour la jeunesse.

En effet, une enquête Ipsos de 2017 révèle que 80% des 13-18 ans ont un smartphone, en 2016 ce chiffre était de 77%. Cette augmentation n’est pas sans conséquences et prouvent que les enfants sont très autonomes sur internet car ils ont de plus en plus accès aux terminaux comme les tablettes ou les smartphones.

Cet article fera un parallèle entre l’exposition voulue par les mineurs sur internet et la protection juridique qui leur est offerte avec un droit à l’oubli renforcé.

Une exposition souhaitée par la jeunesse

Dans la majorité des cas, les mineurs semblent conscients et consentants à publier des informations personnelles les concernant sur internet, mais cela soulève une interrogation sur la valeur du consentement exprimé et sur leur maîtrise des contenus.

Concernant la valeur du consentement exprimé, la justice se trouve face à une problématique déjà étudiée de nombreuses fois.
La question de la protection de l’enfant est assez délicate car il faut à la fois permettre une certaine indépendance et autonomie que le mineur acquiert automatiquement à ses 18 ans ; mais il faut aussi l’accompagner dans ces démarches.
Dans un premier temps, la famille et les parents représentent le premier cercle qui a le devoir de protéger les mineurs et les conseiller face à leur exposition sur les réseaux sociaux et sur internet de façon générale. En effet, les jeunes utilisent les réseaux sociaux et consentement à le faire.
La problématique est que juridiquement le mineur est considéré comme incapable, l’objectif étant d’accompagner le mineur vers une totale autonomie juridique. Les jeunes peuvent en effet accomplir des actes de la vie courante, c’est à dire qui ne leur feront pas courir de risque. L’utilisation d’internet n’est pas considérée sans danger, notamment à cause du partage des données personnelles. C’est pourquoi, le représentant légal du mineur doit donner son consentement.

Cette notion de consentement est d’autant plus importante depuis l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD) le 25 mai 2018. Le consentement des personnes est une base légale autorisant la mise en œuvre de traitements de données à caractère personnel. Ce consentement se définit par quatre critères cumulatifs, il doit être libre, spécifique, éclairé et univoque.

Ce règlement européen a permis aux Etats membres de choisir un âge minimum pour considérer l’enfant mineur sur internet, dans une limite entre 13 et 16 ans. La France a choisi que pour tout mineur âgé de moins de 15 ans, le traitement des données n’est licite que si le consentement est donné par le titulaire de la responsabilité parentale. Au-delà de 15 ans, la loi « Informatique et Libertés » permet de recueillir le consentement de la personne sans autorisation, c’est l’âge de la maturité numérique.

La difficulté de conformité à ce principe réside dans la possibilité de vérifier que les parents donnent réellement leurs autorisations d’accès à un site internet ou permettent la publication de certaines informations.

En ce qui concerne la maitrise du contenu en ligne, l’identification de l’âge de l’utilisateur avant de donner l’accès à un site web représente une autre problématique. Les sites internet interdits aux mineurs sont essentiellement ceux à caractère pornographique ou ceux qui concernent les jeux en ligne.

Les authentifications en ligne nous interrogent sur la véracité des informations fournies par les utilisateurs. Il est très difficile de savoir l’âge de l’internaute, ou son identité quand il suffit de cliquer sur « valider » tout en sachant que les sanctions suites à ce type de mensonges sont presque inexistantes.
Cependant des solutions existent avec des sites internet à authentification forte qui permettent de s’assurer de la véracité de la majorité d’une personne.
A titre d’illustration, il est possible de souligner le développement de certains sites français permettant l’accès à des organismes gouvernementaux qui peuvent nécessiter que la personne se déplace physiquement pour prouver son identité, accompagnée de sa carte d’identité. Cette solution pose un problème de protection du respect de la vie privée et d’un côté pratique. Mais cela reste une option envisageable pour s’assurer de la majorité d’une personne.

Ainsi, malgré le fait que les mineurs veulent s’exposer sur les réseaux sociaux ou internet, ils pourront faire une demande de déréférencement et faire valoir leur droit à l’oubli.

Le droit à l’oubli renforcé aux mineurs

Le droit à l’oubli sur internet est assez paradoxal car il y a dans l’esprit collectif une idée d’éternité avec les capacités infinies offertes par le numérique et cette potentielle mémoire éternelle.

Les premiers à s’être intéressés à cette notion spécifiquement pour les mineurs sont les Etats-Unis avec la loi californienne Erase Law du 1er janvier 2015 qui est la première tentative pour reconnaitre officiellement un droit à l’oubli dans le cadre de la protection des mineurs. Ces derniers peuvent demander le retrait définitif de certaines informations de leur identité affichée sur le web. 

Il est important de souligner que cette loi n’a pas permis le déréférencement, en revanche c’est ce qui a été rendu possible par le RGPD et la Loi du 7 octobre 2016 pour une République numérique. C’est la première fois que textuellement on écrit le mot « droit à l’oubli » dans ce RGPD.

Le droit à l’oubli est une notion qui a été étudiée par la Cour de Justice de l’Union Européenne et permet de rendre les moteurs de recherche responsables du traitement de données à caractère personnel et peut être tenu de supprimer ces données suite à une simple demande.

Depuis l’arrêt Google Spain rendu par la CJUE le 13 mai 2014, le droit au déréférencement est reconnu, ce n’est pas le contenu de l’information qui est supprimé mais son accessibilité via le moteur de recherche. Une personne physique peut exiger d’un exploitant d’un moteur de recherche comme Google ou Yahoo qu’il supprime certains liens. L’exemple type concret est de demander de supprimer les liens internet qui apparaissent après avoir réalisé une recherche en inscrivant son nom. Ce qui peut aussi poser problèmes, ce sont les liens vers des pages web publiés par d’autres utilisateurs qui feraient mentions de données personnelles.

L’article 17 du RGPD prévoit pour toute personne un droit à l’effacement de ses données personnelles après en avoir fait la demande. Désormais, l’article 40 de la loi Informatique et Libertés prévoit un droit à l’oubli spécifique aux mineurs et une procédure accélérée pour l’exercice de ce droit. Pour cela, il faut que la personne concernée ait été mineure au moment de la collecte des données, elle pourra demander de les effacer peu importe qui les a postées.

Si une plateforme refuse de répondre ou répond de façon négative dans un délai d’un mois, la personne pourra saisir la CNIL qui disposera alors de trois semaines pour répondre.

Techniquement, il est possible de demander aux moteurs de recherche certains résultats associés à son nom et prénom ou même à des photos ou vidéos.
Le droit à l’oubli pour les mineurs est en effet renforcé car il faudrait pouvoir demander aux sites internet d’effacer sans justification et rapidement toutes les informations personnelles d’un enfant mineur. Le déréférencement, c’est le fait de demander au moteur de recherche de supprimer le résultat de l’expression.

Enfin, il est possible de se poser la question de l’effectivité d’un renforcement de la protection du mineur, car en parallèle beaucoup de professionnels de l’éducation estiment qu’il est nécessaire d’éduquer les mineurs et que le droit actuel les surprotègent et les déresponsabilisent notamment dans des situations d’injures, d’harcèlements ou de diffamation causés par des mineurs sur internet. Beaucoup d’affaires prouvent que banaliser des actes contraires aux bonnes mœurs et qui peuvent même être pénalement répréhensible n’est pas constructif dans l’éducation de cette jeunesse connectée et peut être nuisibles dans leur avenir.

Caroline Oury

LES INFLUENCEURS VIRTUELS : L’AVENIR DE LA PUBLICITÉ DIGITALE ?

La façon de vendre un produit a évolué et les influenceurs sont une réelle opportunité pour les marques afin de faire connaître leur produit auprès d’une audience spécifique.

Vous avez dit « influence » ?

Action vieille comme le monde, l’influence voit ses premières pratiques théorisées dés le début du XXème siècle par Edward Bernays pour l’industrie. Le terme a peu à peu évolué pour s’individualiser (notamment grâce aux ciblages de plus en plus précis des algorithmes auprès des populations). Le Larousse définit l’influence comme un « pouvoir social et politique de quelqu’un, d’un groupe, qui leur permet d’agir sur le cours des événements et des décisions prises ».

Pour l’Autorité de régulation professionnelle de la publicité (ARPP) un influenceur« exprime un point de vue ou donne des conseils, par écrit, audio et/ou visuel, dans un domaine spécifique et selon un style ou un traitement qui lui sont propres et que son audience identifie». L’objectif affiché est clair : il faut marquer les esprits.

L’efficacité de l’influence

Même si 69% des consommateurs Français se déclarent plutôt libres dans leurs choix d’achats (faisant d’ailleurs plus confiance à leurs pairs qu’aux influenceurs pour prendre une décision d’achat) ; les millenials, plus influençables, restent attachés aux conseils (Etude internationale de Bazaarvoice, menée auprès de 4000 personnes en France, au Royaume-Uni et en Allemagne). Les 18-24 ans se montrent particulièrement sensibles aux discours et aux informations disponibles en ligne comme les commentaires ou les avis. Aussi, 80% des jeunes Français déclarent avoir découvert un produit ou une nouvelle marque directement via à un influenceur. Enfin, 70% des 18-24 ans pensent que le rôle des influenceurs va s’accroître dans les prochaines années (Etude Harris Interactive pour l’Obersvatoire Cetelem)

Ce qui fait dire à Flavien Neuvy, Directeur de L’Observatoire Cetelem, que le rôle des influenceurs virtuels va s’accroître, « cette tendance amène de plus en plus de marques à réfléchir sur la répartition de leur budget publicitaire. De très nombreux Youtubeurs spécialisés font des audiences supérieures aux chaînes d’information en continu avec un public très ciblé. Instagram, et désormais Snapchat, sont les terrains de jeu des influenceurs ». Les marques l’ont bien senti et les plus influentes ont investi massivement dans leur propre influenceur, sorte de robot virtuel au service des produits de l’entreprise.

Une révolution à pas de velours

Dans ce nouveau monde, oubliez les séances de shooting photo, les retouches maquillage et la mythique Jane Fonda (même si elle le vaut bien). Les marques se tournent de plus en plus vers des mannequins 2.0 pour assurer (et verrouiller) leur communication digitale. 

Vraie révolution dans l’univers de la publicité digitale depuis 2016, les influenceurs virtuels brouillent les pistes et naviguent entre fiction et réalité. Mais ce n’est que depuis quelques mois qu’ils débarquent massivement sur les réseaux sociaux. Instagram, avec plus de 800 millions d’abonnés, est leur terrain de jeu numéro 1. 

Sorte de personnes numériques animées, jamais malades, infatigables, polyglottes, malléables, sans limites de temps ou de lieux et éternellement jeunes, ces êtres virtuels ont de quoi séduire et rassurer les annonceurs. Avec eux, les marques gèrent au maximum la communication de leurs produits sur les réseaux. Alors qu’avec un influenceur classique elles ne maîtrisaient pas les photos prises et publiées, les marques ont ainsi trouver le moyen de répliquer en misant sur un influenceur virtuel maison.

Les marques et leur influenceur virtuel

Ces mannequins artificiels et animés envahissent les comptes des plus grandes marques (Dior, Prada, Louis Vuitton, Buccellati, Chanel, Converse etc) habillés et guidés par les services de communication. Alors que 71% des marketeurs considèrent le marketing d’influence comme stratégique (selon Traackr, In EBG Marketing digital 2018), le storytelling est millimétré, qualibré et différent selon les listes de publication pour toucher au plus juste. Tout peut être préparé, planifié des semaines à l’avance et testé sur des échantillons.

La plus célèbre, Miquela, a été créée par une start-up californienne, présentée comme une « agence de gestion de talents artificiellement intelligents ». L’entreprise a récemment levé plusieurs millions de dollars pour développer son activité. Le succès est au rendez-vous puisque Miquela est suivie par 1,5 million d’abonnés sur Instagram ( début janvier 2019, image au centre) .

« Égérie actuelle du joailler italien Buccellati, la top model digitale Noonoouri est apparue en février 2018 et cumule plus de 210 000 abonnés sur son Instagram. Elle est aussi influenceuse mode et s’invite virtuellement aux grands évènements liés au luxe. Lors du défilé Croisière 2019 de Dior, Noonoouri a pris les commandes du compte Instagram de la marque pour faire vivre le show à ses abonnés. Fin août 2018, le directeur artistique de Balmain, Olivier Rousteing dévoilait sa « Balmain Army » sur Instagram, un trio de choc composé de trois égéries virtuelles multi-ethniques. Les trois filles reprennent les codes traditionnels de la beauté pour porter les produits de la marque.

Un flou souhaité par les annonceurs ?

Misant la carte du numérique et du virtuel avec des entités sur mesure entretenant, les marques créent parfois la confusion. Le photographe londonien Cameron-James Wilson a annoncé que les images de la mannequin Shudu Gram, 160 000 abonnés, étaient le fruit d’une création 100% numérique. Mais après cette annonce, certains followers « continuent de penser que Shudu est une personne humaine, tandis que d’autres croient à une gynoïde (un robot qui aurait l’apparence d’une femme) » selon les constats du photographe créateur.

Selon certains spécialistes de la communication ce « flou artistique maintenu volontairement autour de ces célébrités biodigitales permet d’entretenir le mystère utile à la communication des marques. Le doute profite à ces influenceur·se·s d’un nouveau genre, qui font progresser la notoriété des entreprises de manière plus créative et en phase avec leur temps ».

Quoiqu’il en soit, la communication, et au delà, la publicité sur les réseaux sociaux est en train de vivre une nouvelle révolution. Grâce au virtuel, les marques se réapproprient leur communication sur les réseaux en créant des célébrités biodigitales collant à 100% à l’ADN de l’entreprise. Ce nouveau débouché est un formidable vecteur de croissance mais une source non négligeable de problèmes.

Le mariage du réel et du virtuel fait évoluer ces nouveaux êtres bio-digitaux dans l’inconnu. Selon certains spécialistes, on pourrait rapidement devenir « otage de ces créatures ». Que pourrait-il se passer en cas de piratage informatique ? En cas d’erreur de communication, est-ce à la personne virtuelle à s’excuser ou à la marque directement ? Qui est responsable de l’influenceur virtuel ? Son créateur technique ou celui qui le fait vivre au quotidien ?

Plus préoccupant encore, les influenceurs « classiques » en chair et en os devront-ils eux aussi adopter les nouveaux codes et langages corporels stéréotypés des personnages virtuels ? Même si certains y voient une formidable occasion de créativité, d’autres tirent la sonnette d’alarme.

Le 28 novembre 2018, l’ARPP (Autorité de régulation professionnelle de la publicité), s’est interrogée sur l’identification des publications comme des communications commerciales. Via son observatoire des pratiques publicitaires digitales, l’Autorité mène actuellement plusieurs études afin de réguler les posts de ces influenceurs virtuels.

Visiblement dépassés par le phénomène, les acteurs français de la régulation sont encore dans une phase d’observation active face à ces nouvelles « créatures » qui jonglent entre la communication visuelle classique (les rapprochant du comportement humain) et la communication technologique (produite par des procédés issus de l’informatique). Leur identité n’étant à aucun moment clairement définie. S’agit-il de modèles informatisés ? D’hologrammes ? D’êtres humanifiés ? D’avatars mis en scène ? De créatures virtuelles ? De robots ? La boîte de pandore semble ouverte, comme souvent avec le numérique…

Le droit dépassé par ces nouvelles créatures

Alors que les médias sociaux permettent de créer, de faire vivre et de suivre ces modèles artificiels, les questions juridiques sont nombreuses. Les influenceurs en chair et en os ont des partenariats protéiformes. Ils peuvent parler d’un produit en toute indépendance, être sponsorisés ou être dans une relation contractuelle (contrat de mannequin pour la plupart) avec une marque.

Comme souvent avec le numérique, les usages précédent le droit et la rapidité d’exécution ne laisse pas le temps de s’interroger sur les éventuels problèmes de ces nouvelles pratiques. En toute logique, l’influenceur virtuel est le fruit d’une oeuvre collective qui engage la responsabilité du chef. Mais qui du service informatique ou de celui de la communication portera la responsabilité finale des faits et gestes du mannequin ? Vers qui pourra se retourner un internaute ou une association qui se sentira visée par une publication d’un influenceur virtuel ?

Une frontière perméable entre le réel et l’imaginaire 

Plus largement, les journalistes Yoree Koh et Georgia Wells du Wall Street journal s’interrogent à savoir « dans quelle mesure peut-on être authentique si vous n’êtes même pas un être réel ? ». Contrairement à un film, où la frontière entre le réel et l’imaginaire est clairement établi, ici, l’influenceur évolue dans un univers fait de manipulation, d’artificialité et de tromperie sous couvert de coller le plus fidèlement à la réalité. C’est souvent à trop se regarder que l’on chute. La littérature en est témoins… Pour générer du trafic, les marques inventent une vie au personnage ; la narration déployée attire et suscite la curiosité pour une vie que l’on ne sait pas toujours artificielle. Mais jusqu’à quel point pourront aller les marques dans cette nouvelle guerre de l’influence ?

Se pose clairement la question de l’acceptation d’un être non humain au sein des réseaux sociaux. Réseaux dont la promesse est pourtant de miser sur les liens sociaux.

Éléments de réponse au pays du soleil levant où le succès de la chanteuse holographique Hatsune Miku ne se dément pas. L’artiste 2.0 se produit à guichet fermé. Toutefois, selon Natalie Dillon de société Maveron, le Japon a, de part sa culture, une avance considérable sur l’Europe et les Etats-Unis d’Amérique sur ce genre d’approche. Au delà de l’influence, c’est l’ensemble des domaines artistiques qui sont en train de voir apparaître une concurrence biodigitales, mélange d’humain et de numérique.

Florent CHABANEL

Bibliographie

  • Marketing digital 2018, EBG, Laetitia Theodore, Brice Blanquier
  • « Et si les futurs « influenceurs » n’étaient pas humains ? », Rémi Lévêque, usbeketrica.com.
  • « Ces 5 mannequins virtuels qui font un carton sur Instagram », Margaux Dussert, L’ADN.eu/media.
  • « Le business d’une influenceuse virtuelle, »Yoree Koh, Georgia Welles, L’opinion.
  • « ARPP Influenceurs et marques : quelles bonnes pratiques de loyauté et de transparence ? », Média Institute.
  • « COMMUNICATION D’INFLUENCEURS ET MARQUES, nouvelles dispositions adoptées dans la Recommandation ARPP Communication publicitaire digitale », ARPP.org.

AMAZON : LE NOUVEAU GÉANT DE LA PUB ?

 Actuellement, le marché français de la publicité online est accaparé par deux acteurs, que sont Google et Facebook. En effet, ces derniers captent près de 2/3 des investissements, mais plus pour longtemps… Un nouvel entrant est en train de bousculer la hiérarchie : il s’agit d’Amazon qui investit depuis deux ans dans une offre publicitaire baptisée Amazon Media Group. Ce dernier est déjà connecté aux principales places de marché : Google Adexchange, Appnexus, Rubicon Project…

Parviendra t-il à casser le duopole actuel ? 

Il faut savoir que la publicité d’Amazon se concentre sur des produits sponsorisés. Via Amazon Media Group, les annonceurs vont payer pour mettre en valeur leurs produits et accroître leur visibilité sur la plateforme. Concrètement, Amazon propose des bundles « media + data » (offre promotionnelle où un ensemble de produits complémentaires sont vendus ensemble par lot pour attirer les clients) aux agences. Le business model d’Amazon étant très orienté vers le commerce en ligne, Amazon s’efforce donc de créer des campagnes attractives qui renvoient vers l’espace commercial de l’annonceur au sein du site.

Des atouts indéniables

On le sait tous, la monétisation des données personnelles est désormais l’or noir du 21ème siècle, ce qui se vérifie avec les résultats de Google et de Facebook. Sur ce terrain, Amazon ne cache pas ses ambitions : avec près de 4,5 millions de visiteurs par jour et 10 à 21 millions par mois en France (source : Médiamétrie), Amazon est un siphon à data. 

Selon Gartner, l’entreprise a le potentiel nécessaire pour devenir un leader de la publicité numérique au même titre que Google et Facebook.

En fait, le modèle économique est très simple : le but est de récolter le plus d’informations personnelles sur les internautes afin de les revendre aux acteurs de la publicité, annonceurs et agences. Amazon aurait donc un double avantage concurrentiel avec les autres vendeurs d’espaces publicitaires : d’un côté une possession de data énorme, et de l’autre des clients vis-à-vis des marques qui achètent ces espaces publicitaires.

Ainsi, sa force réside dans toutes les informations qu’il détient sur ses clients : 40% des visiteurs d’Amazon sont des acheteurs, selon le PDG de Performics France. Or, cette data transactionnelle n’est pas possédée par Google et Facebook. 

Dès lors, les équipes commerciales travaillent ensemble à la création des clusters d’audience, en fonction de la cible visée. 

Par exemple : un annonceur qui cible les CSP+ pourra se concentrer sur les détenteurs d’American Express. 

Autre atout non négligeable, le programme de livraison « Premium » permet de « verrouiller » près de 4 millions de clients et de proposer aux annonceurs une data géolocalisée de qualité. La base de données d’Amazon serait segmentée à partir des adresses de livraison qu’il détient pour cibler des endroits particuliers (un quartier ou une zone précise de Paris). 

Concrètement, Amazon est prêt à payer chère une data transactionnelle qu’il est difficile de trouver ailleurs même si son coût est, de fait, plus élevé que celui de la donnée socio-démo standard.

Pour parler en chiffres, au cours du troisième trimestre 2018 clôturé fin octobre, Amazon a vu son chiffre d’affaires généré par la publicité exploser de +122% sur un an, passant de 1,1 milliard à 2,5 milliards de dollars. 

« Les annonceurs américains devraient dépenser 4,61 milliards de dollars sur Amazon au cours de l’année 2018 », (cabinet eMarketer). L’entreprise de Jeff Bezos obtiendrait alors une part de marché de 4,1% aux États-Unis, contre 20,6% pour Facebook et 37,1% pour Google.

Un modèle encore fragile pour le moment

Il a été dit plusieurs fois qu’Amazon était un des meilleurs dans le real-time bidding côté ROI, même s’il reste derrière Google AdWords et Facebook. 

Cependant, il est clair que le DSP (Demand Side Platform) d’Amazon laisse à désirer pour le moment puisque les « bugs » sont encore très présents. C’est sans doute la raison pour laquelle Amazon fait encore profil bas. En outre, les formats proposés sont encore très basiques, de la bannière display essentiellement, et la vidéo commence à être proposée en extension d’audience. Mais l’intégration aux deux principaux SSP (Sell Side Platform) vidéo du marché, Freewheel et Youtube, n’est pas encore proposée. 

D’importantes parts de marché vont être à prendre à mesure que les acteurs de la grande consommation vont basculer une partie de leurs investissements TV vers le digital. Ces derniers se tourneront sans doute naturellement vers une offre qui leur garantira un impact direct sur leurs ventes online. 

Microsoft et Oath Net dépassés pour la première fois

Si Amazon est encore un débutant dans la publicité en ligne, il se hisse à la troisième place, avec 4,15% de parts de marché, surpassant pour la première fois Microsoft (4,05%) et Oath Net (ex-Yahoo et AOL, désormais aux mains du groupe télécoms Verizon, 3,32%). En 2018, eMarketer prévoit que le groupe tirera 4,61 milliards de dollars de la publicité aux Etats-Unis.

Pourquoi un telle ascension ? Une raison plausible de ce constat serait que les consommateurs débutent de plus en plus leurs recherches de produits sur Amazon, plutôt que Google. Au deuxième trimestre, Amazon avait dégagé 2,2 milliards de dollars de chiffre d’affaires dans la catégorie « autres ventes » qui recouvrent essentiellement les recettes publicitaires. 

Quelle réaction pour les grands distributeurs ?

Il y a une très forte tendance à se rapprocher des nouveaux concurrents : Wallmart et Carrefour pactisent avec Google, Carrefour avec Tencent, Auchan avec Alibaba, Monoprix avec Amazon… Leur objectif est d’apprendre à travers ces partenariats, mais les risques sont évidemment importants.

Quels sont-ils ? Tout d’abord, que Monoprix perde l’accès à la data, moteur du nouveau modèle vertueux du retail en s’associant à la market place d’Amazon. Que Carrefour et Wallmart offrent potentiellement à un futur concurrent (Google), l’opportunité de développer sa courbe d’expérience dans l’univers du retail. Enfin qu’Auchan prenne le risque de donner les clés de compréhension de nouveaux marchés cible pour Alibaba.

Ainsi, le rapprochement avec des acteurs moins menaçants (de type Criteo, par exemple sur le volet publicitaire) serait probablement une démarche moins risquée pour apprendre les nouveaux codes de ce secteur.

L’avenir d’Amazon : vers de la publicité sur les enceintes connectées ?

Il est clair qu’Amazon s’efforce de se diversifier notamment dans les formats publicitaires. Elle aurait d’ailleurs annoncé le lancement d’un service de streaming gratuit (avec publicité quand même), via sa filiale IMDb. 

Cette stratégie offrira donc une nouvelle voie pour les annonceurs. Un risque demeure encore puisqu’on sait tous qu’il y a peu de plateformes de streaming gratuites qui sont économiquement viables. 

Mais a priori M.Bezos sait ce qu’il fait : il choisit un format attractif (la vidéo) pour attirer le plus d’annonceurs. 

Un des prochains axes possibles de développement serait la publicité sur les enceintes connectées. Amazon a été pionnier en la matière, avec son modèle Echo sorti dès 2015 aux États-Unis. 

« Tous les acteurs réfléchissent à la manière d’intégrer de la publicité sur les enceintes connectées, mais le bon format reste à trouver en terme de durée, de non-intrusivité et de ciblage », explique Caroline Huet (NPA Conseil).

En somme, Amazon tente de s’intercaler entre les deux géants et il y arrivera doucement mais sûrement comme le pense Marcus Wohlsen quand il affirme que «Si Facebook sait qui sont vos amis, Google sait ce qui vous intéresse ponctuellement sur Internet, Amazon sait ce que vous avez acheté et a une bonne idée de ce que vous pourriez vouloir acheter ensuite».

L’avenir nous le dira…

Camille Desroches

SOURCES :

Le futur de la santé se situe avec l’IA

Le développement de l’intelligence artificielle permet d’entrevoir un avenir prometteur pour l’E-santé. Nombreux sont les avantages que permettrait l’instauration d’une telle technologie dans le milieu médical. Ce marché, qui s’ouvre pour les entreprises spécialisées dans l’IA, promet une croissance rapide tant le secteur est demandeur de progrès et de gains de productivité.

L’algorithme au service de la santé

Les algorithmes développés avec l’intelligence artificielle pourraient permettre des gains de temps considérables dans la reconnaissance de symptômes. Les premières avancées ont été remarquées dans l’imagerie médicale et la dermatologie. La reconnaissance d’image automatisée permet d’apporter une assistance précieuse aux médecins en les aidant à identifier des symptômes rapidement. Rendue possible par une puissante recherche de corrélations avec des milliards de données, cette assistance deviendra donc, à terme, le prolongement du médecin.

L’oncologie est assurément le secteur de la santé sur lequel de gros progrès sont attendus. La reconnaissance de mélanomes et la personnalisation du traitement du patients bénéficie déjà du développement de l’IA même si de nombreux progrès restent à faire et que la technologie est encore trop jeune pour être fiable à 100%. Ces avancées ne concernent pour l’instant que quelques pathologies mais nous devrions voir dans les années à venir une technologie plus puissante et plus sûre.

Explorer des terrains inconnus ou méconnus

L’intelligence va donc permettre d’apporter des gains de productivité sur ce que le secteur médical sait déjà faire. En revanche, la vraie promesse de l’intelligence artificielle se situe surtout sur la compréhension de sujet que l’homme ne maîtrise pas ou ne connait pas du tout. La mise en corrélation de milliards de données pourra faire ressortir des points que nous n’aurions pas imaginer ou pourra mettre en lumière des sujets trop flous pour être correctement traités actuellement.

Lors de la conférence Netexplo de 2018 durant laquelle des prix sont décernés à des entreprises sur l’impact de la technologie dans la société, trois des dix lauréats entreprennent dans l’intelligence artificielle sur le secteur médical. Le projet australien Stentrode vise notamment à rendre possible le contrôle d’un exosquelette par la pensée, sans implant d’électrodes dans le cerveau. L’absence d’implant permet d’éviter les infections ou les rejets. Il faut donc être capable de capter les signaux électriques et de les associer avec des mouvements. L’intelligence artificielle avec le machine learning seraient capable de remplir de telles fonctions. Un autre lauréat propose, lui, d’installer une caméra dans une prothèse de bras afin de détecter l’objet à attraper et d’adapter la prise en fonction. Le machine learning et la comparaison de l’image avec une banque de donnée immense pourraient permettre de développer cette technologie de façon précise et efficace.

Améliorer le processus d’hospitalisation et de consultation

Le temps d’attente dans les hôpitaux est pointé du doigt depuis des années, soulevant des questions sur l’efficacité du processus que suit un patient tout au long de son parcours médical ou sur le nombre de personnes employés dans les établissements médicaux. L’instauration de l’intelligence artificielle au sein même de ce processus pourrait permettre une gestion optimale des emplois du temps et de la priorisation des tâches réalisées par le personnel médical. Des gains de temps et de productivité considérables pourraient ainsi être réalisés.

Dans son livre de fiction “Marseille 2040 – Le jour où notre système de santé craquera”, le journaliste Philippe Pujol décrit même une refonte complète du système médical actuel. Il imagine des médecins constamment accompagnés d’un assistant vocal via une puce, les aidant dans la gestion de leur emploi du temps et par l’établissement de pré-diagnostics en analysant des symptômes en amont des consultations. A quelle point se rapprochera-t-on de cette fiction ?

L’innovation et la gestion des données

Les start-ups représente une source d’innovation constante pour n’importe quel secteur d’activité. Tous les jours de nouveaux entrepreneurs souhaitent apporter des innovations majeures dans le milieu de la santé. Sur les cinq dernières années, le cabinet CB Insight a relevé 481 accords conclus entre des start-ups et des professionnels de la santé. Le montant total que représentent ces investissements est estimé, selon le cabinet, à 3.6 milliards d’euros. En revanche beaucoup de jeunes pousses françaises se retrouvent confrontés à un problème lorsqu’elles souhaitent accéder aux données sur la santé de français.

L’accès aux données médicales est extrêmement protégé et contrôlé. Si une entreprise veut accéder à ces données elle doit répondre à un motif d’intérêt public et montrer patte blanche. Il faut déposer un dossier qui sera traité par plusieurs autorités différentes, le processus pouvant être long, voire trop long pour une start-up. De plus, la numérisation des différents travaux médicaux n’est pas optimale en France, ce qui appauvrit la quantité des données disponibles. Hors avec l’intelligence artificielle, quantité rime avec qualité puisque la technologie a besoin du nombre de données le plus grand possible afin d’être précise et pertinente. L’accès aux données médicales en France est donc un sujet important à traiter si l’on veut que les jeunes entreprises françaises puissent innover dans l’hexagone et ne partent pas dans des pays où l’environnement sera plus propice à leur développement.

Hugues Morinet

Intelligence artificielle et aéronautique

Avec un revenu de 5,42 milliards de dollars aujourd’hui et de 59,7 milliards estimés pour 2025, l’intelligence artificielle connait une croissance exponentielle et touche tous les secteurs, de la domotique à l’environnement en passant par la finance. Près de 1550 startups dans le monde en ont fait leur coeur de métier. L’aérien n’est pas en reste : de nombreuses innovations ont vocation à changer la vie des usagers d’un côté, et des professionnels du secteur de l’autre. 

Intelligence artificielle et aéronautique avancent désormais ensemble dans la modernisation du secteur aérien. Se présentant comme la quatrième révolution industrielle, l’IA est considérée par de nombreux spécialistes comme le futur bouleversement que connaîtra notre société, semblable au numérique et à Internet. Dépendant notamment de la technologie dite du « machine learning », l’intelligence artificielle apprend d’elle-même et évolue seule, ce qui lui permet de pouvoir répondre à un maximum de sollicitations. 

De l’embarquement à la douane

Sébastien Couturier, responsable du pôle d’innovation d’ADP, a expliqué lors du AI Business Day d’Octobre 2018 la volonté d’entraîner le groupe Aéroports de Paris dans cette voie. Ailleurs dans le monde, différentes initiatives sont lancées en ce sens, à l’image des aéroports Changi à Singapour ou Logan à Boston bénéficient de technologies au service des usagers pour faciliter l’expérience et répondre à la croissance exponentielle du nombre de passagers. L’embarquementbiométrique, une des principales innovations, permet de reconnaitre les passagers sans le contrôle d’être humain, et permet de fluidifier le trafic.

En Europe, c’est une initiative soutenue par l’Union Européenne qui rentre en période de test dans plusieurs aéroports visant à fluidifier le trafic dans un passage stratégique : la douane aéroportuaire. Nommée « iBorderCtrl », cette intelligence artificielle se présente sous la forme d’une reconnaissance faciale et de documents. Le passager donne ses papiers d’identité et doit répondre à des questions via l’interface, et grâce à une analyse très perfectionnée permettra de dire si ce dernier ment.

Dans un second temps, l’intelligence artificielle aide le travail des professionnels de l’aérien, en sol comme en vol. Des technologies permettent de gérer au mieux les vols et la flotte disponible d’une compagnie selon des critères définis, comme l’expérimente la compagnie aérienne américaine Southwest Airlines, qui utilise ces technologies pour optimiser la consommation de kérosène avec les personnels navigants techniques et reprogrammer les vols de manière optimale en cas d’aléas avec le personnel au sol.

De nombreux enjeux

Ces différents projets soulèvent différents enjeux dans un secteur du transport aérien en pleine reconstruction suite à la crise de ces dernières années. Le premier est marketing : l’intelligence artificielle se trouve être à la croisée entre un phénomène de pop-culture et la nouvelle technologie. Cette dernière s’avère être un atout dans la communication de ces entreprises, renforçant l’image des acteurs de ce marché tout en les maintenant à la pointe et en garantissant la satisfaction des usagers. Au delà du volet de la sécurité et de la fluidité du trafic, l’IA est considérée comme un argument de vente par les différents transporteurs. 

Le transport aérien, en tant que secteur se voulant à la pointe des usages des passagers a tout intérêt d’aller en ce sens, en prolongeant l’expérience digitale de la réservation du billet chez soi à l’embarquement dans l’avion, en passe d’être automatisé. Ces innovations présentent cependant des risques pour le personnel technique, voyant d’un mauvais oeil ces ordinateurs à des postes à risques tels que la douane. Il n’y a donc qu’un pas entre la situation actuelle et le concept de singularité selon lequel un « emballement technologique » emmènerait l’IA vers une croissance qui induirait des changements imprévisibles sur la société humaine, et ainsi aux portes de la science fiction. 

Science fiction qui est aujourd’hui de plus en plus proche : l’avionneur Boeing a affirmé lors du précédent Salon du Bourget vouloir introduire de l’IA dans les cockpits dans le but de créer les premiers avions de ligne autonomes. Intelligence artificielle et aéronautique font plus que jamais bon ménage, affaire à suivre. 

Jacques-Antoine Lando

ON-LINE AD VISIBILITY

Current situation

The metrics with which today an effectiveness is measured, are strictly oriented to the visibility of the ad. The industry is focused on using visibility as the main indicator, therefore, quantitative metrics such as CPM or VCPM are used. Although, these metrics provide us with data about how visible advertising is from advertisers, they do not give us a clear and precise idea of the number of specific views obtained by ads.

According to the Media Rating Council (MRC) and the IAB, the new metrics must be focused on the second half of the following table.

 

Proposed approach

The new approach must be oriented in quantitative metrics. What is proposed is to apply « CPE » or « time based » metrics, which are performance oriented.

CPE

The cost-per-engagement, is a metric applied to the magnitude of involvement by the ad audience. This metric has a qualitative approach and is measured according to the degree of participation that users have with ad (ad). When the user performs some interaction with the ad, it is understood that the visualization is completed, and that the ad has been completely visible.

 

Time based (CPS)

The cost-per-second is a metric applied to the time a person visualizes and interacts with an ad. After having been visible and having been seen, the user has to interact with the ad for more than two seconds, starting from that time it starts to be measured as CPS. This metric is a quantitative metric that starts from a qualitative metric (CPE).

¿ What are the benefits of focusing on qualitative metrics?

The main benefit of using qualitative metrics is to know if the online campaign is fulfilling its visibility objectives. It can also be known if the campaign generates the expected performance for the advertiser, analyzing the results of the metrics and comparing them with the variations in inventories or income.

Likewise, by using a qualitative approach, it is possible to reduce the risk of possible frauds, since they are measured only when a user interacts with the ad, avoiding accounting for actions performed by « robots », « spiders », etc. This user-ad-advertiser contact is completely real and shows that the message has been delivered.

What does it take to be effective?

The effectiveness of a qualitative approach lies in the quality of the advertising campaign, the creativity of it and how attractive it can be for the user. If the campaigns do not have a good content, according to the interests of the public and is not striking, good results are not achieved.

Who uses an engagement-oriented approach?

Currently, the engagement-oriented metrics are used by some companies such as « Financial Times » or « The Guardian », mainly in branding campaigns.

 

 

MIGUEL SOTO G.

Snap Store : le e-commerce au centre de l’expérience sociale

Snap Inc. continue d’innover et vient d’annoncer une toute nouvelle fonctionnalité pour son application ; un Store proposant des produits dérivés. L’objectif n’est pas encore de générer des profits, mais on peut voir se dessiner une nouvelle stratégie. Le développement d’une telle fonctionnalité e-commerce peut se traduire par une volonté par l’entreprise de proposer des achats in-App à destination des annonceurs.


L’innovation ancrée dans l’ADN de la marque.

Aujourd’hui Vendredi 2 février, la société lance le Snap Store, qui se trouve dans la section Discover de l’application Snapchat. Ce store permet d’acheter des articles liés à l’univers Snapchat. Vous pouvez donc vous offrir le Hot Dog dansant version peluche pour 20$, un sweat-shirt BBBF (Bring Back Best Friend), un Tee-shirt Dog Lens pour 20$ et autre.

Ce store est facilement accessible via le Snapcode associé ou encore grâce à la section Discover de l’application. Pour viraliser le lancement, Snapchat propose tous ces articles en édition limité.

Cette fonctionnalité, telle quelle est présentée aujourd’hui n’a pas vocation à devenir une source de revenus majeure pour la société malgré le besoin plutôt urgent de générer des revenus supplémentaires. En effet le Chiffre d’affaire généré par Snap Inc. est en dessous des objectifs fixés pour le dernier trimestre 2017. Du coté de Snap, aucun commentaire sur ce lancement, la fonctionnalité aurait vocation à fidéliser la communauté en offrant la possibilité aux utilisateurs de posséder des objets produits par la marque.

La création de ce store et la vente de ces produits va pouvoir être utile à l’entreprise pour prouver le potentiel du e-commerce intégré à la plateforme ainsi que la capacité d’achat de sa communauté. Si les retombés sont positives, on peut parier sur l’ouverture de cette fonctionnalité aux annonceurs.

En termes de vente produits, la marque au fantôme n’en est pas à son coup d‘essai. En effet Snapchat a précédemment vendu quelques articles, comme un sac à dos Ghostface et des Hot Dogs dansant sur Amazon. Sans parler du succès mitigé des Spectacles malgré une campagne marketing d’envergure. Cette nouvelle tentative est sans doute la plus intéressante et la plus audacieuse car la marque s’appuie pour la première fois directement sur sa plateforme pour créer une expérience d’achat inédite.

 

Quels effets sur la valorisation de Snap Inc. ?

Ce n’est pas grâce aux quelques ventes de « Goodies » que Snap Inc. va réduire les attentes de ses investisseurs. Si aujourd’hui la valorisation de l’entreprise est estimée à 16.7 Milliards de $, il va falloir que l’entreprise trouve rapidement de nouveaux moyens de monétiser sa communauté pour enfin justifier cette valorisation élevée.

On observe ce matin une légère hausse du cours de l’action suite à ce lancement. A noté que cette hausse peut également être due à l’annonce de Facebook concernant le premier ralentissement de la croissance de sa communauté.

 

Vers un nouveau positionnement de la plateforme ?  

L’expérience d’achat créée par Snapchat est totalement intégrée à l’expérience habituelle, les produits sont présentés grâce à des vidéos verticales plein écrans, on retrouve les gestes qu’on a l’habitude de faire sur cette application (Swipe-up…). Lors d’un premier achat, on vous propose naturellement d’enregistrer votre carte, on se doute donc que Snap va consolider sa base de données grâce aux informations bancaires de ses utilisateurs. Cette nouvelle donnée va permettre à Snapchat non seulement de faciliter les futurs achats mais également d’affiner encore plus son ciblage publicitaire.

En dehors de quelques acteurs tels que Amazon, personne n’a encore réussi à créer une expérience d’achat satisfaisante sur mobile. Sites lents, redirection vers des pages non optimisées pour mobile, expérience globale chaotique… En intégrant totalement le processus d’achat à sa plateforme, Snapchat pourrait être en mesure de proposer une solution sérieuse à ces problèmes. De plus l’association de campagnes publicitaires sur l’application liées à la possibilité d’acheter directement le produit apparaît comme une solution très attrayante pour les annonceurs.

Snapchat pourrait se positionner comme un moyen pour les grandes marques d’atteindre un public d’adolescents premium. Reste à voir si cette communauté assez jeune va adhérer à ce nouveau moyen de consommation.

Simon NAUD

Réalité virtuelle et augmentée: nouveau terrain de jeu du marketing

La réalité virtuelle et la réalité augmentée sont des technologies aujourd’hui bien connues du public qui tendent à se développer et à se démocratiser à l’ère du numérique.

 

La réalité augmentée est une technique qui permet d’insérer en temps réel un élément 2D ou 3D dans une image réelle. Elle ne doit pas être confondue avec la réalité virtuelle qui consiste quant à elle en une technique permettant de plonger l’utilisateur dans un monde artificiel généré numériquement.

Des technologies présentes dans le gaming et le divertissement, mais pas seulement.

Principalement associées au gaming et au divertissement, la réalité virtuelle et la réalité augmentée s’ouvrent à bien d’autres domaines, tels que la santé, l’éducation, l’immobilier, et même la pornographie.

Avec l’apparition des adblockers et un désintérêt de plus en plus marqué des consommateurs pour la publicité traditionnelle, les marques ont de cesse de rechercher de nouveaux moyens de communiquer avec leur cible. En ce qu’elles enrichissent l’expérience humaine et offrent de nouveaux formats publicitaires, les techniques de réalité virtuelle et de réalité augmentée peuvent également s’avérer être de puissants outils marketing.

Des technologies au fort potentiel marketing…

En effet, de nombreuses marques voient en ces technologies un large potentiel et ont d’ores et déjà misé sur ces dernières en développant des opérations, plus ou moins importantes, de marketing dit marketing immersif.

C’est notamment le cas de la marque Volvo qui, pour la sortie de son 4×4 XC90, a mis en place une campagne de réalité virtuelle consistant en des vidéos immersives disponibles via une application mobile et donnant l’impression à l’utilisateur de conduire, lui offrant ainsi un « avant-goût » de ce qui l’attend s’il se laisse tenter par l’achat du produit.

Pour citer un exemple plus récent, on peut également évoquer la campagne de Jean-Paul Gaultier dont le but était de relancer deux parfums phares de la maison, à la suite de son rachat par PUIG, et ce de façon immersive et interactive. En parallèle de la campagne publicitaire, des cardboards avaient été distribués dans tous les points de contacts de la marque permettant aux clients de s’immerger davantage dans l’univers de la marque en découvrant l’Atelier du créateur et en y retrouvant les personnages de la campagne.

Si des domaines semblent plus enclins à utiliser ces technologies, tels que ceux du voyage ou de l’automobile, il est à noter que réalité virtuelle et réalité augmentée séduisent de nombreux autres domaines. C’est notamment le cas du domaine cinématographique et de l’audiovisuel, où des espaces dédiés à la réalité virtuelle ont été ouverts (notamment à Paris) au sein desquels l’utilisateur peut avoir accès à des contenus exclusifs en VR relatifs à un film. La série Stranger Things avait également eu recours à cette technologie dans le cadre de la promotion de sa seconde saison, et ce notamment par le biais d’un stand à la Paris Games Week en novembre dernier.

 

La réalité augmentée constitue également un outil de promotion pour les marques en ce qu’elle permet d’enrichir le produit et de développer davantage l’interaction avec le consommateur.

Parmi les promotions intégrant la réalité augmentée on peut notamment citer celle réalisée par la marque Pepsi à Londres, « Unbelievable ». La marque avait détourné un panneau publicitaire d’abribus, qui équipé d’une caméra, retransmettait instantanément l’image située derrière tout en y intégrant des éléments virtuels surprenant les passants, tels qu’un tigre ou une météorite.

Les produits eux-mêmes peuvent également servir de support de réalité augmentée. La marque Heineken proposait dès 2014 une expérience en réalité augmentée où le consommateur pouvait scanner une bouteille et découvrir un spectacle animé sur son smartphone. Toujours dans le même esprit, la marque Heinz offrait la possibilité de scanner le produit avec son smartphone et de découvrir plusieurs recettes associées à son produit alimentaire ce qui permettait également de soumettre au consommateur des utilisations alternatives du produit. Ainsi, le produit en tant que tel devient ici une nouvelle opportunité de communiquer avec le consommateur.

 

Accroître la valeur de la marque, étayer les caractéristiques du produit mais aussi attiser la curiosité ou marquer l’esprit du consommateur, partager des conseils et améliorer l’expérience d’achat sont autant d’avantages que peuvent offrir l’utilisation de ces technologies. Intégrer ces technologies dans sa stratégie marketing est également un bon moyen de développer une certaine continuité entre les campagnes d’une même maque ou d’un même produit. En outre, ces technologies constituent un renouveau en matière de publicité et offre une véritable interaction avec le consommateur.

A l’heure du numérique et étant portées par de grands acteurs tels que Facebook, avec notamment son casque VR Occulus, et Google, avec sa plateforme de développement pour la réalité augmentée, ARCore, les technologies de réalité virtuelle et de réalité augmentée sont également au cœur de la tendance.

Mais une portée limitée techniquement.

Toutefois la portée des campagnes intégrant les technologies de réalité virtuelle et augmentée peut apparaître comme limitée en ce que l’expérience humaine qu’elle apporte ne s’étend qu’aux personnes présentent sur place et ayant concrètement vécue cette expérience. En outre, une bonne campagne liée à ces technologies suppose un contenu de qualité ainsi qu’un certain budget de la part des marques.

 

Lauriane Colson

La reconnaissance faciale, une aubaine pour les entreprises, mais quid de notre vie privée ?

 

Aujourd’hui, un panneau publicitaire équipé de la technologie de reconnaissance faciale est capable d’identifier le genre et l’âge des passants, en scannant quasi instantanément leurs traits de visage. Mais la technologie va encore plus loin en permettant d’effectuer une analyse comportementale des individus qui passent devant le panneau publicitaire : détection des émotions et des réactions face au message, temps passé devant le panneau etc.

On comprend tout de suite l’opportunité réelle que représente, dans ce cas-ci, la reconnaissance faciale pour les annonceurs : obtenir des données à la fois démographiques et comportementales pour fournir un ciblage d’autant plus précis et personnalisé.

Les panneaux publicitaires équipés de la reconnaissance faciale ne sont qu’un exemple parmi d’autres. L’horizon des possibilités est bien plus large : la technologie permet non seulement aux entreprises de proposer de nouveaux services mais également de les vendre mieux, et tout cela en accumulant une masse toujours plus importante de données sur leurs utilisateurs.

Déjà présentes aux Etats-Unis et se développant en Europe, les technologies de reconnaissance faciale sont de plus en plus utilisées, aussi bien par les entreprises du web que par celles appartenant à des secteurs d’activité tels que l’agroalimentaire, dans leurs stratégies marketing et publicitaires.

 

« C’est incroyable tout ce que votre visage peut faire »

C’est un des nouveaux slogans lancés par Apple pour promouvoir la nouvelle fonctionnalité disponible sur l’Iphone X : Face ID. Le géant à la pomme permet maintenant à ses utilisateurs de déverrouiller leur Smartphone mais aussi d’utiliser Apple Pay grâce à la reconnaissance faciale.

Apple n’est évidemment pas seul à développer de nouveaux services basés sur les technologies de reconnaissance faciale, d’autres grands acteurs du numérique s’attèlent également à attribuer à notre visage de multiples fonctions. Facebook, grâce à son algorithme DeepFace, peut désormais informer ses utilisateurs qu’ils apparaissent sur des photos sur lesquelles ils ne sont pourtant pas tagués. Google dispose de FaceNet, fonctionnalité disponible sur Google Photos, qui classe les photos en fonction des personnes y figurant. Alibaba, la plateforme chinoise de e-commerce, propose à ses clients de valider leurs paiements AliPay grâce à la reconnaissance faciale.

Si toutes ces entreprises entendent garantir à leurs clients une plus grande sécurité (un visage se pirate moins facilement qu’un mot de passe) et un gain de temps non négligeable, leur objectif n’en est pas moins économique. Le recours à des technologies de reconnaissance faciale est un moyen de recueillir encore davantage de données que ne le font déjà les techniques courantes de tracking (identifiants, cookies etc). L’analyse des profils et comportements des utilisateurs devient ainsi bien plus précise et gagne en valeur aux yeux des annonceurs et des prestataires de services pour l’amélioration de leurs offres.

 

La clé d’un ciblage publicitaire ultra personnalisé

Grâce à la reconnaissance faciale, les entreprises améliorent leurs offres grâce à une meilleure connaissance client, ou optimisent l’expérience client en proposant de nouveaux services. Mais ce n’est pas le seul atout de cette technologie qui est également la clé d’un ciblage publicitaire ultra personnalisé.

La reconnaissance faciale a déjà commencé à investir plusieurs secteurs d’activité, allant de l’agroalimentaire au prêt-à-porter. Par exemple, Coca-Cola ou encore la BBC mesurent par webcam les expressions faciales d’individus volontaires face aux contenus publicitaires. Ou encore, Adidas prévoit d’installer dans ses magasins des murs digitaux capables d’identifier l’âge et le sexe des clients afin d’afficher les produits les plus adaptés, dans le but d’aider les vendeurs dans leurs démarches commerciales.

Ces initiatives témoignent d’une volonté croissante des annonceurs de maximiser leurs profits et de rentabiliser leurs investissements publicitaires. Conscients de cela, de nombreux acteurs développent justement des technologies de reconnaissance faciale dans le but de mesurer et qualifier l’audience des campagnes plus précisément, en particulier des campagnes outdoor. En effet, l’enjeu apparaît d’autant plus important que, contrairement aux campagnes publicitaires online, la performance de la publicité digital out of home ne peut être mesurée à l’aide d’indicateurs objectifs tels que le nombre de clics.

Parmi les acteurs du développement de la reconnaissance faciale au service du ciblage publicitaire outdoor, l’on peut citer la startup française Jacare Technologies. Son concept se traduit par l’intégration dans un panneau digital d’une caméra capable de détecter si la personne a vu le panneau et pendant combien de temps. L’annonceur peut alors connaître le temps d’attention et l’intérêt du consommateur pour la publicité. De plus, le logiciel est capable de qualifier l’audience en termes d’âge et de sexe, dans le but d’afficher en temps réel des publicités ciblées en fonction de ces caractéristiques. Ainsi, l’annonceur paiera sa campagne en fonction du nombre de fois où sa publicité a été affichée, sachant qu’une même publicité ne pourra être diffusée deux fois à la même personne, que la caméra reconnaîtra. Cet exemple permet donc de comprendre aisément l’intérêt que peuvent éprouver les annonceurs pour la reconnaissance faciale.

Au-delà de l’analyse de l’âge et du genre, des solutions de reconnaissance faciale tentent d’aller encore plus loin en proposant de détecter les émotions des individus : afficher une publicité selon l’humeur de la personne (si elle sourit ou non) ou encore faire payer chaque rire à ses spectateurs (initiative du Teatreuneu de Barcelone).

La reconnaissance faciale, fin du droit à l’anonymat ?

S’il est évident que la reconnaissance faciale représente de réelles opportunités pour les entreprises d’optimiser la connaissance et l’expérience client mais aussi leurs investissements publicitaires, il l’est également que le recours à cette technologie suscite d’importantes réactions chez les consommateurs, au nom du droit à l’anonymat. En effet, il est certes possible de laisser son Smartphone chez soi (pour éviter la géolocalisation et le ciblage trop personnalisé), mais son visage, c’est plus compliqué…

Les individus pouvant être identifiés partout et suivis en temps réel, la frontière entre la vie offline et celle online devient alors de plus en plus fine. Grâce à la reconnaissance faciale, les entreprises sont capables de faire le lien entre une identité numérique (un compte Facebook, une adresse IP etc) et un « individu réel » (une personne unique par son apparence). Autrement-dit, elles peuvent associer nos activités sur le web à nos activités dans le monde physique.

De ce point de vue, la définition (utopique) d’Internet comme un espace d’expression libre garantie par l’anonymat des individus apparaît clairement obsolète. En particulier, lorsque des technologies de reconnaissance faciale d’acteurs privés sont utilisées par des acteurs publics. L’on pense notamment à l’application FindFace, permettant de retrouver, à partir d’une photo, le profil de quelqu’un sur Vkontakte (le Facebook russe). NtechLab, développeur de l’application, a démarré une collaboration avec le gouvernement russe pour équiper les caméras de surveillance des grandes villes du pays de son algorithme de reconnaissance faciale.

Rappelons toutefois qu’actuellement de telles pratiques de surveillance des individus ne sont pas encore rendues possibles par le législateur européen qui impose strictement aux entreprises d’anonymiser les données utilisateurs, et interdit dans la même perspective la mise à disposition du DeepFace de Facebook et du FaceNet de Google sur son territoire.

Même si le RGPD, entrant en vigueur en mai 2018, a pour objet de renforcer la protection de la vie privée des individus, ses dispositions concernant la reconnaissance faciale se verront inévitablement bientôt dépassées par les évolutions de cette technologie. Il n’en sera alors que plus urgent de réaborder les questions de réglementation du droit à l’anonymat, du droit « à la vie offline ».

 

Hanneke Deterne

Qui se cache vraiment derrière la fraude digitale ?

Les investissements des annonceurs ne cessent de grimper. En 2016, ils représentaient plus de 3,5 milliards d’euros dans le monde (source WFA). A contrario, les effets pervers d’un tel phénomène se font sentir en souterrain. D’après la World Federation of Advertisers, la fraude en matière de publicité digitale toucherait 30 à 40 % de ces investissements.

 

Certaines fraudes d’ampleur significative ont fait parler d’elles dans l’univers de la publicité digitale ces dernières années. L’agence de cyber-sécurité américaine White Ops a révélé en 2015 l’existence de « Methbot », une vaste opération d’escroquerie des annonceurs et des régies publicitaires qui aurait été pilotée pendant au moins trois ans par une organisation de pirates russes. White Ops estime que les hackers auraient détourné plus de 180 millions de dollars depuis qu’ils auraient détecté la fraude. Les fraudeurs auraient eu recours au « domain spoofing ». Une des techniques de fraude les plus insidieuses et difficiles à détecter en programmatique. Des faux sites sont créés pour générer du faux trafique et mieux berner l’ensemble des acteurs de la programmatique. Les hackers usurpent le nom de domaine de sites premium. Le fraudeur rentre un faux nom de domaine pour tromper le DSP. Les annonceurs ont le sentiment que leurs publicités sont diffusées sur des sites premium alors qu’il s’agit en réalité de sites frauduleux. Le budget des annonceurs se retrouve donc rogné et le revenu des éditeurs usurpé. C’est ainsi que les commanditaires du Methbot se sont faits passer pour plus de 6 000 sites anglophones de médias et de marques ((CNN, CBS Sports, Fox News, The Huffington Post, Fortune, Facebook…). Les annonceurs auraient été prêts à payer 13 dollars pour 1000 vues, ce qui explique le chiffre mirobolant des pertes endurées.  Alors que les médias surnommaient le dispositif de «  détournement de publicité le plus profitable de l’Histoire », les hackers à l’origine de la fraude- restant inconnus du commun des mortels- se sont faits détrônés.

L’entreprise danoise « Adform » a détecté un dispositif de fraude qui aurait permis aux pirates de détourner rien qu’en l’espace de quatre mois, plus de 60 millions de dollars au détriments d’annonceurs et d’éditeurs premium anglo-saxons tels que le « Financial Times », le « Wall Street Journal », CNN ou encore « The Economist ».  Adform prétend qu’il s’agit, pour l’instant, du plus gros bot network de l’Histoire. Il serait 3 à 4 fois plus gros que le Methbot car les pirates ont usurpé le nom d’un plus grand nombre de domaines de sites premium et utilisé un plus grand réseau de bots pour générer du faux trafique. D’après Jay Stevens, le directeur financier d’Adform, il serait difficile d’estimer avec précision combien d’argent les commanditaires ont détourné d’argent. Néanmoins, il ne manque pas d’ajouter que le dispositif aurait généré jusqu’à $500,00 par jour.

 

Un vide éditorial frappant :

Or, si les médias insistent sur l’ampleur de ces dispositifs frauduleux, il est étonnant de constater que rare sont ceux qui s’intéressent à qui se cache précisément derrière ces dispositifs. En effet, les médias tentent d’expliquer le dispositif de la fraude et ses impacts sur les différents acteurs de la programmatique. Néanmoins, lorsqu’il s’agit particulièrement de gigantesques dispositifs de fraudes comme le « Methbot » ou « l’Hyphbot », l’identité des fraudeurs n’est jamais révélée. Le groupe de pirates Russes a été surnommé « AFK13 » par White Ops. Adform n’a pas révélé à la presse le nom de code attribué aux commanditaires de « l’Hyphbot ». Comme le défend le New York Times, l’opération methbot a été nommée ainsi en référence à la drogue Meth dans son code. Même si la presse dévoile peu d’informations à ce sujet, la Mafia serait ainsi derrière ces dispositifs de grandes ampleur.  Si la fraude digitale progresse à mesure que les investissements en publicité digitale augmentent, ce phénomène ne s’impose pas comme le fer de lance des médias digitaux, du gouvernement et des journalistes. En effet, les articles sur le sujet décrivent davantage les impacts de ces dispositifs frauduleux en omettant les mesures judiciaires prises à l’encontre des fraudeurs.

En effet, la fraude en matière de publicité digitale reste un phénomène obscur, retors. Si elle reste mal connu des journalistes, c’est bien parcequ’il s’agit d’un phénomène qui échappe souvent aux annonceurs et spécialistes de la publicité digitale.

Le terme même d’« ad fraud » est polysémique. Il regroupe à lui seul différents types de fraudes, s’exerçant à plusieurs échelles. Les acteurs à l’origine de telles pratiques peuvent aussi bien être des hackers anonymes, des intermédiaires (SSP ou DSP), ou encore des éditeurs.

Sans oublier que la multiplication du nombre d’intermédiaires en programmatique et la nature des échanges par essence automatisés rend l’identification des fraudeurs beaucoup plus complexe. La fraude est d’autant plus difficile à détecter que même des leaders du marché de la publicité digitale comme Google et Facebook ont été blâmés pour leur manque de transparence au regard « d’erreurs » de mesures d’audiences.

 

Le mystère règne autour de la mesure d’audiences de Facebook et Google :

Les performances des publicités diffusées sur Google et Facebook seraient auto-mesurées. En 2015, des chercheurs européens ont prouvé que Youtube (c’est à dire Google) a facturé des annonceurs alors même qu’ils étaient au courant que leurs publicités étaient vues par des robots. Facebook a également commis à de nombreuses reprises des erreurs de mesures. Depuis septembre 2016, facebook a dévoilé plus d’une douzaine d’erreurs de mesures. Le géant américain avait admis que l’une des données clefs utilisées par les annonceurs pour évaluer l’impact de leur publicité vidéo avait été artificiellement gonflée. Les durées moyennes de visionnage de vidéos avaient été surestimées de 60 à 80 %.  En novembre 2016, Facebook avait également admis une série d’erreurs dans ses mesures d’audiences. Les données agrégées sur 7 ou 28 jours pour l’audience des « pages » (créées sur son réseau par des entreprises ou des marques) oubliaient de « dé-dupliquer » les personnes étant revenues à plusieurs reprises durant ces périodes. Une fois la correction faite, le nombre de visiteurs devrait être revu à la baisse de respectivement 33% et 55%.

Facebook admet également avoir surestimé de 7% à 8% en moyenne, depuis le mois d’août, le temps passé sur les articles publiés par des éditeurs de presse en employant Instant Article (outil permettant d’accéder aux articles plus rapidement). Si l’on ne peut peut parler de fraudes à proprement parler, l’une des conséquences inévitables de ce genre de pratiques n’est autre que la perte de confiance des annonceurs. La plateforme semble prendre très au sérieux la menace de Marc Pritchard, le chief brand officer de P&G (Ariel, Gillette, Pampers, Oral-B, Tampax etc…) de se retirer des plateformes qui ne respectent pas les critères de visibilité du Media Rating Council.

C’est la raison pour laquelle Facebook fait maintenant appel à des partenaires tiers comme Moat, IAS et Comscore. Néanmoins, ils ne taguent pas les pages facebook comme les autres sites. Ils se contentent d’analyser les données brutes déjà traitées en interne par facebook. Ils ne posent donc pas leur tag Javascript autour de la publicité pour mesurer toutes les 100 millisecondes si la bannière est visible et dans quelles proportions.

Cette information a été relayée dans une étude spécialisée menée par les membres du Collège Technologies E-marketing du Collectif de la Performance & de l’Acquisition en septembre 2017. Or, peu de médias, même spécialisés, enquêtent sur cette problématique.

Si la fraude demeure la face obscure du marketing digital, les médias spécialisés devraient donc davantage lever le voile sur ses origines.

Sarah Ouaki

L’intelligence artificielle dans le domaine de la traduction: quelles conséquences sur les médias?

L’intelligence artificielle est aujourd’hui omniprésente et promet des changements radicaux dans la manière dont seront abordés divers domaines dans les prochaines années. Il est intéressant de se pencher sur l’utilisation de telles techniques dans le secteur de la traduction. On essaie aujourd’hui de doter la machine de caractéristiques profondément humaines afin de lui permettre de développer des capacités de compréhension et de restitution semblables à celles d’un être humain.

Depuis quelques années, les intelligences artificielles de traduction sont de plus en plus développées. Ainsi, Google, Facebook et Microsoft – entre autres – se sont dotés d’un système de « traduction neuronale ». Il s’agit d’une technologie reposant sur du « deep learning » : un réseau de neurones artificiels apprend au fur et à mesure grâce à des données et essaie de reproduire, le plus fidèlement possible, le fonctionnement du cerveau humain. Ainsi, Google, par exemple, a lancé en novembre 2016 « Google Neural Machine Translation ». Cette technique basée sur la traduction neuronale a permis de réduire les erreurs de traduction jusqu’à 85% par rapport à « Google Traduction ». En effet, contrairement à « Google Neural Machine Translation », « Google Traduction » n’est pas très fiable dans la mesure où il se base sur le big data, traduit automatiquement des phrases revenant le plus souvent dans sa base de données sans développer une approche globale de la phrase créant ainsi de nombreux contresens.

Le futur de la traduction semble être donc entre les mains de la traduction neuronale : cette technique, aujourd’hui principalement utilisée par les services classiques de traduction pourrait, demain, révolutionner le monde des médias.

 

Quelles sont les conséquences sur les médias de la présence du développement de l’intelligence artificielle dans la traduction ?

 

Concernant les livres, une intelligence artificielle est, en ce moment, pensée au Japon afin de traduire des œuvres de littérature. Ainsi, en mai 2017, Media DO – un distributeur d’e-books japonais – a indiqué qu’il s’associait à deux entreprises nationales spécialisées dans l’intelligence artificielle. Ces entreprises – « Internet Research Institute » et « Al Squared » devraient permettre à Media DO de proposer des services de résumés et de traduction automatique de ses e-books. Ainsi, Media DO souhaite tout d’abord créer des résumés de livres à publier sur son site internet grâce à une intelligence artificielle qui analyserait les relations entre les différents mots et phrases d’un texte donné et qui saurait en faire ressortir les principales notions, les mots clés. Par ailleurs, concernant la traduction, Media DO a pour objectif de proposer sur sa boutique en ligne un service de résumés traduits automatiquement en anglais. Dans un premier temps et afin de s’internationaliser, l’entreprise compte proposer une traduction de résumés du japonais à l’anglais. Par la suite, à plus long terme, l’entreprise voudrait traduire des e-books entiers en anglais.

Dans le domaine de la vidéo, une entreprise française, Mediawen, développe une solution de traitement et de doublage de vidéo automatique. En se basant sur l’intelligence artificielle, la start-up parisienne travaille sur la réalisation de sous-titrages. Ainsi, sous-titrages multilingues, transcriptions, doublages automatiques et voice-over sont proposés par Mediawen dans divers domaines. La start-up développe également un nouveau modèle de diffusion afin de s’internationaliser : elle se base sur un service cloud de diffusion mondiale et non pas sur un classique modèle de licences, perçues comme étant trop chères et n’offrant pas assez de souplesse. Selon Mediawen, sa solution basée sur l’intelligence officielle lui permet de réduire de 60% le temps passé en traduction par rapport à une entreprise classique. La start-up se vante également de pouvoir aujourd’hui travailler en soixante langues.

Concernant le doublage, on peut imaginer que d’ici quelques années, l’intelligence artificielle permettra de développer des technologies relatives aux assistants personnels ou encore au doublage de films. Par ailleurs, concernant le divertissement, des voix de synthèse pourraient permettre de remplacer les voix humaines pour la lecture de livres audio par exemple. En septembre 2017, « Google DeepMind » – filiale britannique d’intelligence artificielle d’Alphabet – a mis au point une méthode permettant de reproduire la voix humaine, par le biais de réseaux de neurones à la synthèse vocale. Ainsi, on peut rêver d’un futur où films, journaux télévisés internationaux ou encore émissions de divertissement seraient doublés, en temps réel, grâce à l’intelligence artificielle et aux systèmes de voix de synthèse aujourd’hui en développement.

La traduction orale semble donc être la dernière étape de la révolution de l’intelligence artificielle dans le domaine de la traduction. Cela consiste à traduire simultanément des dialogues soit dans le cadre de conversations par téléphone ou vidéo entre amis, soit dans un cadre plus professionnel permettant ainsi la traduction orale de conférences, de séminaires etc. Des prototypes d’intelligence artificielle pour la traduction orale existent. Ainsi, Skype, Waverly Labs ou encore Pilot – ce dernier développant une intelligence artificielle pour des oreillettes permettant la traduction simultanée – ont pensé à des techniques. Par ailleurs, Alex Waibel, professeur à l’Institut technologique de Karlsruhe entend également traduire ses conférences grâce à l’intelligence artificielle. Cependant, ces prototypes sont encore très perfectibles. Les entreprises se heurtent à deux principales difficultés. Tout d’abord, la traduction en elle-même demande une précision et une compréhension très poussées d’un discours. Cela est extrêmement complexe à aborder. Ensuite, il est très difficile de reconnaître la parole et donc de la transcrire en texte pour pouvoir la traduire par la suite : la spontanéité du langage peut bloquer l’intelligence artificielle. De fait, lors d’une prise de parole, on devra toujours faire face aux « intonations », aux « ponctuations », aux « hésitations dans un dialogue » comme l’a souligné le professeur Besacier de l’Université Grenoble-Alpes.

Malgré toutes les technologies actuellement en développement et les importantes conséquences des méthodes d’intelligence artificielle de traduction sur les médias, rien ne vaut – pour le moment – un traducteur humain. En effet, cela a été démontré en Corée du Sud où a eu lieu – en 2017 – une confrontation entre quatre traducteurs professionnels humains et trois programmes de traduction à base d’intelligence artificielle. Les participants avaient 50 minutes pour traduire quatre textes. Et le moins que l’on puisse dire, c’est que la machine n’a pas encore dépassé l’homme! Selon les organisateurs de la compétition, les intelligences artificielles font des erreurs grammaticales, ne comprennent pas suffisamment le contexte et surtout ont du mal à saisir les nuances et les émotions dans les textes. Alors, l’intelligence artificielle saura-t-elle résoudre cela et se présenter comme un concurrent à la hauteur de l’humain? Affaire à suivre… 

Claire Maîtrot

Youtubeurs VS chaines TV : une formule gagnante ?

Aujourd’hui, alors que YouTube était le cauchemar des chaines de télévision et une des conséquences des pertes d’audiences, les youtubeurs envahissent le petit écran, et inversement, les groupes de médias se déploient sur YouTube.

La fin de la télévision est un sujet qui cultive de nombreux débats à l’heure de la mutation de l’audiovisuel. Il est possible d’évoquer une forme de « big bang » de l’audiovisuel. Depuis plusieurs années les chaines TV s’efforcent de trouver de nouvelles solutions à l’érosion des revenus publicitaires et à la fragmentation des audiences. Celles-ci misent aujourd’hui leur stratégie sur la diversification des modes de consommation qu’elles peuvent proposer, faisant de l’atomisation des contenus et des offres un atout et non une crainte, en étant toujours plus transversal et innovant.

L’arrivée des acteurs du net a bouleversé l’économie du secteur et YouTube est le parfait exemple de l’évolution des modes de consommation et des productions audiovisuelles, « 8 français sur 10 entre 16 et 24 ans se rendent sur la plateforme au moins une fois par jour »[1]. Les youtubeurs, afin de bénéficier d’une plus large exposition, se sont d’ailleurs rapidement intéressés à une structure proposée par la plateforme : les Multi Channel Network ou réseaux multi chaines (ci-après MCN).

L’invasion des chaines TV dans les Multi Channel Network

Les MCN désignent une structure reposant sur des fonctionnalités mise en place par YouTube permettant d’y intégrer plusieurs chaines de talents du net. Les MCN proposent différents services tels que l’accroissement d’audience, la protection des droits, des opérations de promotion croisée entre les chaines affiliées et la monétisation des contenus.

Le modèle des MCN génère de fortes audiences, les chaines TV l’ont bien compris et investissent/créent en masse des MCN à l’instar de Canal Plus avec Studio Bagel, le Groupe M6 avec Golden Moustache, Rose Carpet, et plus récemment TF1 qui possède désormais 6% du capital du MCN mondial Studio 71 (250 millions de vues en France), soit un investissement de 25 millions d’euros.

Concrètement, les chaines TV proposent des « contrats de partenariats et de prestations » aux youtubeurs consistant en l’intégration de leur chaine Youtube au sein du MCN ; la mise en place d’un partenariat commercial exclusif relatif à la valorisation de leurs images et de leurs marques. Aujourd’hui les youtubeuses spécialisées dans le secteur de la beauté pullulent, et sont capables d’aimanter le public avec leurs plusieurs millions de vues sur YouTube et ont une force d’impact sur leurs communautés considérable. Elles animent quotidiennement leurs chaines sur différents thèmes, de vidéos, et sont devenus des égéries intéressantes pour les annonceurs. Elles possèdent des communautés puissantes qui suivent quotidiennement leurs contenus.

L’avantage pour un Youtubeur d’intégrer le MCN d’un groupe de média est la puissante régie publicitaire qu’il possède et les contenus de qualité pouvant être produit grâce aux studios de production.

Pour la chaine TV, les revenus tirés de la monétisation des vidéos restent minimes, une partie devant être attribuée à YouTube et au youtubeur. Les opérations de diversification (placement de produit) et le brand content génèrent le plus de revenus. Les chaines TV rivalisent d’originalité avec des contenus décalés, tel que Vivelle Dop qui s’est associé à Golden Moustache pour la sortie d’un produit de la marque et a engendré plus de 4 millions de vues (YouTube + Facebook), remportant le trophée de la meilleure vidéo online 2016.

Les chaines TV misent leur stratégie sur la complémentarité avec les youtubeurs : créer de nouveaux programmes télévisés à partir de talents du net.

Ce rapprochement a permis par exemple de propulser le « Palmashow »[2] , diffusé sur C8, possédant presque 3 millions d’abonnés sur la chaine YouTube, ou encore Monsieur Poulpe de Studio Bagel présentant aujourd’hui l’émission Crac Crac sur Canal +.  Les chaines TV doivent donc produire de courts formats, « dont la narration et la mise en scène portent un dynamisme qui gagne l’intérêt de l’utilisateur de la plateforme dès les premières secondes »[3]. Ce rapprochement se traduit également par la prolifération d’intervention de youtubeurs sur les chaines tv comme Enjoy Phoenix dans Danse avec les stars, émission de TF1.[4]

Les chaines TV en investissant ces nouveaux territoires compte bien capter l’attention des millenials qui feront les audiences de demain.

Charlotte Fourey

 

[1] http://www.inaglobal.fr/television/article/quand-les-chaines-tv-courent-apres-les-jeunes-10071

[2] http://www.lemonde.fr/idees/article/2014/04/07/youtube-nouveau-meilleur-ami-des-chaines-de-television_4397016_3232.html

[3] http://www.lemonde.fr/idees/article/2014/04/07/youtube-nouveau-meilleur-ami-des-chaines-de-television_4397016_3232.html

[4] http://bfmbusiness.bfmtv.com/entreprise/les-youtubers-a-l-assaut-de-la-television-et-reciproquement-1137732.html

Spotify réinvente le podcast avec « Spotlight »

Spotlight ou le podcast augmenté

Ce 18 janvier Spotify a lancé son nouveau service, Spotlight. Avec Spotlight, Spotify veut proposer des contenus originaux de podcasts visuels à ses utilisateurs et ses abonnés. Spotlight c’est un service de podcasts originaux, produits exclusivement pour la plateforme et touchant à des thèmes variés allant du sport à la pop culture en passant par les informations. Quel est l’intérêt d’en parler me direz-vous, les podcasts, ça fait longtemps que ça existe ? Eh bien la particularité du service est de s’accompagner d’images, de textes et même de vidéos. Toutefois pas de méprise, ce contenu visuel ne vient qu’accompagner l’audio, il ne lui est pas nécessaire. C’est donc une offre pluri-média, mais dont le média principal est le podcast, c’est du podcast augmenté donc.

Spotify, avec ses 70 millions d’abonnés et 140 millions d’utilisateurs actifs est le leader du streaming musical. Il propose déjà des podcasts sur sa plateforme, ceux de la BBC par exemple, mais ce n’est pas un contenu original. Il propose aussi du contenu visuel mais comme un service à part. Avec Spotlight, Spotify veut créer des contenus contextuels complémentaires, spécifiquement créer pour accompagner le contenu audio. Telle est l’innovation du produit. En effet, à côté les radios généralistes traditionnelles qui filment leurs émissions et écrivent leurs chroniques sur les pages de leur site font triste figure, si tant est que le contenu proposé par Spotlight soit bon. La production de ces contenus se fera par des partenaires tels que BuzzFeed News, le plus connu en France, ou encore Crooked Media et Gimlet Media. Ainsi BuzzFeed produira, par exemple, un journal quotidien de 4 à 7 minutes. Le service n’est pour l’instant disponible qu’aux Etats-Unis.

Mais quel est intérêt stratégique peut bien représenter Spotlight pour Spotify ?

De prime abord cela semble être beaucoup d’embêtement pour pas grand-chose. En effet les utilisateurs de Spotify cherchent avant tout à écouter leur musique en streaming, ce ne sont pas forcément des consommateurs de podcasts ou de programmes radiophoniques généralistes. Le prix de l’abonnement ne sera pas plus élevé.

Spotify montre aussi son dynamisme est sa pertinence sur un marché difficile par ses innovations et cela à quelques mois de son entrée en bourse. Aujourd’hui Spotify est le leader incontesté du streaming musical avec plus de 30 millions de titres disponibles. Spotify ne lance pas que Spotlight, l’entreprise propose désormais une application, Stations, permettant d’accéder de façon rapide, facile et gratuite à ses playlist pré-enregistrées. L’application se veut très ergonomique, permettant de changer de morceau d’un « swip » et de découvrir facilement des nouveautés. Ces innovations peuvent rassurés de futurs actionnaires.

La radio est-elle désuète ?

La radio est vu comme un média vieillissant, déjà affaibli par l’arrivée de la télévision. Le streaming, que ce soit par des plateformes spécialisés ou via Youtube a détourné les auditeurs des radios musicales. Pourtant à l’heure du numérique, avec l’avènement du smartphone et maintenant qu’on nous annonce la mort de la télé, la radio semble produire des contenus particulièrement bien adaptés aux nouveaux usages. Aux Etats-Unis, le renouveau de la radio s’est fait par les podcasts, tel que « Serial » par exemple, véritable phénomène outre Atlantique.

Christopher Baldelli s’est exprimé lors du Salon de la Radio ce 25 janvier comme nous le rapporte Satellifax. L’ex-Président du directoire de RTL, aujourd’hui vice-président du directoire du groupe M6, après la fusion des deux groupes, en charge de la radio et de l’information a affirmé son optimisme quant à l’avenir de la radio. D’après lui en ce qui concerne les « 13-34 ans, il s’agit du média qui génère le plus de contacts journaliers. Et ce sont les 13-19 ans qui utilisent le plus les supports numériques (smartphone, notamment) pour écouter la radio (22,4 %), soit plus du double de la moyenne nationale » peut-on lire dans Satellifax. La radio est donc un média jeune, un média d’avenir qui répond aux habitudes de mobilité et de gratuité. Et ne parlons pas des podcasts, donc les consommateurs principaux sont des jeunes adultes. Cette cible intéressante pour les annonceurs, qui échappe de plus en plus à la télévision pourrait bien se révéler être un des objectifs de Spotify avec Spotlight. Spotlight serait un produit d’appel pour la publicité et la vidéo un support plus évident pour la publicité. La où YouTube a eu des problèmes de brand safety, Spotify a un contrôle sur ce qui est présent sur sa plateforme et peu être plus transparent avec ses annonceurs en ce qui concerne les impressions.

Pour ce qui est de la publicité audio, le marché est évalué à 18 milliards de dollars aux Etats-Unis et le baromètre Kantar 2017 a compté 1 076,8 millions d’impressions servies et un quart d’impressions supplémentaires en un an avec toujours plus d’annonceurs comme le rapporte CB news. On voit facilement quel intérêt Spotify peut trouver à développer une offre podcast pouvant capter à la fois du revenu publicitaire audio, mais aussi vidéo.
En effet le modèle économique actuel de Spotify n’a pas totalement convaincu. La plateforme de streaming doit reverser 80% de son CA en droit. Sa position de leader est assise mais les offres d’Apple, avec Apple Music, et d’Amazon, avec Amazon Music Unlimited, le concurrencent sérieusement et avec des prix très bas. Spotlight permet ainsi de se différencier par l’innovation et la qualité du produit auprès des consommateurs. Spotify se mesure ainsi directement aux GAFAS, dont Google avec YouTube.

Vers un avenir sonore, l’internet de la voix

Il ne faut pas oublier l’arrivée d’Alexa, l’assistant vocal d’Amazon. Google Home et HomePod qu’Apple vient de sortir. Tous les GAFAS investissent le domaine encore vierge des assistants vocaux. Il y a un enjeu pour tout service, se référencer phoniquement et être capable de proposer du contenu compatible. De ce point de vu une offre telle que Spotlight est intéressante, elle permet de toucher des utilisateurs sur leur smartphone dans les transports par exemple mais aussi une fois rentré chez eux, via leurs enceintes intelligentes, en abandonnant un contenu visuel distrayant mais pas nécessaire.
Peut-être existe-il le projet, l’ambition secrète, de faire de Spotify un Netflix sonore…

Là où des producteurs de podcasts rêvent d’une plateforme payante, d’un Netflix audio le défi n’est pas gagné. Les applications de podcast sont déjà des plateformes de streaming et de download où d’innombrables contenus sont gratuits et à disposition. Les radios généralistes ont depuis longtemps investis cet espace pour mettre leur contenu à disposition gracieusement. Le pari est alors de faire venir ces utilisateurs sur leur station lorsque ceux-ci allume le poste. N’oublions pas qu’à la radio les mesures d’audiences sont bimensuelles et que les utilisateurs sont peu zappeurs à la radio. C’est un média de l’intimité et de l’habitude. En ce qui concerne la radio, les habitudes sont prises et il est difficile d’imaginer un modèle payant.

C’est là que Spotify fait fort, puisque l’offre est totale, musique (les utilisateurs payent déjà pour ça) et podcasts qui viennent s’ajouter comme un argument de vente supplémentaire. Si Spotify parvient à constituer un catalogue important de contenus intéressants, le service pourrait être leader sur ce marché à venir de l’internet sonore.
La course aux contenus continue et avec elle les frontières entre les médias s’effacent…

Marion Lavaix

De la simple suggestion à la capture de notre attention : Les technologies nous manipulent- t-elles ?

Portable, ordinateur, tablette, Facebook, Snapchat, Instagram, … une routine largement répandue et partagée par beaucoup chaque jour. Face à cet empressement informationnel et social sont apparus depuis quelques années des manifestes anti-technologies, des « Digital Detox » salvatrices. Leur mission ? Nous libérer de notre hyperconnexion, de ce sentiment d’urgence permanent qui nous assiège dès que l’écran de notre smartphone s’éclaire. Comme pour arrêter de fumer, une bonne dose de volonté serait nécessaire et le webonaute se verrait libérer de ses démons modernes.

 

Évolution du nombre d’occurrences des termes « digital detox » dans le temps
– Source Google Trends

 

Alors, tous coupables ?

 

Nos applications/sites favoris sont-ils à dédouaner de toute responsabilité dans ce va-et-vient continuel de pouces sur les écrans ? Derrière la transparence supposée des interfaces pâmées de couleurs délicates et de cadres discrets, nos dispositifs de communication et d’informations sont bien plus que de simples intermédiaires neutres entre nous et le monde. Leur organisation, design, architecture et types de mise en visibilité des contenus sont pensés dans un objectif précis. Ainsi, selon Tristan Harris, ancien spécialiste du design chez Google, les nouvelles technologies « kidnapperaient » l’attention de leurs utilisateurs qu’elles garderaient captifs. Comment ? Par d’inlassables stimulus comme les notifications ou les alertes, par un scroll infini, ou même via le lancement automatique de vidéos, espérant ainsi capter notre regard. L’approche se veut délibérément pavlovienne, et crée a fortiori un comportement réflexif, l’individu se jetant frénétiquement sur son écran. L’attention est devenue le nouvel or noir et la technologie, son écrin.

 

Ainsi, selon Yves Citton dans Pour une économie de l’attention, le temps d’attention serait en passe de reconfigurer les lois de l’économie et de la politique. Il rappelle ainsi dans son œuvre une phrase de Michael Goldhaber qui soutenait que, « comme toute autre forme d’économie, celle-ci est basée sur ce qui est à la fois le plus désirable mais surtout le plus rare, et c’est maintenant l’attention venant d’autres personnes qui satisfait cette double caractéristique ». Cette nouvelle rareté est directement corrélée au web et à la profusion de biens disponibles qu’il propose. De plus en plus d’articles, de vidéos et d’images sont produits alors même que la quantité d’attention disponible par individu est fixe. C’est alors le business model même du web qui se trouve impacté, obligeant les entreprises à agir pour « attirer l’attention ».

 

En effet, le web, dès ses prémices a été conçu pour ne faire aucune distinction entre ses usagers. Dans cette agora connectée, la gratuité des biens était compensée par la publicité, et notamment le display. Dès lors, l’attention est devenue hégémonique pour qui voulait exister en ligne. Sans visites sur son site web, pas de revenus publicitaires. Des acteurs comme Twitter ou Facebook ont rapidement compris ce nouveau paradigme et ont adapté leurs modèles. L’équation était simple, plus les individus étaient connectés à la plateforme, plus celle-ci pouvait leur montrer des publicités et donc accroître ses revenus. Les notifications se sont alors multipliées et le scroll s’est allongé. Cependant, ces formes de stimulus ne sont pas les seules. Cette volonté de garder l’individu en ligne peut expliquer pourquoi notre News feed ne montre pas de manière équitable les actualités journalistiques récentes et les photos et publications likées par nos amis. L’article vous mènerait vers un autre site et vous ferait alors stopper votre navigation. Les photos de vos amis à contrario vous feront interagir, et donc rester davantage en ligne. Notons que la gestion des « fake news » suit un raisonnement semblable. Ce type de publication ayant tendance à se faire massivement relayer et à entraîner de nombreuses interactions (likes, commentaires), les supprimer au premier signalement couperait Facebook de revenus potentiels. L’attention est devenue un gibier à capturer, et pour se faire, tous les moyens sont bons.

 

De la « petite attention » à la capture complète de celle-ci, il n’y a qu’un pas, déjà franchi.

 

Rien d’étonnant alors à ce que le mot « captologie » (captology en anglais), contraction entre le mot anglais « captor » (ravisseur), et –logy (science), vienne de faire son apparition sur le site www.definitions-marketing.com (26 janvier 2018). Inventé par un chercheur de Stanford, il désigne les techniques de design des interfaces destinées à capter l’attention des utilisateurs. Cependant, cette capture, comme le souligne F.Cochoy, n’aurait rien de brutale, personne ne s’est jamais plaint d’une supposée violence physique de Facebook ou Google à son encontre. Il s’agirait plutôt d’une stratégie visant à tirer parti des capacités des individus afin de les dévier de « leur trajectoire, les soustraire à l’espace extérieur, les placer sous contrôle ». A travers cet art du « faire laisser faire », ces acteurs donneraient aux internautes une impression de liberté, qui bien qu’étant conditionnelle, ne se ressentirait pas comme telle. Le « champ des possibles » resterait ouvert, mais se limiterait à un nombre réduit d’actions.

 

L’interface de Netflix est l’un des exemples les plus frappants de l’impact du design sur les actions individuelles. En effet, l’abonné n’a que deux possibilités de navigation, horizontale et verticale. Dans le premier cas, 6 choix lui sont proposés, dans le second, 40 catégories. Il peut éventuellement rechercher un contenu, mais le catalogue est très large et les possibilités de filtrage inexistantes. Les films qui lui sont suggérés deviennent rapidement la seule possibilité qu’a l’individu dans sa recherche de contenu. Notons qu’il choisira plus volontiers les films se situant dans la catégorie la plus en haut et non ceux demandant de scroller plusieurs secondes. Dans cette situation, le design a un impact direct sur la consommation culturelle des individus.

www.medium.com/netflix-techblog/

 

Vers une éthique du design ?

 

Ces différents constats ont poussé plusieurs chercheurs à s’interroger sur l’impact à long terme de ce type de pratique et à demander l’apparition d’une éthique quant aux designs de nos technologies et sites web/applications. Tristan Harris, dont nous avons parlé plus haut a ainsi créé l’organisation Times Well Spent, qui se définie comme un « mouvement visant à transformer la course à l’attention afin qu’elle s’harmonise avec nos meilleurs intérêts ».  Elle prodigue ainsi de nombreux conseils permettant d’établir une relation plus seine aux technologies : tourner son écran en noir et blanc, arrêter les notifications, sur mobile lancer les applications uniquement en les cherchant dans la barre de recherche, etc. En France se tient depuis 2017 l’évènement Ethics by Design, première conférence en France dédiée à la conception numérique durable. Les choses sont donc en train de bouger du côté de la recherche mais les individus seront-ils prêts pour mieux vivre à se séparer des outils les reliant au monde ? Wait and see.

 

– Thomas JAFFEUX.

 

 

Bibliographie :

L’économie de l’attention – Yves CITTON – Éditions La Découverte.

– Michael H. Goldhaber , « Principles of the new economy », 1996.

– www.timewellspent.io

– https://2017.ethicsbydesign.fr

– COCHOY F. La captation des publics entre dispositifs et dispositions, ou le petit chaperon rouge revisité. La captation des publics : ”c’est pour mieux te séduire, mon client”, Presses Universitaires du Mirail, pp.11-68, 2004.

 

 

Le programmatique en télévision, pour bientôt ?

Alors que le SRI vient de dévoiler son bilan annuel de l’e-pub en France pour l’année 2017[1], plusieurs tendances s’affirment. D’abord, la décroissance de la part des investissements publicitaires des médias traditionnels (65,6%) au profit du digital (34,4%) se poursuit. Notamment, l’écart entre télévision (27,2%) et digital continue de se creuser depuis 2016, année charnière, où la publicité numérique dépassait le média roi télévisuel. Autre constat, les achats programmatiques poursuivent leur folle croissance et totalisent 63% des achats display (bannière et vidéo).

Aucune mention cependant de la part des achats TV programmatiques, promettant un achat automatisé et ciblé, annoncé pourtant depuis plusieurs années comme une des plus grandes tendances de la publicité en ligne[2] et comme le prochain bouleversement à venir sur le marché publicitaire qui sauvera la télévision.  Ceci alors même que le programmatique TV pourrait représenter 6% des investissements TV en 2018 aux USA[3] et que le marché mondial représenterait $19,1 Md en 2021[4]. Alors quand est-il en France ? La télévision programmatique (PTV) est-ce pour bientôt ?

 

Le programmatique TV : qu’est-ce que c’est ?

Déjà, la définition du programmatique, désignant l’achat et la vente de publicités via un processus automatisé, est sujette à galvaudisation puisque souvent raccourcie à tort aux seuls achats RTB (Real Time Bidding). La définition de ce qu’est et sera le programmatique TV demeure d’autant plus floue. Flou que l’on doit aussi bien au terme télé, qui ne désigne plus seulement depuis plusieurs années l’unique écran noir du salon, qu’à celui de programmatique. D’une part, les devices et les modes de réception du signal ont évolué entre TV connectée, IPTV, satellite, service OTT ou TNT et le flux s’est délinéarisé. D’autre part, le programmatique pour se qualifier hésite entre adressable TV, targeted TV ou programmatic TV… tachons d’y voir plus clair.

Si la définition du programmatique était une pure transcription du mode d’achat web, alors cela se définirait simplement par l’achat automatisé et informatisé d’inventaires publicitaires télévisuels. Cependant, pour le programmatique TV, l’opportunité ne vient pas réellement de l’automatisation. Quand on compare aux centaines de milliers d’inventaires disponibles sur internet, et pour lesquels l’achat automatisé a été un réel gain opérationnel, les inventaires TV restent, eux, limités.  Avec l’émergence des technologies de PTV, la proposition de valeur vient davantage d’un meilleur ciblage. C’est la fin du GRP (Gross Rating Point) tel qu’il fût pendant des décennies, c’est-à-dire liés aux seules données sociodémographiques (âge + sexe) au profit d’un GRP, dit data, qualifié. En découle les termes d’adressable TV ou targeted TV qui peuvent également tout à fait être commercialisés de manière classique. Avec un meilleur ciblage, c’est aussi la promesse d’une diffusion contrôlée et d’un meilleur ROI. Quand la télévision, désignée longtemps comme le « media de masse », s’adresse à une audience, le PTV ne cible plus que certains foyers. Inutile pour un annonceur de diffuser sa publicité de couches pour bébés à l’ensemble des téléspectateurs, incluant retraités, célibataires ou encore les foyers où les enfants ont bien grandi, quand il peut se concentrer uniquement sur les foyers avec enfants en bas âges. A la clef, la promesse de belles économies. Également, celle d’une uniformisation des cibles TV et digitales pour une meilleure connaissance de l’utilisateur et une meilleure optimisation des campagnes qui deviennent réellement multiscreen. LE PTV constitue donc une grosse opportunité pour les annonceurs.

Mais d’où vient cette data ? En France, selon le dernier rapport du SNPTV, plus de 48% des foyers reçoivent la télévision via leur box (IPTV) et près de 56% de la population possède un téléviseur connecté soit une augmentation de 15% en seulement 4 ans[5]. Le fournisseur d’accès à internet possède donc l’ensemble des données de connexion, données restant pour l’instant inexploitées en publicité. Quand on accède à un service OTT (type Netflix, Amazon vidéo…) directement depuis son écran ou casté par le biais d’un appareil, il faut se loguer et entrer ses identifiants. Les données utilisateurs : profil, consommation, géolocalisation sont également collectées. C’est l’ensemble de ces données 1st, 2nd et 3rd party qui seraient mises à disposition du PTV impliquant donc leur collecte, regroupement et synchronisation via les DMP du marché. En conséquence, c’est un élargissement du modèle de la catch-up TV où login et cookie permettent déjà d’adresser une publicité ciblée qui est proposé avec la télévision programmatique. Ceci de manière automatisé et grâce à des délais, sinon en temps réel, bien plus courts.

 

Où en est le marché en France ?

 

Alors que les USA, avec les ¾ du marché, et les pays anglo-saxons concentrent la plupart des investissements en TV programmatique avec plus de 2 Mds € en 2017 (rapport Idate Digiworld[6]), en France le marché n’en est qu’à ses débuts. En cause ? Le décret de 1992 relatif à la publicité et plus particulièrement légiférant le fait que « les messages publicitaires doivent être diffusés simultanément dans l’ensemble de la zone de service » (Art.13). Il est interdit, hormis pour les décrochages régionaux, de diffuser des contenus publicitaires adaptés, ciblés et géolocalisés sur la TNT. Les professionnels du secteur attendent donc patiemment un assouplissement du décret par le CSA. Pour ce qui est des boxs, leur technologie ne permet pas, pour l’instant, d’adresser des signaux différents en fonction des utilisateurs. Quand cela sera possible, le rapport de force entre chaînes et FAI, à l’image de TF1 menaçant de couper sa diffusion sur les boxes des utilisateurs Orange si ce dernier ne concède à mettre la main au portefeuille, sera certainement inversé puisque la data sera dans le camp des fournisseurs d’accès. En attendant, c’est donc la TV programmatique linéaire qui se trouve figée.

Pour ce qui est du non-linéaire, les premières expérimentations sont déjà à l’œuvre. TF1, première chaîne de France, a développé sa technologie d’AdSwitching dès 2015 permettant une publicité ciblée en digital sur mobile, PC et tablette et propose la commercialisation du dispositif en programmatique via sa place de marché One Exchange. Pour, Jean-François Ruhlmann, directeur délégué digital TF1 Publicité : « L’AdSwitching permet à nos annonceurs de cibler ces audiences avec un triple bénéfice : live, contexte engageant et activation data. L’« Adressable TV » est désormais une réalité avec la possibilité d’individualiser les campagnes sur nos audiences live digitales[7] ». Également, France Télévision a lancé sa propre place de marché Francetv Exchange, et s’est dotée d’un SSP pour commercialiser son inventaire vidéo sur PC, mobile et IPTV. Pour passer sur le linéaire, il n’y a qu’un pas.

 

Même si le programmatique TV reste à construire en France avec des normes de diffusions de mesures de l’audience et des métriques communes, il apporte de belles promesses pour le marché TV : ciblage affiné et optimisé, meilleur ROI, campagnes cross-devices… d’autant plus dans un contexte où la publicité digitale est aux prises avec les problématiques de visibilité, brand-safety et de fraude, le programmatique en télévision pourrait alors être une alternative.

 

Bruno Massondo

 

[1] SRI – PWC – UDECAM, Observatoire de l’e-pub – bilan 2017, janvier 2018, France

[2] http://www.journaldunet.com/ebusiness/expert/68315/les-10-tendances-de-la-publicite-en-ligne-en-2018.shtml

[3] OffreMedia, La TV programmatique pourrait représenter 6% des investissements TV en 2018 aux USA d’après emarketer.com, juin 2016

[4] Idate Digiworld, De la TV programmatique à la TV adressable, août 2017

[5] SNPTV, Le guide du SNPTV 2017

[6] Idate Digiworld, De la TV programmatique à la TV adressable, août 2017

[7] Site de TF1pub.fr

Shazam: Le nouveau bijou d’Apple

En 1999 Chris Barton, Philip Inghelbrecht, Avery Whang et Dhiraj Mukhertee fondent l’entreprise britannique Shazam. A l’époque les utilisateurs appelaient le 2580 et faisaient écouter une musique avant d’en recevoir le titre par SMS.  La percée de Shazam se concrétise en 2008 avec son apparition sur l’AppStore. Grâce au développement d’un algorithme de reconnaissance de musique puis d’images elle devient la 5ème application la plus vendue sur la plateforme. Prescripteur sur ce nouveau marché, aujourd’hui, Shazam reste indéniablement un acteur dominant, comptant plus de 100 millions d’utilisateurs actifs par mois en 2015. Téléchargée 1 milliard de fois en 2016, l’application devient même une référence en la matière, à tel point que le mot “shazamer” est entré dans le vocabulaire courant.

  

Shazam : l’étoile la plus brillante d’une constellation hyper concurrentielle…

 

L’arrivée d’internet et la numérisation des contenus musicaux ont profondément bouleversé la manière dont nous écoutons, recherchons et consommons de la musique. Le lancement du premier Ipod de Apple en 2001 ou celui de Napster au début des années 2000, ont réellement marqué un tournant pour les utilisateurs et les acteurs économiques de ce marché. En France, la numérisation du secteur musical a fortement impacté les supports physiques : en 2002, les ventes de CD baissent de 15% en une seule année.

L’application de reconnaissance musicale et d’image Shazam est symptomatique de ce bouleversement. En effet, cette application mobile développée pour un appareil électronique, comme le smartphone ou la tablette, permet aux fans de musique d’identifier une chanson à l’aide d’un logiciel de reconnaissance et d’une base de données répertoriant plus de 30 millions de titres, puis de les rediriger vers des plateformes de téléchargement ou de streaming.

Très vite, d’autres acteurs ont également réalisé la place stratégique qu’occupe la reconnaissance dans l’industrie musicale.  Parmi les concurrents les plus sérieux de Shazam on trouve :

Sonalytic.

Encore inconnu du grand public ce service est un concurrent sérieux de Shazam. En effet, Sonalytic ne possède pas encore d’application mais le 7 mars 2017 ce service a été racheté par Spotify le n°1 du streaming musical. Selon les dirigeants de l’entreprise, les algorithmes utilisés par Sonalytic seraient plus performants que ceux de Shazam et permettraient d’identifier la musique même pendant les changements de tempo ou lorsqu’il y a des bruits de fond ou des filtres. Spotify n’entend pas utiliser la technologie de Sonalytic pour concurrencer directement Shazam. Cette technologie serait intégrée à Spotify et sera utilisée pour améliorer la création des playlists.

Google Sound Search.

Il s’agit du le widget de Googleplay. Une fois de plus la technologie est directement insérée à un service de streaming, le Googleplay. L’avantage principal de l’application Google Sound Search est qu’elle permet de placer directement un widget sur l’écran de verrouillage du smartphone pour ainsi pouvoir identifier la musique plus rapidement.

MusiXmatch.

Cette application est la plus complète du marché. Elle a été sélectionnée parmi les applications de l’année par l’App store en 2013. En plus de reconnaître les musiques cette application permet de se connecter à Apple music ou à Spotify et d’avoir directement les paroles des chansons de manière synchronisée. Le caractère complet de cette application fait de ce service un concurrent sérieux de Shazam bien qu’il ne soit pas affilié directement à un géant du streaming musical.

Soundhound Ltd.

Avec plus de 10 millions d’utilisateurs Soundhound utilise une technologie à même de concurrencer Shazam. En effet, à la différence de Shazam cette application permet également de reconnaitre une musique chantonner par l’utilisateur.

Grand bénéficiaire des effets de réseaux, Shazam reste leader du marché de la reconnaissance musicale.

Plus qu’une marque, Shazam a créé le concept de l’identification musicale. A la manière de l’ubérisation on parle aujourd’hui de “shazamer” une chanson. Il s’agit d’un véritable fait social. Cette position de shazam est extrêmement bénéfique au sein d’une économie de réseau. Plus l’utilisation est connue plus elle va attirer les partenariats avec les producteurs dans une démarche prédictive, plus elle pourra enrichir ses services et sa base de données.


Mais comment Shazam se finance ?

 

Aujourd’hui, Shazam affiche un demi-milliard d’utilisateurs dans le monde, et son utilisation se fait en grande majorité sur les smartphones : en France par exemple, Shazam est présente sur 75% des appareils.  Pourtant, si l’application domine très largement ce marché et a su s’imposer de manière aussi massive auprès des utilisateurs, Shazam est devenue rentable uniquement à partir de 2016 avec un chiffre d’affaires s’élevant à 54 millions de dollars. Dès lors, quel est son modèle économique ?

Les deux sources majeures de revenu pour Shazam sont : les commissions prises sur le référencement des plateformes et la publicité présente sur l’interface.

La source principale de revenu provient des commissions prises sur les référencements des plateformes lorsque l’application a identifié la chanson écoutée par un utilisateur. En effet, Shazam a mis en place des partenariats avec les fournisseurs de musique majeurs comme Itunes, Amazon, Google et Spotify. Dans ce contexte, l’application redirige les utilisateurs vers une de ces plateformes pour que celui-ci puisse ensuite acheter ou télécharger le titre en question. Dès lors, Shazam récupère une commission dont le montant est pré-établi avec son partenaire, sur le prix de vente ou sur le montant de l’abonnement.  Or, Shazam estime que l’application génère, en moyenne, 17 millions de référencements par jour. Parmis ces-derniers, entre 5% et 10% engendrent des achats de musiques, de films, d’émissions de télévision ou d’applications. En effet, si la musique reste en tête de ces achats, la diversification du service de Shazam vers d’autres systèmes de reconnaissances, lui permet d’étendre ses sources de revenus. L’application déclare toucher en moyenne 300 millions de dollars par an, uniquement grâce aux référencements.

Dès 2011, le modèle économique de Shazam intègre de la publicité au sein même de son interface. Ainsi, deux versions sont développées : une version payante à 3,49 euros sans publicité, et une version freemium gratuite avec de la publicité. Aujourd’hui, les revenus de Shazam proviennent en grande partie des investissements publicitaires et l’application a déjà participé à plus de 450 campagnes. En effet, pour lancer une campagne publicitaire sur Shazam, les annonceurs déboursent entre 75 000 dollars et 200 000 dollars. Chaque campagne est alors mise en place pour une durée moyenne de deux mois.

En 2014 le lancement de Shazam Resonate a considérablement augmenté les opportunités publicitaires de l’application : Au-delà de la publicité présente sur l’interface Shazam devient un puissant outil publicitaire. Ainsi, les partenariats publicitaires sont mis en place avec la plateforme en amont pour des évènements spécifiques ou des programmations. La première opération a eu lieu lors des Billboard Music Awards, gérée par Dick Clarck Productions aux Etats-Unis. Lors de cette campagne publicitaire, les spectateurs équipés de l’application Shazam pouvaient voter pour le Billboard Milestone Award présenté par Chevrolet via Shazam. Aussi, l’application re-dirigeait les utilisateurs sur une page de vote sponsorisée par Chevrolet. Dans cet exemple, on observe que ce dispositif permet à Shazam de vendre son espace publicitaire à des prix plus élevés en valorisant un ciblage de meilleure qualité que celui de la télévision traditionnelle.


Que fait Shazam de toutes ces informations sur nos goûts musicaux ?

 

Bien souvent l’application, par son caractère universel, permet de prédire les succès de demain. L’application communique peu sur ces liens avec les maisons de disque mais il est probable qu’ils soient étroits. L’application met également les musiques les plus shazamées, par pays ou par genre, à disposition des marques qui s’acquittent d’un abonnement.


Pourquoi cette acquisition est-elle stratégique pour Apple

 

L’application Shazam a toujours été liée à Apple. Le service existait avant le smartphone, mais l’application a véritablement explosé en 2007 avec le lancement de l’Iphone. En 2014 ces liens entre les deux entreprises avaient déjà été renforcé lorsque Shazam a été intégré à Siri, l’assistant vocal de Apple. L’intensité de ces liens s’est finalement concrétisé par un rachat de l’application par Apple. En effet, le 4 décembre 2017 Apple a confirmé qu’il allait racheter Shazam pour un montant de 400 millions de dollars. Que justifie un tel investissement d’Apple, quelle est la stratégie du géant?

Contrairement à Spotify l’application Apple Music ne brille pas par ses playlists. Avec Shazam, l’application de streaming pourra obtenir “plus de données sur ce que certaines catégories démographiques écoutent” et ainsi faire de meilleures propositions à ses abonnés. Ensuite, l’acquisition de Shazam par Apple sera un élément clefs au développement des objets connectés d’Apple. La technologie pourra être intégrée au AirPods ou même à l’Apple TV renforcant le caractère pervasif des objets à la pomme qui séduisent autant les consommateurs. Enfin, la diversification de Shazam dans la reconnaissance visuelle et ses aspirations en matière de réalité virtuelle ont fini de séduire le géant Apple qui souhaite faire de l’Iphone une véritable interface de réalité virtuelle.

 

Ofra Toubiana

Les annonceurs faces aux plateformes de SVOD

Depuis quelques années les plateformes de SVOD (Suscription Video On Demand) connaissent une croissance sans précédent tant au niveau des abonnés, et donc de leur chiffre d’affaire, que par rapport à leur investissement dans la production audiovisuelle mondiale. Cela se traduit par l’apparition  de nouvelles plateformes et par l’ascension d’acteurs majeurs et dominants sur le marché de la distribution comme Netflix, Amazon Prime ou encore Hulu.

En effet, plus de 64% des foyers américains possèdent un abonnement à une plateforme SVOD et l’on estime que 2.5 millions de personnes sont abonnés à Netflix en France.

 

Le modèle économique de ces plateformes est fondé sur la croissance du nombre de leurs abonnés. Elles tentent donc de proposer des services de plus en plus qualitatifs, avec une offre de contenus variés et des suggestions adaptées à leurs clients.

L’émergence de ce nouveau mode de consommation remet en cause lourdement les rouages traditionnels de cette industrie qui, jusqu’alors, s’appuyait fortement sur la publicité dans ses canaux de revenus. Or, toujours dans l’idée d’offrir un meilleur service à leurs abonnés, les plateformes SVOD ont opté pour un modèle dans lequel la publicité n’a plus sa place. Alors même que l’obsolescence de la publicité à la télévision semble déjà programmée,  comment les annonceurs peuvent-ils s’adapter et utiliser les médias digitaux alors même qu’ils en sont exclus par les plateformes ?

Au-delà de priver les publicitaires d’accéder à leurs abonnés, Netflix ou encore Amazon Prime vidéo sont devenus petit à petit leurs concurrents. Ce n’est pas une concurrence autour d’un même service ou d’un même produit dont nous parlons ici, mais bien une compétition  pour capter  l’attention des personnes. L’attention de chacun, pour une publicité, une vidéo sponsorisée, ou encore un film, n’est pas extensible.   En effet, lorsque les abonnés des plateformes SVOD regardent leur série préférée, c’est autant de temps consacré qui ne profitera pas à la publicité. On estime aujourd’hui aux Etats-Unis, que les abonnés à Netflix sont exposés à 160 heures de publicité en moins à cause de la plateforme.

 

Dans ce contexte peu favorable pour les annonceurs, quelles sont les réponses pouvant être apportées ?

Intégrer de la publicité dans le contenu des plateformes semble être une tendance de plus en plus importante. Aussi, on parle de placement de produit qui s’intègre directement dans les films et séries  que les plateformes diffusent.

Créer des publicités plus innovantes qui réussissent à fédérer les fans d’une série d’une plateforme SVOD et qui crée ensuite un certain buzzs sur la toile, voilà le nouveau créneau. Certaines agences se veulent spécialistes de ces nouveaux types de publicités, aussi appelés « Native advertising ». L’agence Darewin par exemple, qui a pour client Netflix, a su faire parler de la série House of Card en faisant twitter Franck Underwood lors de l’utilisation intempestive du 49.3 en France.

 

Les annonceurs devrait donc peut être prendre exemple sur la communication des plateformes SVOD pour gérer leur campagne. En effet, bien que Netflix ou Amazon Prime Vidéo se privent de revenus financiers conséquents (estimés pour la première à près de 2.2 milliards de dollars par an) en refusant d’intégrer de la publicité à leurs plateformes, ils ne changeront surement pas d’avis et maintiendront une stratégie d’affaire qui fonctionne très bien. Alors, pourquoi changer une équipe qui gagne ?

 

Thomas Salas

2018, le tournant de l’industrie florissante du live-streaming en Chine?

Traitant des scandales, de l’examen réglementaire et de la hausse des coûts, l’industrie du live-streaming en Chine a atteint un tournant.

La fête pourrait bientôt être finie pour l’industrie en plein essor de la Chine, qui a vu son chiffre d’affaires triplés en année dernière, des dizaines de millions de yuans versés aux meilleurs présentateurs, en devenant insoutenables en raison du déclin du nombre de spectateurs en ligne.

L’explosion de l’industrie 

L’industrie du live-streaming a connu une croissance explosive au cours des deux dernières années, le nombre de plates-formes dépassant 100, tandis que les recettes ont bondi de 1,1 milliard de dollars en 2015 à 3,8 milliards de dollars en 2016, selon iResearch, il a atteint 7.2 milliards de dollars en 2017.

En Chine continentale, où plus de 95% des internautes utilisent des appareils mobiles, la diffusion en direct, comme les réseaux sociaux, est perçue comme un moyen d’interagir avec des personnes qui partagent les mêmes intérêts et de se divertir sans payer. Mais les autorités sont de plus en plus préoccupées par le type de contenu produit dans cette nouvelle industrie où les salariés les plus riches peuvent gagner jusqu’à  7 millions de dollars par an.

Les données de la société de capital-risque américaine KPCB montrent qu’en Chine, les revenus horaires générés par la diffusion en direct, qui inclut la publicité et les téléchargements payants, battent d’autres médias tels que les jeux en ligne, la télévision et la musique.

Les signes dangereux

Mais il y a des signes que l’intérêt des spectateurs est en train de diminuer, ce qui pourrait affecter l’appétit des investisseurs pour le secteur. Les spectateurs actifs mensuels de diffusion en direct avec un élément de divertissement sont en déclin depuis décembre 2016, déclaré par iResearch. Les spectateurs des vidéos en direct via des appareils mobiles sont passés du sommet de 141 millions en novembre à 107 millions en mars de l’année dernière.

Selon Cheetab Lab, l’unité de recherche sur Internet mobile détenue par Cheetah Data, la plupart des plateformes du live-streaming se financent encore par des dons virtuels volontaires des spectateurs, ce qui est risqué car il n’y a pas assez de revenus pour couvrir l’escalade des coûts de la rétention des meilleurs présentateurs.

Une croissance aussi robuste a donné un coup de fouet aux plateformes qui diffusent en direct. YY, cotée au Nasdaq depuis 2012, a vu son chiffre d’affaires en streaming augmenter de plus de 50% à 0.3 milliards de dollars au premier trimestre 2017, alors que le live streaming représente près de 80% du revenu de l’application de rencontres MOMO, qui est également coté sur Nasdaq.

Les problèmes présents

En novembre, un rooftopper chinois de 26 ans est mort en novembre d’une chute fatale en réalisant une vidéo selfie pour un défi de 15 000 dollars, déclenchant des critiques des médias d’Etat sur les dangers du live-streaming.

Plus tôt en décembre, Meipai, le populaire service de vidéo court géré par Meitu, l’application de retouche selfie de Hong Kong, a interdit aux mineurs d’utiliser son service de live-streaming suite à un scandale impliquant des écoliers primaires diffusant de la nudité en ligne.

Selon Li Chun, fondateur et PDG de Gathering Stars, une agence basée à Pékin qui gère plus de 100 streamers axés sur les jeux vidéo, l’industrie n’était pas réglementée jusqu’à cette année.

«Les streamers pourraient très rapidement constituer une base de fans en faisant quelque choses de provocateur. Il y a certainement eu des entreprises qui parient sur un succès rapide qui a permis que cela se produise. “

La professionnalisation des streamers

« Il y a très peu de gens qui peuvent atteindre le sommet », a déclaré Han. « Mais il y en a tellement moins connus. Ils pourraient avoir 100 000 fans ou même moins, comme 20 000. Ces personnes peuvent manquer de ressources pour faire leurs propres vidéos, mais si elles rejoignent une agence, elles peuvent recevoir des conseils sur la présentation et des solutions sur mesure.” Les agents vérifient les caractéristiques des streamers et surveillent leur interaction avec les spectateurs.

Xin Ying, la directrice des opérations chez Xing Media à Beijing, qui conseille aux streamers étudiants dans ses livres, qu’elle aimerait voir le bon contenu des streamers, mais ce n’est pas suffisant. « Ils doivent également démontrer qu’ils sont capables de dialoguer avec les spectateurs.”

Xin et Li ont déclaré que pendant qu’ils fournissaient des analyses de trafic et des données aux streamers dans le cadre de leurs conseils sur ce qui fonctionne et ce qui ne fonctionne pas, ils n’interfèrent pas avec la production de contenu.

Le genre est également important pour les wannabes de streaming en direct. Le jeux vidéo est le genre le plus populaire et aussi le plus lucratif dans un pays qui est le plus grand marché du jeux vidéo dans le monde.

Le player professionnel XiaoZhi, qui diffuse sur Quanmin TV, a reçu 6 millions de dollars l’année dernière, selon les données de University Consulting, une société de recherche. En moyenne, les cinq principaux diffuseurs du jeux vidéos ont chacun fait plus de 3 millions de dollars en direct sur des plateformes telles que Panda TV, dirigée par le groupe Wanda, et Douyu TV fondée en 2013 et soutenu par Tencent.

En plus d’être bien payés par les plates-formes, les principaux gagnants gagnent un revenu supplémentaire à partir de placements de produits et d’assister à des événements promotionnels.

Les plateformes de streaming en direct de la Chine sont similaires en ce qui concerne le contenu. Par exemple, il y a des centaines de présentateurs qui diffusent en direct des jeux à succès tels que League of Legends, Honour of Kings et Battlegrounds de PlayerUnknown.

De plus en plus cher, de moins en moins gagnant …

Par conséquent, les plates-formes comptent sur les présentateurs qui ont des masses de fans pour soutenir et augmenter le nombre de spectateurs, et en fin, leurs coûts d’exploitation ont augmenté. Les principales plateformes du live-streaming telles que YY, qui possède aussi la plateforme de jeux Huya, ont vu leurs coûts d’exploitation augmenter près de 30% à 1,38 milliard de dollars au premier trimestre de cette année.

Cette année, Huya a levé 75 millions de dollars auprès de sa société mère YY et Douyu a reçu des investissements de ses souscripteurs, notamment Tencent et Sequoia Capital.

Il n’y a pas de norme industrielle sur la répartition des revenus entre la plate-forme et le présentateur, bien que dans certains cas, les plates-formes peuvent prendre jusqu’à 80% des chiffres d’affaires. Cependant, les diffuseurs populaires ont plus de pouvoir pour négocier une part plus importante.

Douyu, l’une des meilleures plateformes, a indiqué qu’il avait déjà une source de revenus diversifiée et qu’à l’avenir, il expérimenterait de nouvelles façons de percevoir des revenus.

« Nous cherchons surtout des présentateurs … Nous n’avons pas beaucoup travaillé avec les agences de talents et les managers », a déclaré Douyu dans une réponse écrite. « Mais nous allons travailler avec eux plus souvent.”

« En ce moment, si vous perdez votre meilleur présentateur, les spectateurs disparaîtront. C’est comme regarder la télévision – si on aime rien sur votre chaîne, vous vous éteignez.”

 

Wenpeiyu ZHANG

SFR et l’impasse des droits sportifs

En 2015, séisme dans le paysage des droits audiovisuels sportifs. Canal+, la chaîne de télévision payante historique en matière de diffusion des plus gros événements sportifs perd les droits de diffusion de la Premier League (Championnat d’Angleterre de Football).

Contre toute attente, ce n’est pas son concurrent direct en termes de droits sportifs, BeIn Sports, qui rafle la mise mais un nouveau venu. SFR rachète à l’époque les droits TV de la compétition pour 3 ans. Coup dur, il faudra désormais être abonné à l’opérateur au carré rouge ou bien s’abonner à l’offre OTT (Over The Top – offre exclusivement Internet) pour pouvoir suivre les rencontres anglaises. Depuis, SFR n’en est plus à son coup d’essai et s’était immiscer dans le paysage audiovisuel sportif français avec plus ou moins de réussite. Craint par ses concurrents, en 2017 l’opérateur remporte les droits TV les plus convoités par le monde du sport, la Ligue des Champions et la Ligue Europa, ayant pour effet d’assécher à partir de 2018 les deux plus grandes chaînes sportives en France, qui se partageaient jusque-là la Ligue des Champions.

Ce lot de droits est parti pour un montant record de plus d’1 Milliard d’euros sur 3 ans, frais de production inclus. Le plus gros montant pour des droits sportifs jamais payé en France.

Pourtant, ce qui semblait être une nouvelle histoire d’amour entre l’audiovisuel et un opérateur téléphonique s’assombrit de jour en jour pour SFR-Altice. En effet, Orange avait, il y a quelques années, tenté un rapprochement entre médias et télécom qui s’était soldé par un échec. Aujourd’hui, le constat est amer pour SFR-Altice qui peine à se rendre incontournable pour tous les fans de sports. Les abonnements ne sont pas au rendez-vous, la fuite des abonnés de forfaits téléphoniques, qui auraient pu rester grâce à l’opportunité de se voir ajouter des rencontres sportives, n’est pas non plus colmatée. En outre, les grosses difficultés financières du groupe de Patrick Drahi, plongent les activités audiovisuelles dans la tourmente.

Ainsi, en janvier 2018, Alain Weil, patron des chaînes SFR annonce une restructuration des offres sport, officiellement pour plus de visibilité et aussi pour alléger la dette d’SFR en rassemblant les programmes dans un nouveau bouquet appelé Altice Pay TV.

Cette annonce a eu pour effet de laisser imaginer de nombreux scénarii possibles en ce qui concerne le futur des programmes des chaînes SFR sport. Une seule chose est certaine, SFR-Altice ne peut plus avancer seul, le groupe doit trouver des partenaires et recruter des abonnés par différents moyens, à moins qu’ils n’envisagent carrément l’arrêt de leurs droits sportifs et la revente des droits qu’ils détiennent aux autres chaînes du secteur. Il faut trouver un moyen de rendre rentable ces immenses investissements.

Après cette annonce de restructuration d’Alain Weil autour de la nouvelle structure chargée de monétiser les droits TV du groupe Altice, les autres chaînes sont dans l’attente de recevoir des offres de diffusion de la part du cablo-opérateur. Alors, une partie d’échecs semble entamée depuis ce début d’année 2018 entre les différentes chaînes capables de diffuser les grands événement sportifs en France.

Pour preuve, dans les colonnes du journal L’Equipe, Maxime Saada, Directeur Général du groupe Canal+ déclarait attendre « avec sérénité les propositions de SFR. Nous ne sommes pas dans le besoin aujourd’hui ». Une manière de se placer en tant que nouvel acteur dominant dans ce rapport de force. Ces déclarations ayant pour but de réduire les prix des droits de diffusion qu’ils pourraient récupérer. A l’inverse, le patron des chaînes SFR rappelait, le 18 janvier dernier : « Canal+ est un partenaire stratégique essentiel. Nous distribuons Canal + depuis toujours. C’est la chaîne du football aujourd’hui, aussi celle du cinéma. Bien sûr que nous avons des discussions avec eux ». Le groupe Altice semble clairement aux abois et le rapport de force tourne à son désavantage.

Les contours de cette nouvelle stratégie d’Altice sont encore assez flous mais il semblerait que leur principal besoin est de continuer à détenir leurs droits à travers leurs chaînes tout en utilisant Altice Pay TV comme intermédiaire afin que les chaînes SFR Sport puissent être distribuées par d’autres opérateurs et chaînes.

Enfin, les déboires de la chaîne au carré rouge ont eu pour conséquence de décaler l’appel d’offres de la LFP (Ligue de Football Professionnelle) pour la mise aux enchères des droits de retransmission de la Ligue 1 de football. En effet, il était pressenti que cet appel d’offres pour les saisons 2020-2024 soit lancé dès le printemps 2018, mais n’aura vraisemblablement lieu qu’à partir de la saison prochaine. Le but semble alors de laisser le temps à SFR de sortir la tête de l’eau et lui permettre de prendre part aux enchères. La LFP à tout intérêt à différer le lancement de son appel d’offres afin d’augmenter le nombre de participants et de faire grimper les montants proposés par les chaînes. Le coup fort lancé par SFR lors de l’achat des droits de la Ligue des champions en 2017 pour plus d’1 Milliard d’euros est encore dans toutes les têtes et la LFP entend bien en profiter.

Par ailleurs, la Ligue 1 de Football a pris un nouveau tournant cet été, grâce à de lourds investissements consentis par les clubs et notamment le PSG (Paris Saint-Germain) avec l’achat d’un des joueurs les plus suivis au monde, le brésilien Neymar. A lui seul, il a fait monter l’attrait du championnat et pourrait faire grimper le montant des droits TV de quelques millions d’euros supplémentaires.

Loïc Ferreira

Le DOOH : enfin un vrai média ?

Le 20 décembre 2017, après 18 mois de gestation, l’Alliance pour les chiffres de la presse et des médias (ACPM), certifiait l’affichage numérique publicitaire avec « DOOH Trust ».

Une bonne nouvelle pour ClearChannel, Screenbase, JCDecaux et toutes les régies publicitaires à l’initiative du mouvement.
Quelques temps maintenant que le Digital Out Of Home crève l’écran au Royaume-Uni (où il représente 39% de l’affichage) ou encore aux USA (24% de l’affichage), tous deux loin devant la France (9%).

La certification DOOH Trust serait-elle en passe de changer la donne dans l’Hexagone ?

DOOH : REELLE PLUS-VALUE OU SIMPLE DÉCLINAISON DE L’AFFICHAGE CLASSIQUE?

La rue est un lieu où l’on vit de plus en plus d’expériences, de nombreuses marques telles que Coca-Cola, British Airways ou encore Taco Bell l’ont bien compris. Plus d’une se sert aujourd’hui du Digital Out Of Home afin d’exposer des produits de manière interactive. Par ce procédé elles intègrent l’aspect social média à leurs publicités digitales externes ce qui les rend plus engageantes auprès de leurs consommateurs.

On le sait, capter l’attention est devenu un enjeu central. Les annonceurs se parent de multiples méthodes d’analyse de performance pour n’espérer au fond qu’une seule chose : délivrer à une audience visée le bon message, au moment opportun, à l’endroit idéal.
Le Digital Out Of Home a ce pouvoir de cibler et changer les messages en fonction de l’heure ou de la localisation suivant, par exemple, la fréquentation des lieux.

Reste pour cela un défi de taille : mettre en place des metrics fiables qui permettent de mesurer la performance. Sans quoi le DOOH ne serait qu’une pure déclinaison de l’affichage classique.

DOOH TRUST : VERS UNE LABELLISATION DE L’EFFICACITÉ DES CAMPAGNES

Comme pour le display on-line, les annonceurs et agence achètent des spots publicitaires sur des écrans digitaux et veulent connaitre la réalité de ces diffusions.
Pour Paul Wourlod, directeur général de Screenbase « l’affichage numérique est devenu un média à part entière et plus seulement un canal complémentaire, auquel il ne manquait rien pour devenir un média numérique sinon une certification ».
En décembre 2017 l’ACPM (Alliance pour les chiffres de la presse et des médias) confirma cette hypothèse en certifiant l’affichage numérique avec DOOH Trust. Une mesure symbolique mais pas que.

Concrètement, le contrôle de la diffusion des campagnes se fait via une interface web sécurisée de l’ACPM. Celle-ci collecte les déclarations des agences et les logs bruts des écrans digitaux des régies participantes. Ces données sont ensuite croisées avec les déclarations des agences média, puis restituées sous forme de bilans de campagne mensuels certifiés. Dès leur collecte, les logs sont vérifiés, analysés, agrégés par campagne et par jour, puis contrôlés par les opérateurs de l’ACPM.
« L’ACPM restitue alors, via son interface dédiée, un bilan des campagnes certifiées pour les régies et les agences », souligne Patricia Panzani directrice des opérations au sein de l’ACPM. « «Par la suite, les afficheurs dont l’écart entre performance annoncée et observée sera moindre se verront remettre le label DOOH Trust, « confirmant ainsi la place de l’ACPM comme tiers de confiance dans la relation entre agences média, régies et annonceurs»,  selon Gautier Picquet, président de Publicis Media France et de l’ACPM.

Une mesure globale puisqu’elle concerne toutes les techniques d’affichage digital urbaines et l’affichage numérique indoor en centres commerciaux, en boutiques, dans les aéroports, les gares et les métros.

LA PUBLICITÉ URBAINE EN PASSE DE REGAGNER LA CONFIANCE DES ANNONCEURS…? QUID DE CELLE DES PASSANTS ?

Avec la certification des chiffres par l’ACPM, un tiers de confiance, l’univers de la publicité gagne en clarification et en transparence…pour les annonceurs ! Quid des passants ?

Rassurer les publicitaires et leurs annonceurs ne datent pas d’aujourd’hui. Les « Affiches Myriam » ; triptyque publicitaire dévoilant à trois échéances différentes la nudité d’une femme durant l’été 1981, participaient déjà de cette volonté.
En effet, en synchronisant sur tout son parc de panneaux le même « événement » sur trois jours Avenir, groupe d’affichage français, prouvait aux professionnels sa fiabilité en matière d’affichage.
En 2018 la problématique n’est pas tellement différente : les annonceurs ont toujours besoin de retours quant à la performance de leurs campagnes sans quoi ils se détournent de ces affichages urbains pour d’autres horizons plus « fiables ». Une forme de publiphobie en somme.

Or la certification vient apporter le tracking qui manquait et donner une « dimension scientifique à l’affichage » selon les termes de Raphaël de Andréïs, président de l’Udecam et de Havas Village France.
Ce média est d’autant plus intéressant pour les annonceurs qu’il s’agit d’une alternative à la publicité online ; terrain de jeu des adblockers qui n’en finissent de séduire les internautes.

Avec la certification DOOH Trust, l’ACPM, réconcilie donc « monde » physique et « monde » digital.
Va-t-on vers plus d’acceptation de la publicité pour autant ? Rien n’est joué. Reste aux annonceurs la tâche de faire preuve de créativité pour convaincre de la performance de l’affichage digital urbain. Affaire à suivre.

 

Morgane Daadi

SOURCES :

 

KEY MARKETING TRENDS IN THE E-COMMERCE INDUSTRY

The Criteo S. company announced  the key marketing trends in 2018 in the e-Commerce industry. E-commerce market is growing rapidly: the main asset where retailers and brands get the information about customers and their actions are online and offline. These data help to better understand the motivation of current customers and successfully interact with them.

 

The company has identified 8 key marketing trends in e-Commerce industry in 2018:

 

Voice shopping

Contextual advertisements can offer personalized content and recommendations. People are buying more and more products using such smart speakers as Google Nomail Amazon Echo. In the next two years these technologies will become very popular. Smart speakers will be able to advise the relevant services and products due to the abundance of information about customers and their preferences.

 

Social Commerce

Social networks are gradually becoming a platform for online Commerce. In particular, Facebook introduced the Facebook Marketplace. It was successfully launched in the US, the UK and Australia, and recently the service has expanded itself into further 17 European markets. Amazon launches Amazon Spark, there customers see pictures of different products and are able to instantly place an order. The catch is that social networks protect personal information, so retailers and brands need to find other ways of building relationships with clients.

 

The integration of offline and online sales

A vivid example is the Amazon company, which in August struck a deal to acquire supermarket chain Whole Foods. The company will have access to offline customers and will be able to better understand buying habits and increase the amount of average check. Other retailers also seek opportunities for collaboration with offline platforms to gain access to their internal CRM databases in order to offer more relevant and personalized advertising campaign online. In addition, large retailers will continue to invent more convenient ways to pick up online orders. Overall, the focus will be put on bringing offline customers into the online space.

 

Exchange of information

Such tech giants as Facebook and Amazon safeguard the user data of its customers, refusing any information partnerships with other market players. However, to gain competitive advantage retailers and brands will continue to share with each other information about their customers. 72% of heads of marketing believe that the information the partnership will increase revenue, profit and customer satisfaction.

 

Streamlined product presentation

The advertising departments will look for new ways to present the product, including using the description of the product and its image. The context of grocery photos, big plans in high resolution, images, 360 degree and other tools will become necessary in order to provide online users the best customer experience.

 

The law on protection of personal data

Regulatory act of the European Union, « General provisions on data protection » will come into force on 25 may 2018 and will radically change the methods of collection and use of personal data. Primarily this will affect companies seeking to interact with European customers and analyze their behavior for marketing purposes. Globally the adoption of this bill will help to build a trusting relationship between clients and those companies that advocate for transparency of business.

 

Video

The proportion of time that people spend watching video online continues to rise, forcing advertisers and media companies to increase the use of this format. The video is also a priority and social networking resources such as Facebook, YouTube, Instagram and Snapchat are in continuous search of high-quality content. In 2018, the popularity of video will grow, which will lead to a new round of battle for cooperation with programmatic advertisers and their partners.

 

Partnerships and mergers

Over the past six months several high-profile deals were signed in retail industry such as Amazon and Whole Foods, Amazon and Kohl’s, Walmart and Google Express service. In 2018, retailers will actively seek opportunities for strategic partnerships to remain competitive and to strengthen their expertise, but also to combine online and offline to achieve maximum advantage.

 

Angelika Buzulukova

Amazon to Instagram: Deja vu? The Reality of Retargeting and the Future of Privacy

Amazon to Instagram: Deja vu? The Reality of Retargeting and the Future of Privacy

Now: Have you ever been scrolling through your news feed on Instagram and you found an advertisement that looked eerily familiar? In the spring of 2017, I was taking part in a group project for my marketing class at the University of Richmond in Richmond, Virginia, United States. Our assignment was to come up with a product and develop an original marketing plan. We decided on an electronic door key called “Keyless”. Anyways, while conducting research for our pricing strategy, I searched the prices of similar products on Amazon. Long behold, I was scrolling through my Instagram a few hours later and voila! There was an Amazon advertisement on Instagram for the very product I previously looked up. At first, I was dumbfounded and naive, thinking that this was some crazy coincidence. For a few moments, I thought to myself “what are the chances that the products I looked at on Amazon would be advertised to me on Instagram?” However, I quickly realized that this couldn’t be a coincidence. I concluded that my Instagram and Amazon accounts must be linked in some capacity. This was an “Aha moment” that reminded me of the digital world that we live in, where so much of our personal information is shared between various networks. This scenario was the perfect example of how my information could be used by different sources to profit. The following marketing class, I mentioned this occurrence to my professor who told me that this happens even more often via the Amazon Echo. Moreover, there have been situations in which a product that someone has recently discussed out loud appears on his or her device in the form of an advertisement. This phenomenon is known as “retargeting”, which is when online advertisements are targeted to someone according to the target person’s online activity. Retargeting is not exclusive to Amazon and Instagram as it appears on many other platforms including Facebook. This implies that our devices are not only tracking our every search or click, but also that our devices are listening to what we are saying.


With advancements in online technology comes increased capabilities for many people, especially advertisers. Not only do online advertisers have a whole new way to reach their audience, but they can reach them with products that have been of interest to Instagram users. From Instagram’s perspective, there is a critical advantage and disadvantage of allowing advertisers to retarget to Instagram users. While retargeting could be highly lucrative as advertisers pay Instagram for ad space, it could also carries the risk of making Instagram users uncomfortable. Furthermore, when seeing a recently searched Amazon item in an Instagram advertisement, Instagram users could feel that their privacy has been invaded. As the platform for individuals to share pictures of their life with one another, Instagram has a brand image to maintain. Individuals, who only use Instagram to view pictures posted by their loved ones, could be turned off by precisely retargeted advertisements. These people want to feel safe when they are viewing these pictures and not as if they are being spied on. For Instagram, the question becomes, do the benefits of advertisement dollars outweigh the potential costs of upset users? In order to effectively understand the reasons for retargeting on Instagram, it is essential to look at the numbers provided by Facebook, which acquired Instagram in 2012 for $1billion. According to Facebook, when presented with a product post on the app, 60% of Instagram users see new products while 75% of users take action. Although the 60% figure was in regards to finding new products in advertisements, this could still be seen as retargeting. For example, an individual might have been browsing Nike.com for a specific Nike Lebron James basketball sneaker, but decided to not purchase the product due to its high price. In turn, Nike chooses to retarget a similar, yet more affordable basketball sneaker to the same consumer. Nike pays Instagram to display the advertisement and Nike could profit if the consumer makes the purchase. Additionally, Nike is able to see that their customer pays attention to social media ads and that the customer prefers cheaper purchases.
Instagram provides companies with so much information that could be valuable for effective advertising. If a company has an Instagram page, it could potentially monitor the accounts and topics that its own followers are interested in. For example, Nike might monitor its followers and see that many of them are also following Neymar Jr., the elite soccer player. In turn, Nike could pay Neymar Jr. to appear in a Nike advertisement that will be directly targeted to those mutual followers. Combining this data with retargeting, Neymar could appear in Nike advertisements for a product that those mutual followers displayed interest in online but never purchased.

The near future: If Instagram users feel that their privacy is already being invaded, they might feel even more uncomfortable in the near future. Apple recently introduced the iPhone X, featuring Facial Expression Recognition Software, which is marketed as a security measure. However, it would only make sense that the data provided by this software ultimately becomes a valuable item that Apple could sell to marketing researchers. Furthermore, this software could enable marketing researchers to actually observe user facial expression and therefore analyze how consumers felt when presented with a specific advertisement for a product or service. Specifically, advertisers could purchase the data containing the facial expression of Instagram users when presented with a specific advertisement. This would help companies’ marketing teams determine how consumers truly feel about their products, pricing, promotion, and even place. This would be much more effective than having biased consumers tell you how they feel. For example, if Apple has data showing that a Facebook user smiled when viewing an iPhone X advertisement, Apple knows that the person is interested in the promotion and potentially the product. In turn, Apple could retarget the iPhone X to the same individual by showing the same exact promotion on that user’s Instagram account. All the while, Instagram is paid for the advertisement. Since Facebook owns Instagram, it profits from advertising on both platforms.
The last thing an advertiser wants to do is upset consumers. Although Facial Expression Recognition Software could enable advertisers to better target consumers with material that is more relevant, it could also make consumers extremely uncomfortable. Ultimately, social media platforms like Facebook and Instagram are free because we provide value in our personal data. Therefore, if users become increasingly paranoid about their privacy being jeopardized, social media companies could face an uphill battle. However, it would be very interesting if platforms like Facebook or Instagram estimated the value of each user’s data. In turn, Facebook could introduce an option for users to pay a fee for privacy equal to the value of forgone personal data that could no longer be sold by the company.
Personally, I believe our data has been available to social media platforms and big companies for many years now and that we will only become more exposed. As someone who has nothing to hide and thinks before making a purchase, I do not feel threatened by enhanced methods of retargeting. From my perspective, we get to use these platforms for free and companies are therefore able to profit off of the information that we make available. That seems reasonable. Moreover, both sides benefit as users enjoy these free platforms, which profit off of our tendencies. Ultimately, I think there is a fragile boundary that advertisers must not cross. In other words, there is a fine line between retargeting consumers with the perfect, most relevant products and intrusion of privacy. However, some consumers will feel these two things simultaneously occurring.
Consumers could one day find themselves living in a world where companies are omniscient. On the other hand, it is possible that we are already living in such a world.

Samuel Altman

Télévision et VR : un mariage heureux ?


Dans cette ère de transformation digitale, la télévision cherche sa place. Ses recettes publicitaires stagnent alors que les diffuseurs se multiplient et la génération Y s’en désintéresse. Si la télévision reste encore le média de masse par excellence, que son expertise en matière de production de contenus lui garantit encore sa valeur, la question est : pour combien de temps encore ?

Internet a fait émerger une concurrence protéiforme et donne le sentiment aux jeunes générations que le poste de télévision est devenu un format poussiéreux. Comment rivaliser avec Youtube qui prône les UGC (users generated content) ? Comment donner du sens à la linéarisation des programmes quand le public s’habitue à l’ATAWAD (AnyTime, AnyWhere, AnyDevice), fortement aidée par les OTT ? Comment convaincre le téléspectateur de continuer à regarder un écran au milieu du salon dans un univers multi-devices ? Certains l’affirment haut et fort : la télévision est morte. Je ne le crois pas.

Le secteur télévisuel doit changer, c’est certain. C’est souvent la conséquence de l’apparition d’un nouveau média sur les anciens pour que ces derniers ne disparaissent pas. C’est d’ailleurs ce qu’elle fait. Les grands groupes audiovisuels français développent leur stratégie numérique : catch up TV, transmédia, départements « nouvelles écritures », etc. Or, pour les raisons citées plus haut, l’incursion dans le numérique est difficile et une monétisation de ses contenus encore peu satisfaisante. Pourtant, il y a des motifs d’espoir. Le premier est qu’Internet aura confirmé l’intérêt phénoménal des utilisateurs pour les contenus : la vidéo est partout. Cela tombe bien, c’est le cœur de métier de la télévision. L’autre bonne nouvelle est le développement des technologies et les nouveaux modes de diffusion. Le dernier MIPTV l’aura bien compris et, parmi d’autres choses, la VR a tenu une place importante.

On définit communément la réalité virtuelle comme étant une technologie capable de projeter un individu dans un monde conçu numériquement. Les gamers en ont déjà fait l’expérience et elle semble convaincre. Mais la réalité virtuelle ne sera pas réservée qu’aux jeux vidéo, toutes les industries ont à y gagner, en premier lieu les diffuseurs. Alors, Télévision et VR : mariage heureux à venir ? Si les perspectives sautent aux yeux des parties prenantes, encore faudra-t-il réussir à lever les obstacles d’une technologie… vieille de plus de 20 ans déjà.

 

D’intéressantes perspectives pour les diffuseurs et annonceurs…

L’Internet c’est la transformation des usages. Le public est passé de la passivité à l’interactivité, de la masse à l’individualisation. Aujourd’hui, l’individu a pris une place centrale, pour les marques, pour le marketing. Pourquoi la VR semble-t-elle si intéressante ? Je vais citer Eric Scherer, directeur de la prospective chez France Télévisions, qui résume ainsi les choses : la VR est « un média qui coche toutes les cases de l’époque : interactivité, personnalisation, mobilité, immersion ».

C’est avant tout la promesse de nouveaux contenus : nouvelles formes, nouvelles expériences. La plupart des genres télévisuels semblent adaptés à emprunter ces nouveaux codes. Du côté des programmes de stock (information, divertissements, etc.), une forte interaction devient désormais possible. Les jeux, par exemple, restent une valeur sûre pour les chaînes et ont, de tout temps, cherché à impliquer l’audience dans ceux-ci (appels, votes, questions, etc.). La VR rendrait alors possible une participation en bonne du forme du téléspectateur de chez lui, et non plus restreint à groupe de candidats. Peut-on imaginer un jeu d’envergure national, voir international, avec un nombre de participants conséquents ?

Du côté du stock, on pense en premier lieu à la fiction. La VR aura, tel un jeu vidéo, la capacité de projeter l’individu dans l’histoire, de lui donner un rôle. Certains broadcasters, à l’image de Showcase avec la websérie Halcyon, emprunte déjà ce chemin. Autrement dit, ce serait l’apparition d’une narration innovante qui garantirait un engagement total de la part du « VRspectateur » . En outre, le documentaire est un genre particulièrement friand des expérimentations, avec l’exemple de Arte qui s’est émancipé du petit écran avec le projet The Enemy, au budget conséquent (1,6 millions d’euros), exclusivement conçu pour la réalité virtuelle. Couplé à son expertise en matière de production, la VR est bel et bien une voie crédible pour la télévision et l’exploitation de nouveaux formats éditorialisés.

Aussi La VR n’exclut pas la convivialité. Bien au contraire, le social prendrait là encore une nouvelle dimension : on pourrait partager – vivre – un contenu en temps réel, une histoire en commun, ou même tout simplement regarder un format dans un univers virtuel à plusieurs. Une télévision plus sociable est une aubaine pour les annonceurs. Souvent une « purge d’audience », la coupure publicitaire pourrait trouver ici un nouvel élan et interagir avec l’audience. Là aussi, fin à la passivité, une publicité par exemple « gamifiée » mais surtout personnalisée pourra continuer d’éveiller l’intérêt de l’individu en l’immergeant dans l’univers de la marque.

 

mais de nombreux défis restent à relever

Les perspectives offertes par la VR semblent révolutionnaires. Par ailleurs, selon certains analystes financiers, le marché de la réalité virtuelle est promis à un avenir radieux : il devrait dépasser celui de la télévision d’ici 2025. Cependant, en ce qui concerne le secteur audiovisuel, s’il n’est pas à douter de la plus-value apportée en matière de consommation de contenus, certaines barrières actuelles seront nécessairement à dépasser si la télévision veut voir en la VR un avenir, cela à plusieurs niveaux.

On peut considérer dans un premier temps un facteur psychologique. Souvenez-vous, en 2010, la révolution 3D qui accompagnait les salles de cinéma était aussi promise à nos téléviseurs. Les grands constructeurs, à l’image de Samsung ou bien encore LG, se sont empressés de proposer un gamme de télévision 3D. Une fois l’effet de curiosité passé, cette technologie a vite décliné. Peu y ont adhéré, les diffuseurs en premier lieu. Mais surtout, les téléspectateurs ont tout simplement rechigné à devoir porter un dispositif. C’est contraignant. Or, la VR suppose nécessairement un dispositif pour pouvoir en profiter. Si les hardcore gamers semblent apprécier la VR pour jouer, en sera-t-il de même pour le téléspectateur lambda ? Aujourd’hui les casques sont massifs, encombrants et isolent physiquement. De plus, une immersion intégrale, plus tactile, va imposer davantage d’accessoires qu’un simple casque… L’objectif pour la VR sera de se rendre la moins invasive possible pour ne pas freiner les utilisateurs.

Au niveau marketing aussi : comment réussir à « montrer » cette technologie ? C’est un véritable défi auquel les constructeurs devront répondre. En effet, comment inciter à consommer une technologie que seule son utilisation permettra d’évaluer ? L’immersion offerte par la VR ne peut être retranscrite dans une publicité, aussi bien offline ou online, elle sera donc difficile à vendre.

La conception des contenus est l’autre aspect crucial. Dans l’histoire des médias, une même logique s’est à chaque fois répétée : quand un nouveau médium apparaît, il a tendance à exploiter les contenus des anciens médias dans un premier temps. Par exemple, lorsque la télévision est apparue, elle diffusait au départ des bulletins radiophoniques. Il est donc vital que les formats prévus pour la VR soient pensés pour celle-ci et ne pas se contenter  d’y « pousser » la télévision traditionnelle. De même, le défi narratif est énorme : comment raconter une histoire si l’on ignore par avance le comportement de l’individu (que regardera-t-il ? Ou s’orientera-t-il ? ) : comment le guider dans un environnement 360° ? Si la VR est une opportunité pour tous conteurs (la promesse d’une véritable immersion), encore frauda-t-il en assurer une certaine cohérence.

Enfin, ce sont aussi les conditions de production qui s’en trouveront impactées. Réaliser un programme TV, qu’il soit de flux ou de stock, reviendra de plus en plus à le penser comme un jeu vidéo. De nouveaux métiers seront à considérer pour tourner une fiction ou un divertissement : des développeurs, des ingénieurs, etc. En voit-on aujourd’hui dans les devis des producteurs ? Non bien sûr. Il va falloir s’attendre à une explosion des coûts de production, un investissement qui dépendra du taux d’adoption de cette technologie.

 

Conclusion

La VR est une technologie prometteuse, au cœur de nombreux intérêts aujourd’hui. Si elle semble dépasser le simple effet de mode, son adoption concrète par l’industrie audiovisuelle est loin d’être acquise. Mais les chaînes affichent une volonté certaine de creuser la question, ce qui est déjà un bon signe.

En creux, cela signifie surtout que la télévision, en l’état actuel, a un besoin urgent de se renouveler pour reconquérir un jeune public. La VR est-elle l’ultime solution ? Difficile à affirmer mais les nouvelles technologies doivent être au cœur de la réflexion des chaînes.

 

Benjamin Mollié

 

 

La menace de l’économie digitale : comprendre et appréhender la fraude publicitaire

Dans le nouvel univers digital qui se dessine au sein de nos smartphone, ordinateurs et autres tablettes, une place importante est consacrée à la publicité. En effet, face à cet horizon infini d’espace libre et à la quantité vertigineuse d’aficionados du web, les annonceurs ont vite compris qu’ils pourraient tirer leur épingle du jeu. Mais ils ne sont pas les seuls déterminés à profiter de cette ruée vers l’or. Explication.

Le marché numérique de la publicité permet aux annonceurs et aux éditeurs d’échanger des espaces publicitaires et de l’audience Les acheteurs de médias négocient et achètent des espaces dont l’audience est ciblée, afin de véhiculer leur message marketing auprès de potentiels clients.

L’une des multiples technologies sur laquelle s’appuie la publicité en ligne est l’achat programmatique d’espace publicitaire, une vente aux enchères en ligne et en temps réel. Le terme programmatique recouvre un large éventail de mécanismes qui automatisent l’achat, le placement et l’optimisation de la publicité afin d’augmenter la rentabilité des campagnes publicitaires. L’achat programmatique d’espace est censé garantir à l’acheteur que les impressions de ses campagnes publicitaires seront vues par le bon utilisateur, qui pourra alors potentiellement acheter le produit par la suite.

Pourtant, sur ce marché intrinsèquement global, la fraude publicitaire inquiète de plus en plus les annonceurs, et éditeurs. Qui est-elle, et comment s’infiltre-t-elle dans le système ?
Depuis cette année, la fraude publicitaire est la deuxième activité illégale la plus lucrative au monde après la vente de stupéfiants. Une activité publicitaire frauduleuse consiste à tromper les annonceurs en leur vendant différents types de « faux lots » d’espaces, qui s’avéreront etre complètement inutiles au bon développement de leur campagne marketing.  Les annonceurs sont tenus de payer pour une exposition qui n’a jamais eu lieu ou, si elle l’a fait, elle n’a pas réussi à atteindre le public visé : dans les faits, les annonceurs perdent de l’argent en payant pour des publicités fantômes. De nombreux et différents types de fraude sont recensés à ce jour, trois sont identifiées comme étant les plus répandues.

La fraude d’impression est la pratique frauduleuse par laquelle une campagne publicitaire est artificiellement générée, sans avoir la moindre chance d’etre vue par un humain, et pourtant comptabilisée et indument facturée à l’annonceur.

La fraude par clic survient lorsqu’une personne non-humaine, un script automatisé ou un programme informatique, imite le comportement d’un utilisateur, en cliquant sur des annonces de manière systématique, sans avoir de réel interets donc pour la marque payant la campagne.

La fraude de conversion n’est qu’une variante de la fraude par clic, plus difficile à déceler cependant car le volume de clic ne dépasse jamais la normale. Ainsi, les fraudeurs attirent moins l’attention sur le trafic qu’ils génèrent, ils gagnent donc du temps sur leurs victimes.

A l’origine de ces arnaques, plusieurs facteurs continuent de contribuer à la persistance de ce problème: d’abord, la nature ouverte du marché publicitaire programmatique permet à n’import quel annonceur ou éditeur d’acheter ou de vendre. La barrière à l’entrée de ce marché est faible, ce qui rend le concept certes démocratique mais donc facilement pollué, utilisé à mauvais escient par les fraudeurs. De plus,  les montant des investissements ne cessant d’augmenter, la complexité des moyens de paiement rend difficile le suivi des sommes investies. En outre, les chaînes d’intermédiation s’étendent un peu plus tous les jours car les fournisseurs de services techniques se multiplient. Ainsi, la distance entre les éditeurs et les fournisseurs de contenu ne cesse de croître. Alors, à cause de la taille du marché, de la complexité des structures, des obsessions de résultat de la part des annonceurs et de l’absence de frontières: la fraude publicitaire est devenue une fraude globale à grande échelle.

De toute évidence, la fraude publicitaire menace le monde de la publicité numérique dans son ensemble. Elle se produit à l’échelle mondiale, mêlant différents types d’espace publicitaires à différentes audiences,  différents fraudeurs à différents types de régulateurs opérant dans différents pays.  Elle existe sur un large éventail de sites web, de Facebook à Pornhub. C’est un vrai défi d’estimer le montant des pertes et de retracer la route de ces millions de dollars perdus. Cependant, il est essentiel que nous soyons conscients de cette fraude digitale. Plus nous le serons, plus les vraies annonces seront lucratives pour leur annonceurs légitimes, et moins fort sera l’impact de la fraude publicitaire sur l’économie.
Cette réflexion nous invite à nous demander comment lutter efficacement contre la fraude publicitaire. Les « ad blocking » nous seront-ils profitables ?

 

Noémie Bécache.

 

 

 

 

Mad Men vs. Math Men

New York City: Home of the Mad Men

A Stroll Along Madison Avenue

Welcome to 1960. Elvis Presley just returned from the army, and Vice President Richard Nixon and Senator John F. Kennedy just participated in the first televised presidential debate. The war years are in the past. The world is full of opportunity, consumerism and youth, and is vibrant with influential television and technological innovation.

Among other nicknames, this period marks the “Golden Age of Advertising”. Brought to life on Madison Avenue by powerful marketing executives known as “Mad Men”, the Golden Age was a departure from the past. Creative executives rose to the top, with creative instincts and brand stories driving the heart and soul of the advertising agency. Media executives also came into power, with the help of new tools and machines to efficiently cinch commercial time.

From the 1950s onwards, we have seen advertising truly flourish. In fact, it was during the Golden Age that boutique agencies came together and went public to become the “major advertising conglomerates that exist today” (Steel). From WPP to Publicis and Omnicom, multinational advertising giants took the world by storm.

 

A Look Inside the Advertising Giant

While different in name and personality, the giants came to follow a similar organizational structure. Within all of them, you could find the key departments of account services, account planning, creative, media, and production. The account services team would network with clients, while the account planning team would represent customers through research and insights. The creative team would crank out imaginative concepts and campaigns, while the media team would procure space on television stations and in magazines to bring the campaigns to market. Finally, finance would handle expenses and costs, while production would ensure the feasibility and timeliness of the campaigns. All of these departments would work together like a well-oiled machine, taking lead direction from the creatives, and seeking out support from online development and information technology in later years (Suggett).

The “Golden Age of Advertising”, and its well-oiled machine, went on for many years. In fact, many of the advertising giants continue to rely on the traditional organizational structure. However, all good things must come to an end. With the digital revolution and the rise of Big Data, what was once the “Mad Men Era”, is rapidly transforming into the “Math Men Era”.

 

A Digital Disruption 

The invasion of the “Math Men” has been ongoing since the Dotcom Bubble of 1995 to 2001. Since the turn of the century, technological change has brought about new forms of advertising that leverage data and the digital consumer.

With the help of numbers, codes and bites, a new generation of advertisers are championing online and mobile projects. This new generation of Math Men sees less value in the traditional and expensive media forms of the past. And so, the Golden Age of Advertising has undergone digital disruption, and agencies and clients alike are reconsidering business as usual in order to survive.

 

All Things Data-Driven

The new marketing landscape revolves around data. The Internet of Things (IoT), in which all is connected, enables data collection and analysis on a massive scale. This results in “insights capable of informing every stage of the creative process” (Ng).

Beyond a modern creative process, advertisers face a modern consumer. Digital natives leverage different channels and touchpoints than their predecessors. Rather than televisions and radio stations, they direct their attention to mobile devices and applications. When they do watch episodes and movies, they turn to on-demand entertainment platforms, which allow them to avoid commercials altogether.

The concept of “on-demand” is central to digital natives. Young consumers want what they want, when they want it, and how they want it. Social media further intensifies this desire for immediate gratification. It allows consumers to interact with environments, peers, and brands in real-time and on a continuous basis. Digital natives are content creators and sharers, brand advocates and haters, and much more.

So what does the world of advertising look like in face of data-driven channels, and on-demand consumers? Rather than Mad Men with creative and conceptual skills, the new world relies on Math Men with “hard skills in engineering, computer science, maths, and physics” (Roderick). These Math Men exploit tools and develop algorithms to break down Big Data into digestible insights. As such, they are able to make better-informed and better-tailored marketing decisions for their clients.

What tools enable this data-centrism? In order to reach digital consumers across digital touchpoints, Math Men rely largely on programmatic digital advertising. Programmatic involves advertising exchanges that allow demand-side platforms (DSPs) and sell-side platforms (SSPs) to trade inventory in real-time. This process is known as real-time bidding (RTB). In short, programmatic enables Math Men to automate the buying and selling of media, such that it occurs at a continuous and lightning pace.

However, simply reaching digital consumers does not suffice. Marketers must reach the right consumers with the right messages. Digital natives seek custom messages that cut through online and mobile clutter. Thus, Math Men leverage demographic data to divide target audiences into tiny segments, and then tailor advertisements accordingly. Ultimately, technology enables Math Men to deliver real-time, custom-made marketing materials to modern consumers. Where does this leave Mad Men?

 

A Slow Demise for Mad Men…

Two opposing sentiments seem to exist. Some believe that “times change”, so we cannot be nostalgic about “the good old days” (Stodz). Marketers cannot satisfy the extreme customization and instantaneity of the new era with old ways. For instance, it would be impossible for marketers to craft countless creative variations for all relevant target segments. This practice demands the technology of Dynamic Creative Optimization (DCO), which “use[s] data feeds to generate a large number of creatives on the fly based on algorithms” (Yan). It would also be impossible to amplify campaigns to the same extent as digitals tools, like look-alike modeling in user-targeted advertising (Liu et al.).  Overall, this sentiment emphasizes the marketing variety and reach that stems from digital disruption.

Others feel nostalgia for the Mad Men Era, and feel discomfort towards the data obsession of the Math Men Era. This sentiment cheers for an era of hopes and dreams, rather than speed and efficiency. It fears that young marketers throw instinct aside, and rely solely on data and algorithms.

Up until recently, advertising giant Publicis was a prime example of this sentiment. Over the past decade, management monitored the encroachment of tablets and smartphones, and even acquired digital marketing specialists like Razorfish in 2009, and Sapient in 2015. For the most part, however, the agency clung to its mighty past to avoid the McDonaldization of advertising. Publicis kept its Mad Men and Math Men separate, fearing that “forcing digital operations and traditional agencies to work together would not function” (Kostov).

In the end, an obsolete attitude resulted in the loss of its lucrative McDonald’s account. According to a McDonald’s spokesperson, the fast food chain felt “Publicis’ Leo Burnett unit was not adept enough at using data to quickly produce online ads and target minute slices of its customer base” (Kostov). The sad case of the McDonald’s account loss is evidence that digital transformation and integration is crucial to marketing success. But this does not necessarily signify the death of Mad Men altogether.

 

… Or a Happily Ever After for Mad Men and Math Men?

Beautifully stated in The Uncomfortable Truths About Marketing,

« There needs to be a balance. Data can give you good insight, but there needs to be some magic and art in there too » (Roderick).

One solution, as we have seen with Publicis, is to invest in niche digital specialists. But while it is important to bring on Math Men, it is a useless endeavour unless done properly. Physical and psychological separation between Mad Men and Math Men will prevent the aforementioned beautiful balance.

Cue Project Marcel. In the aftermath of the McDonald’s loss, Publicis announced its solution to bridge the gap between creatives and digitals. Project Marcel is an algorithm project to unite the units of Publicis. Marcel will filter resumes and datasets on its 80,000 employees in order to assemble perfectly compatible teams from around the globe (Kostov). These teams will bring together account managers, copy writers, coders, graphic designers and more in order to fuel collaboration at Publicis.

With the help of artificial intelligence and machine learning, Marcel will hopefully be a platform that transforms business as usual at the advertising giant. But whether Marcel is the answer, or another solution leads the way, there is an obvious need for action if Mad Men are to avoid a Math Men takeover.

 

By Olivia Kostin-Cohen

 

References

Kostov, Nick, and David Gauthier-Villars. “Advertising’s ‘Mad Men’ Bristle at the Digital Revolution.” The Wall Street Journal, Dow Jones & Company, 19 Jan. 2018.

Liu, Haishan, et al. “Audience Expansion for Online Social Network Advertising.” Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining – KDD ’16, 2016

Ng, Alexis. “How Data-Driven Creativity Is Changing Advertising.” The Drum, Carnyx Group Limited, 8 Mar. 2017.

Roderick, Leonie. “The Uncomfortable Truths About Marketing: Agency Siloes, Image Problems and Data Obsession.” Marketing Week, Centaur Media Group, 21 Apr. 2016.

Steel, Emily. “’Mad Men’ and the Era That Changed Advertising.” The New York Times, The New York Times, 3 Apr. 2015.

Stodz, Tim. “We Are Witnessing the Slow Death of the Ad Agency.” Tim Stodz, 22 Dec. 2017.

Suggett, Paul. “The Structure of an Advertising Agency.” The Balance, 22 Mar. 2017.

Yan, Melody. “What Data-Driven Creative Means for The Future Of Advertising.” Thunder Blog, 14 Feb. 2017.

« Si le client veut nous parler, il faut le laisser nous parler » – Jacques-Antoine Granjon

Le site Vente Privée connait depuis 2004 un succès fulgurant et une forte augmentation annuelle de son chiffre d’affaire. En 2016, il atteint les trois milliards d’euros de chiffre d’affaire et les 50 millions de membres. Chaque jour, de nombreuses ventes sont proposées aux clients inscrits sur la plateforme. Les ventes sont remisées de 60% en moyenne sur le prêt-à-porter, la décoration, la nourriture et les spiritueux, le loisir…

Le business model repose sur un concept innovant : proposer à la vente des produits que le site n’a pas encore achetés. La plateforme négocie un stock avec les marques partenaires, les ventes sont ensuite proposées aux membres qui passent leurs achats. Enfin, Vente Privée finalise sa propre commande, la reçoit puis envoie les commandes à ses clients. Les temps de livraison sont plutôt longs mais permettent aux clients d’obtenir de fortes réductions sur des produits de grandes marques. Vente Privée obtient les fonds de financement avant même d’avoir à payer les marques.

De part l’inscription obligatoire pour accéder aux ventes, Vente Privée met en place une plateforme destinée à une communauté de membres. Il se crée donc un modèle de club où seuls les membres peuvent profiter des services du site. L’entreprise joue donc sur ce modèle de club fermé et exclusif aux membres pour créer et fédérer une communauté restreinte de clients. Vente Privée doit trouver un juste milieu entre obtenir le plus de clients possible pour attirer les marques et les pousser à utiliser leurs services tout en gardant un côté exclusif qui constitue la base de son business model. Les clients se sentent privilégiés et plus malins que ceux qui paient leurs produits au prix fort. Auparavant, les membres devaient se faire parrainer pour pouvoir avoir un compte, il est désormais possible à tout le monde de s’inscrire et de profiter des offres en ligne.

Vente Privée est depuis quelques années récompensée par le prix du « service client de l’année » en catégorie « Vente à distance généraliste ». En effet, l’entreprise consacre un investissement massif dans la mise en place de son service clients pour toujours rester en contact avec ses membres et leur apporter la meilleure expérience shopping en ligne possible. Vente privée peut donc jouer sur sa communauté de clients fédérateurs et mettre en place une relation différente des autres marques.

Quelles sont les stratégies digitales mises en place par la marque pour obtenir un service client performant ?

 

 

L’importance du service relation client

Tout d’abord, Vente Privée n’appelle pas ses utilisateurs des clients mais bien des membres. C’est pourquoi il n’existe pas de service client dans ses locaux mais un service de « relation membres ». Le but est de créer une appartenance à une communauté avec un bénéfice commun pour les clients comme pour l’entreprise. Les clients sentent donc que l’entreprise et les autres utilisateurs agissent de la meilleure manière dans l’intérêt du groupe. En appelant ses clients « des membres », les utilisateurs ont moins l’impression d’être dans un système commercial où la marque veut simplement vendre le plus possible mais bien d’être dans un système où l’on veut que tout le monde fasse les meilleurs affaires possibles.

Le service de la relation membre de l’entreprise est un investissement massif dont la marque n’a pas freiné la taille. Il est en grande partie externalisé à Lille, Strasbourg, Orsay, Barcelone ou Dakar à cause de la forte croissance du groupe. Cela leur permet aussi de pouvoir gérer les demandes des clients de toutes nationalités. L’entreprise veut également garder le contrôle sur sa relation client en se dotant également d’une équipe interne de 140 personnes dont 10 formateurs en constants déplacements chez les prestataires pour les conseiller. Les demandes les moins graves sont traitées par les sociétés externes mais les plus importantes sont transférées aux équipes internes.

L’image de marque

Il est primordiale pour la marque de conserver une image fiable et qualitative pour ne pas engendrer de commentaires négatifs. Pour une marque ayant un effet de club, les personnes sont soumises au bouche à oreille, beaucoup veulent donner leur avis sur leurs expériences surtout si elles sont négatives. Si un produit est défaillant, non conforme ou qu’il a été perdu, l’entreprise Vente Privée va se charger de répondre aux demandes, cependant les simples demandes d’informations passeront pas l’agence externe. Même si l’entreprise et les agences ne travaillent donc pas dans les mêmes locaux, toutes les demandes sont centralisées dans le même outil CRM pour que tous les employés puissent accéder aux mêmes informations. L’entreprise gagne ainsi en rapidité, en performance et en qualité de réponse grâce à une uniformisation des évolutions techniques.

 

Un modèle de management basé sur la confiance

De plus, la confiance accordée aux salariées est un aspect très important selon Vente Privée. Chaque employé est libre d’agir et de répondre au client comme il le souhaite. Il n’est pas suivi, n’a pas de rapport sur sa productivité ou autre, cependant les managers peuvent à tout moment regarder l’historique des actions menées (réponses, remboursements, bons d’achat…) pour voir si la confiance accordée est utilisée à bon escient. En cas de mauvais comportement, il n’y a pas de seconde chance possible. Pour travailler dans le service membre, la seule qualité requise est de savoir écrire parfaitement dans la langue dans laquelle il faut travailler. Les employés sont ensuite formés par l’entreprise une fois qu’ils intègrent les équipes.

Un modèle de membre peut être très bénéfique pour une marque puisqu’il permet de créer une communauté de personnes qui veulent obtenir un sentiment d’appartenance dans un système le plus bénéfique possible. Il y a d’ailleurs un service de parrainage où les membres déjà inscrits peuvent suggérer à leurs amis de s’inscrire eux aussi, en échange, ils gagnent des bons d’achat. Cela permet d’obtenir de nouveaux clients tout en renforçant les liens établis avec les anciens. Ils sont motivés à accroître la communauté avec des membres actifs pour pouvoir gagner des avantages. Cependant, un effet inverse peut se produire, si les clients ne sont pas satisfaits, ils peuvent faire passer le mot et cesser d’utiliser le site.

Les KPI

Selon Laurent Tupin, directeur service relations membres de l’entreprise, l’entreprise se base sur un nombre restreint de KPI pour n’utiliser que les plus importants. En effet, les équipes utilisent au quotidien la qualité de service, le service level au niveau du centre d’appel, le délai de réponse, le volume d’appels et d’emails entrants et l’état du backlog. Le plus important pour les équipes est, toujours selon Laurent Tupin, d’utiliser le taux effectif de ré-achat. Cela permet de savoir si un client ayant utilisé le service client achète plus ou moins qu’un client ne l’ayant jamais contacté.

 

Une pleine utilisation des réseaux sociaux et du site internet

De plus, pour faciliter l’utilisation de la plateforme aux clients, Vente Privée dispose d’une partie Foire Aux Questions pour répondre aux demandes les plus fréquentes. Ce système de FAQ est présent sur un grand nombre de sites pour désencombrer les services clients, gagner en rapidité et en efficacité. Cependant, si un client ne trouve pas sa réponse dans les questions, Vente Privée se rend disponible grâce à ses équipes du service relation membres. L’entreprise estime que cette section permet de répondre à environ 50% des demandes, elle reçoit 5 millions de contacts par an ce qui permet aux équipes de n’avoir à en traiter que la moitié. Le but n’est pas d’éviter le contact mais de répondre aux clients qui ne souhaitent pas dialoguer ou dont les requêtes sont simples.

Vente Privée est également présente sur beaucoup de réseaux sociaux : Facebook, Twitter, YouTube… sous le nom de Vente Privée mais aussi de Cécile de Rostand, figure emblématique de l’entreprise. Cécile de Rostand est le personnage fictif inventé par l’équipe marketing pour imager l’équipe responsable des clients. Pendant de nombreuses années, les clients ont reçu des mails de cette personne, elle est aujourd’hui moins mise en avant et seulement disponible sur les réseaux sociaux où les internautes peuvent lui parler. Les FAQ sont d’ailleurs présentes sur Facebook pour augmenter la confiance des utilisateurs qui avant même leurs inscriptions sont rassurés. L’entreprise laisse les messages et publications des utilisateurs aux yeux de tous pour montrer la disponibilité du service client et rassurer les autres membres qui voient qu’ils peuvent compter sur la marque en cas de problème. Le service client est donc disponible sur de nombreux vecteurs pour être accessible au plus grand nombre de membres.

 

Et l’innovation ?

Ces solutions digitales utilisées par Vente Privée sont plutôt classiques. Cependant, la marque, très sensible à l’innovation, essaye de mettre en place d’autres solutions pour gérer sa communauté de membres et la relation qu’elles entretiennent. Jacques-Antoine Granjon soutient plusieurs start-up dans leurs projets en leur proposant de faire partie de promotions au sein d’un accélérateur de Startup à Station F à Paris. Vente Privée s’intéresse aux algorithmes de recommandation, aux chatbots, aux solutions d’optimisation de paiement en ligne…

L’entreprise s’oriente donc vers l’innovation en vue d’améliorer continuellement ses services et non seulement son service client. Cependant, malgré les recherches sur l’innovation menées par la marque, elle préfère pour le moment rester sur des méthodes plus traditionnelles en gardant des services d’e-mail et de téléphonie composés de conseillers bien réels pour garder un contact et un dialogue d’une qualité que les chatbots ou l’IA ne sont pas encore capables d’atteindre. Affaire à suivre donc…

 


« Dans un monde où l’information se diffuse à la vitesse de la fibre, où les réseaux sociaux redonnent voix aux consommateurs, la relation client doit incarner les valeurs de l’entreprise et transformer un consommateur mécontent en un ambassadeur de la marque. Seule une relation client empathique, efficace et personnalisée, peut incarner la marque vente-privee » – Jacques-Antoine Granjon, 2015.


 

 

Laura Dudragne

 

 

 

 

Les formats courts : une nouvelle lubie pour les producteurs de contenus

Les formats courts : une nouvelle lubie pour les producteurs de contenus

 

Investissement dans les formats courts

 

Dans une société dominée par le culte de l’urgence, prendre un moment pour regarder un épisode de 50 minutes est devenu difficile. En effet, si les séries de format 50 minutes comme Game of Throne ou Stranger Things séduisent encore le public, la production de séries de format courts (20-30 minutes maximum) et adaptées aux smartphones/ tablettes, est exploitée et de plus en plus privilégiée.

 

En 2016, le groupe Vivendi annonce la création de Studio +, filiale de Canal + offrant des séries premium de format 10×10’. Parmi les séries phares, T.A.N.K ou encore Crime Time nommées au Luchon festival cette année.

 

 

Lancé un an plus tard par le cofondateur du site de musique en ligne Deezer et par le cofondateur d’Allociné, Blackpills est également un service de vidéo à la demande en streaming qui produit et distribue des contenus de formats courts destinés en priorité aux mobiles.

 

L’émergence de ce nouveau mode de consommation de séries a pour objectif de s’adapter à la génération Z, née avec internet et les réseaux sociaux et donc ultra connectée.

Outre Studio + et Blackpills dont les contenus sont essentiellement de courte durée, de plus grands acteurs commencent à investir dans ce type de format et parmi eux : les redoutables GAFA.

Amazon, le géant du net le plus avancé dans ce secteur avec son offre Amazon Prime Vidéo, cartonne avec deux séries : Transparent et Mozart in the Jungle. Les épisodes de ces séries durent entre 20 et 30 minutes, et le renouvellement de saisons témoigne de l’appétence des abonnés aux formats courts.

 

Apple se lance également dans la production de séries, et coopère actuellement avec Hello Sunshine, la société de production de Reese Witherspoon afin développer une comédie dirigée par Colleen McGuinness (30 Rock et Friend from College), dont les épisodes dureront approximativement une demi-heure.

 

Suivant la tendance, Facebook a annoncé courant 2017 vouloir faire son entrée sur le marché de la Vidéo à la Demande et souhaite privilégier deux types de formats pour sa plateforme « Watch » :

  • Les séries de 10 minutes
  • Les séries de 30 minutes

 

Facebook privilégie la cible des Millennials, à savoir pour les jeunes entre 14 et 35 ans.

Sacred Lies, adaptation d’un conte des frères Grimm est développée par le géant qui travaille en collaboration avec des membre de l’équipe de True Blood (HBO). La série sera composées de 10 épisodes, et chacun aura une durée de 30 minutes.

L’acquisition de Youtube par Google en 2006 témoigne de la volonté de l’entreprise d’investir dans les contenus. Mais plus récemment, Google est allé encore plus loin en annonçant en 2015, le lancement de la plateforme YouTube Red qui a pour objectif d’offrir une meilleure expérience aux internautes qui le souhaitent en fournissant des vidéos sans publicité.

YouTube Red produit aujourd’hui de nombreuses séries originales et qui ont pour particularité de durer au maximum 30 minutes, à l’exception du drame « Step Up : High Water ».

YouTube Red mise donc entièrement sur des contenus à formats courts et vise, à l’instar de Facebook, une cible très jeune située entre 14 et 35 ans. Une dizaine de séries originales de court format sont attendues en 2018.

 

Enfin, considéré comme le « N » de GAFAN, Netflix investit également de plus en plus dans la production de contenus courts. Début 2018, l’entreprise référente en matière de Vidéo à la Demande a lancé deux nouvelles séries avec des épisodes de courte durée, à savoir 25 minutes : The End of a Fucking World et Everything Sucks !

 

L’intérêt pour ce type contenu est également illustré par la restructuration des studios de cinéma témoignant de l’appétence pour ce nouveau format. En effet, les grandes Majors américaines développent des entités au sein de leur structure, entièrement dédiées au digital et a fortiori a des contenus de durée plus courte.

En octobre 2014, la Warner Bros créé Blue Ribbon Content une filiale entièrement consacrée aux contenus digitaux.

Lancée en décembre 2015, Super Deluxe est l’entité digitale de la société Turner Broadcasting system, et produit essentiellement des contenus courts. A l’instar de ces concurrents, la Fox, récemment rachetée par Disney, produit des séries de courts formats avec sa filiale la Fox Digital Studio.

Enfin, notons également que les agences de talent situées à Los Angeles, comme WME ou CAA, incitent leurs talents vers la création de formats courts.

 

Si l’investissement grandissant dans les programmes courts est indéniable, s’agit-il d’une réponse à la demande des spectateurs ou d’un besoin des entreprises ? Probablement un peu des deux.

 

La production de contenus de courte durée est nettement moins cher que la production de séries dont les épisodes durent 50 minutes. Les « mini séries » sont donc perçues comme un moyen de produire des contenus à couts moins importants. Par ailleurs, si les couts de production sont réduits, alors ils peuvent être réinvestis pour produire d’autres contenus et ainsi de suite : la rentabilité est à son maximum. La production devient donc massive, mais reste-t-elle qualitative ? La question reste entière. Les séries de 50 minutes par épisode sont encore celles qui connaissent le plus de succès, probablement car elles permettent une profondeur tant dans les personnages que dans l’histoire qu’une série courte n’offre pas.

 

En outre, la production de contenus n’est pas le cœur de métier des GAFA. Effrayés par l’émergence et l’importance grandissante de Netflix, ceux-ci investissent dans un secteur qui leur est étranger, avec des moyens démesurés (Apple mise environ 1 milliard de dollars sur la production de contenus). S’ils peuvent se permettre de mettre le prix et de s’entourer pour cette nouvelle activité, ils risquent de se retrouver dépasser. Ne s’improvise pas producteur qui veut !

L’appétence pour les formats de courte durée est la conséquence de plusieurs réalités : le culte de l’urgence, une adaptation aux nouveaux supports (smartphones et tablettes), et la rentabilité des programmes courts par rapport aux séries 50 minutes.

 

 

Quand les séries digitales sont adaptées par la télévision

 

Et si la solution n’était pas de mettre ces deux types de format en compétition mais de les rendre complémentaires ?

En effet, en adaptant des séries de court format, ou des Web séries, les chaines ou service de VOD s’assurent d’une base solide de fans, et d’une notoriété préexistante de la série.

C’est la stratégie adoptée notamment par Netflix qui adopte Osmosis, une série française diffusée durant l’été 2015 sur le site d’Arte. Il s’agira de la seconde série française de Netflix. De la même façon, le network américain CBS vient d’annoncer la commande de « I Mom So Hard », un projet basé sur la websérie portant le même nom. La production a été confiée à Rob Thomas (Véronica Mars).

Suivant cette tendance, HBO n’a pas dérogé à cette quasi-règle et a décidé d’adopter Brown Girls, l’histoire d’une amitié entre deux femmes de couleur ayant grandi dans des milieux très différents.

 

De compétition serions-nous en train de passer à collaboration ?

 

Mathilde Potier

 

« Quelles solutions les chaines de Télévision doivent-elles mettre en place pour s’adapter au mieux à la transformation digitale ? »

La télévision un mass média en difficulté ?

Après la transformation digitale des médias traditionnels comme la musique, la presse et le livre, c’est au tour de la télévision de connaître cette évolution.La télévision est un mass média qui bénéficie de la couverture la plus importante parmi les médias traditionnels et digitaux. Pour exemple, TF1, M6 et France 2 touchent chacun plus de 50 millions des français de 4 ans et +, alors que les médias digitaux tels que Facebook et Google ne touchent qu’environ 40 millions de français. La télévision est un Mass média, qui reste donc le média le plus efficace pour atteindre commercialement le public.

 

Cependant, cette audience se raréfie et vieillit. L’âge moyen de l’audience pour la télévision est en moyenne de 51 ans (pour certaine chaîne Arte et France 3 par exemple la moyenne d’âge atteint les 61 ans). En l’espace de 10 ans la moyenne d’âge du public qui regarde la télévision a vieilli d’environ 5 ans. Derrière ce vieillissement de l’audience ce sont les cibles publicitaires qui posent problème car les annonceurs visent principalement la mère de famille CSP+ qui est le décideur au niveau des achats du foyer se raréfie de plus en plus dans l’audience télé.

 

Le vieillissement de l’audience entraine une chute des investissements publicitaires sur la télévision.  Le marché publicitaire représente environ 31 milliards d’euros en 2016 et les annonceurs investissent de moins en moins dans les médias traditionnels au profit des médias digitaux. L’investissement publicitaire dans la presse a connu une baisse de 6,4 % tout comme la radio et l’affichage qui baissent en 2016.

 

Le marché de la publicité digitale a atteint en 2016, 3,5 milliards d’euros.  Ce résultat est en croissance soutenue depuis 2003. Au contraire la télévision est en stagnation et même en légère baisse. Les investissements publicitaires dans la télévision en 2016 sont en recul et ne représentent plus que 28%. La publicité digitale qui représente 30% des investissements publicitaires est donc maintenant le média le plus utilisé par les annonceurs[1].

 

Ainsi la baisse de cet investissement publicitaire pour la télévision fait perdre une source importante de revenu pour les chaines de télévision en France. Cette perte d’argent a directement des conséquences notamment dans les investissements que chaines de télévision doivent faire dans le cinéma.

Les chaines de télévision constituent une part importante des financements du cinéma en France. Le pourcentage d’investissement des chaines dans le cinéma passe ainsi de 35,5% en 2015 à 25,4% en 2016 ce qui est le taux le plus bas depuis 1994[2].

 

Cette baisse de revenu pour les chaines de télévision s’explique par la diminution des revenus publicitaire comme expliqué ci-dessus mais également en raison de l’apparition de nouveaux acteurs digitaux concurrents très puissant.  Ces derniers, qui n’ont pas d’obligations règlementaires d’investissement, ni de contraintes fiscales, ont ainsi une position avantageuse face aux chaines de télévision.

Ces nouveaux acteurs comme Netflix, Amazon Prime Video ou encore Hulu présentent de réels risques à la fois pour la télévision mais également pour le cinéma en France car le sort de ces deux médias sont liés. Si les investissements publicitaires pour la télévision s’essoufflent, ce seront les investissements pour le cinéma Français qui diminueront.

 

Quelles seraient alors les solutions pour les chaines de Télévision ?

 

Les chaines de TV pour éviter cette fuite des investissements publicitaires au profit d’internet pourraient développer ce qui fait office de nouvelle arme : le programmatique pour la télévision linéaire. Le programmatique permettrait ainsi d’adresser sur chaque téléviseur en temps réel des publicités ciblées et en adéquations avec les personnes visées dans chaque foyer et en fonction des données récupérées sur ces derniers. Cela permettra donc à la télévision qui reste le mass média par excellence d’avoir une publicité ciblée pour chacun de ses auditeurs et non plus une publicité en adéquation supposée avec le programme visionné.

 

De plus, les chaines de télévision peuvent également développer davantage leur transition vers le numérique et le tout digital. Il faudrait qu’elles intensifient et continuent de développer leur stratégie et leur positionnement sur internet. Les chaines devraient donc amplifier la qualité et la quantité des programmes disponibles sur leur plateforme (6play, MyTF1, France.TV). La transition des chaines historiques vers l’internet se fait également dans les autres pays du monde et notamment aux USA. Les networks américains ont développé notamment de nouveaux canaux OTT comme CBS All Access et SHOWTIME par CBS national, HBO GO par HBO et Univision Now par Univision.

On comprend donc que les chaines de télévision elles aussi s’adaptent et favorisent de plus en plus leur contenu à travers le WEB. Les chaines de TV favorisent également les programmes disponibles en VOD (bien que la publicité non-linéaire se monétise trois moins cher qu’en linaire). Leur transition passe peut-être aussi par le lancement de plateforme SVOD (projet notamment soutenu par Delphine Ernotte) regroupant plusieurs chaines françaises entre elles mais également intra-européennes. L’objectif serait d’avoir une puissance d’investissement et de production suffisamment importante pour exister face aux plateformes venues des Etats-Unis telles que Netflix ou encore Amazon prime vidéo.

 

On remarque également que les chaines de télévision développent de plus en plus d’initiatives sur You tube ou sur les réseaux sociaux comme par exemple Golden Moustache avec M6. Les chaines de télévision ont bien compris qu’il était maintenant indispensable d’être présent sur les réseaux sociaux (Arte gère assez bien leur présence notamment sur Facebook et Instagram).

 

Pour lutter également contre le vieillissement de son audience et de la fuite du jeune public vers les acteurs du numérique, les chaines de télévision proposent de plus en plus de contenus en faveur des jeunes comme par exemple la téléréalité comme le fait le groupe TF1. Le groupe France télévision a décidé lui, de faire de France 4 une chaine à destination des jeunes et jeunes adultes. Il faudrait à mon sens, pour lutter contre la fuite de l’audience, miser davantage sur les programmes jeunesses/animations qui sont très consommés et notamment en TVR[3] (télévision de rattrapage) mais également miser sur les programmes de fictions courtes comme les séries et particulièrement les séries feuilleton français[4].

 

Enfin, un autre moyen qui est intéressant pour les chaines de TV est le « shazam for tv ». Cette mise à jour de l’application ne permet pas seulement d’identifier la musique utilisée pendant une émission, mais permet surtout d’avoir du contenu enrichi sur ce programme. Comme par exemple, des anecdotes, des statistiques, le casting, des vidéos inédites ou encore des bons de réductions pour acheter les produits d’une publicité.

On pourrait étendre ce raisonnement également à la publicité en imaginant un système qui permettrait, grâce à l’application shazam, de « shazamer » directement un produit qui passerait à la télévision, permettant ainsi de l’acheter rapidement.

 Quels sont les enjeux futurs pour la télévision ?

Pour terminer, selon une étude Médiamétrie sur l’année TV en 2017[5], les français regardent toujours autant la télévision mais les moyens de consommation de cette dernière changent. Il y aurait ainsi environ 26 millions de français qui regarderaient un programme de télévision sur un autre écran (tablette, smartphone et ordinateur). Selon Médiamétrie, cela représenterait ainsi une augmentation de 3 millions de téléspectateurs supplémentaires. Par conséquent, l’enjeu pour la télévision est de s’adapter aux nouveaux modes de consommation des français.  Mais également de trouver de nouveaux moyens de monnayer cette audience et ainsi réussir à inverser les prévisions pessimistes que les professionnels du secteur lui réservent.

 

Arthur Landault

 

[1] 18ème édition de l’Observatoire de l’e-pub du SRI, réalisé par PwC, en partenariat avec l’UDECAM

[2] Bilan 2016 du CNC

[3]  Le marché de l’animation en 2016 du CNC

[4] Bilan 2016 du CNC

[5] http://www.mediametrie.fr/television/communiques/l-annee-tv-2017.php?id=1819

 

PSG le Mag : retour sur le lancement du dernier-né du club rouge et bleu

Souhaitant capitaliser sur l’arrivée de Neymar, le Paris Saint-Germain a lancé en novembre dernier « PSG le Mag – Au Cœur du Club », un magazine papier haut de gamme qui remplace l’ancienne formule « 100% PSG », destinée à une cible junior et adolescente. Cette initiative vient certes de l’essoufflement du précédent magazine, mais miser sur le transfert le plus coûteux de l’histoire du football (222 M€) est-il suffisant pour faire renaître un magazine, qui plus est à une époque où le print peine à être rentable ? Retour sur la stratégie adoptée par le club rouge et bleu.

 

Une campagne offline en demi teinte 

 

Afin de faire la promotion du magazine, le club s’est, sans surprise, d’abord tourné vers les médias traditionnels. Outil habituel des annonces officielles, un communiqué de presse a été adressé à la base de données de journalistes du club, puis certains d’entre eux, pouvant avoir une influence complémentaire, ont été contactés directement : L’Equipe, Le Parisien, Paris Match, Gala etc. L’édition n’étant pas le coeur de métier du PSG, le club a établi un partenariat avec MédiaKiosk (filiale de JC Decaux spécialisée dans l’implantation et la gestion des kiosques de presse) afin de relayer le magazine efficacement sur tout le territoire, en privilégiant tout de même l’Ile-de-France.

 

Néanmoins, on peut regretter qu’aucune campagne d’affichage n’ait été réalisée sur ces kiosques ni en d’autres lieux de la capitale, ce qui peut laisser penser qu’aucune réelle réflexion sur le budget du magazine n’avait eu lieu en amont. Une campagne d’affichage stratégique dans certaines stations de métro proches du Parc des Princes aurait pu avoir un réel impact positif sur les ventes du magazine.

 

La sortie du magazine a coïncidé avec la réédition française de la biographie de Neymar, ce qui a été une occasion supplémentaire de promouvoir le premier numéro de PSG – Le Mag, qui affichait Neymar en couverture. Un jeu-concours a été organisé dans le magazine (via un formulaire papier à renvoyer) avec la possibilité de gagner cinq autobiographies dédicacées du joueur.

 

Le club a aussi profité de sa filiation avec beIN Sports (actionnaire commun) pour promouvoir le magazine. En effet, plusieurs émissions de la chaîne ont présenté le nouveau produit en direct. Cependant, cette forme de promotion n’a pas pu avoir lieu sur d’autres émissions proposées par d’autres chaînes, comme le Canal Football Club, qui refusent ce genre de pratiques et préfèrent privilégier la neutralité. Enfin, le magazine a su profiter d’un partenariat développé en amont par le Paris Saint-Germain avec France Bleu Paris afin que les journalistes de la station de radio mettent en valeur le magazine.

 

Finalement, la promotion du magazine s’est révélée assez discrète. Peu de moyens ont été mis en oeuvre car, plutôt que de privilégier une promo poussive, le magazine a pris le parti de produire un contenu très qualitatif avec des interviews et des reportages inédits afin de laisser les autres médias s’emparer du contenu et promouvoir, par leur reprise des meilleurs extraits, un contenu qui innove et se démarque.


 

« Il nous est apparu important malgré la toute puissance du digital aujourd’hui, de donner une nouvelle vie à un média print qui tentait à s’essouffler. Au lieu de se lamenter sur la toute puissance du digital qui engloutirait les médias print, en cette année 2017 où le club a franchi le cap des 50 millions de followers, tous réseaux confondus, on a préféré s’appuyer sur cette base de fans très importante pour accroître la notoriété et l’impact du magazine auprès de notre communauté. » Jérôme Touboul, Directeur de la communication sportive du Paris Saint-Germain et rédacteur en chef du magazine


 

Une campagne online maîtrisée

 

Compte tenu de la forte présence du Paris Saint-Germain sur les réseaux sociaux (+ de 52 millions de followers tous réseaux confondus au 31 janvier 2018), il était évident que la campagne de lancement passerait principalement par internet. Un compte Twitter spécifiquement dédié au magazine a été créé (@PSGLeMag) et accompagné par un mot de bienvenue sur le compte Twitter officiel du club, qui compte plus de 6 millions d’abonnés. De courtes vidéos ont aussi été réalisées de façon à nourrir la promotion sur les réseaux sociaux, friands de formats courts et visuels.

 

Le choix de créer un compte twitter spécifique devrait permettre à terme de créer une communauté engagée. C’est la direction que semble prendre ce nouveau compte en retweetant des photos de supporters en possession du mag ou en créant divers quiz et sondages. Après 2 mois, le compte du mag totalise un peu plus de 2 000 followers, un contingent assez faible mais qui prendra certainement de l’ampleur au fur et à mesure des parutions.

 

Aujourd’hui, il est encore difficile de mesurer l’impact des réseaux sociaux mais on ne peut que constater que le magazine a du mal à capter l’audience des fans du PSG. Néanmoins, ce n’est pas un pari impossible. Le club anglais d’Arsenal a lancé un compte twitter autour de son magazine « The Arsenal Magazine » et fédère une communauté de plus de 100 000 followers, mais après plusieurs années d’activité.

 

Certains joueurs titulaires du PSG ont aussi participé à la campagne de lancement du magazine en relayant la sortie du nouveau-né. Le hic : seuls les deux joueurs ayant fait la une du magazine (Neymar et Cavani) ont partagé l’information lorsqu’ils étaient directement concernés. La position silencieuse des autres joueurs est difficilement compréhensible car leur notoriété sur les réseaux sociaux aurait permis de faire de la promotion gratuitement auprès d’une cible phare pour le magazine. Serait-ce une question d’orgueil mal placé ?

 

 

Quel avenir pour le magazine ? On peut affirmer, sans se tromper, que la data jouera un rôle prépondérant dans le développement du magazine et surtout dans le ciblage des lecteurs potentiels. Le PSG possède une base de données importante, tant grâce à ses différents programmes de memberships qu’à ses réseaux sociaux qui pourra être mise à profit. Une campagne e-mailing, visant directement une base de 500 000 clients potentiels, vient même d’être lancée fin janvier, en complément à la distribution de 30 000 flyers lors des deux derniers matches organisés au Parc des Princes. Le prochain numéro du magazine, prévu fin février et consacré aux supporters, pourrait aussi permettre au club de toucher un peu plus son cœur de cible.

 

Lou-Eve Repussard

What about the garage gig, Facebook and Google?

Clémence Fonville (exchange student fall semester)

 

We have seen throughout the course that the advertising industry is going through some fundamental changes and that the commonly used standards are now open for discussion. Mainly, the invasion of tech firms into the ad industry is causing these changes. The key players in online advertising are not the traditional WPP or Publicis anymore, it is Facebook and Google who are setting the rules of the game. Especially, the recent advertising festival in Cannes has demonstrated the power of these tech firms in the ad industry. But while the power is shifting to tech firms, they are as well under threat. Google and Facebook have been openly criticized by big consumers regarding the measurement of ad effectiveness (Bond, 2017). The problem that they are facing is that these tech firm hold all the power in their hands when it comes to where to publish advertisements and how to measure the performance of these online advertisements. This means that companies pay them to publish their advertisements and at the same time rely on them to track the performance of this publishes. Hence companies are struggling to understand how objective these performance measures are and thus how much to invest to maximize their ROI.

 

It is very ironic that Facebook and Google hold the power of analyzing their own performances of linking a company to a publisher. It is as if a middleman is telling you after you have already paid him for guiding you to a clothing store, that the dress you are trying at that store is the perfect dress for you and that you will not find anything better. This middleman will then advocate that he is the best middleman to contact if you want to find the perfect dress, and no other person is able to judge this performance.  In my opinion, and I am joining that of many companies, the current practices for online advertising are not objective and there is an urgent need for change.

 

This urgent need for change is becoming more and more strongly resented in the industry. Not only because of the questionable objectivity of ad performance tracking but as well of the accusations that these tech firms are at the source of spreading fake news and hate speech. Google has very recently attempted to calm down this resentment by announcing to sharpen their YouTube policy for ad monetization. This is mainly following the bad publicity it recently got with YouTubers who have published questionable content but still were able to monetize the content through ads published alongside their videos (Litman-Navarro, 2018).

 

This action from Google follows another coming from Facebook who has announced January 11th that Facebook’s newsfeed algorithm will be changed. The change will prioritize posts that spark conversations and meaningful interactions between people and will prioritize posts from friends and family over public content (Cohen, 2018).

 

Unluckily for Facebook, this announcement has not generated an overall positive reaction, mainly brands and publishers are considered to become losers. The change in general means that brands will need to redesign their social media strategies to remain part of the conversations. And publishers will have less chances to sell their publishing space. But it does not entirely mean that these two groups will be the losers. The main downside that this change is bringing along is that it will make it much harder to connect with your fans or stand out if you are a small business. Facebook will prioritize brands that you as a user have interacted with in the past and with which your friends are interacting as well (Castillo, 2018). Besides, brands will still be able to be involved in the conversations or advertised along the conversation by paying a certain amount of money. But the prices of these advertisements will go up since the advertising space will diminish. This means that brands who have already much awareness and who have the possibility to pay the higher prices for advertising will continue to stand out. But smaller business will suffer. Before through social media they had a chance of reaching audience and consequently customers with small budgets, but now this seems to be a thing of the past.

 

As well, it seems that Google’s Youtube policy change will have the same consequence. Youtube’s Creator Blog has mentioned the following statistics regarding the policy change: “99 percent of those affected were making less than $100 per year in the last year, with 90 percent earning less than $2.50 in the last month.” This means that very unfortunately with the Google policy change also mainly the smaller YouTube channels (read: small businesses) will suffer, just like Facebook’s new newsfeed algorithm. In the the case of YouTube these small channels are paying the price of a blunder made by a well-known YouTuber who with the policy changes will still be able to monetize its YouTube channel in the future.

 

To summarize, through these changes Facebook and Google have partially reacted upon the critics they have faced publicly. They have shown to be willing to improve the online content shown on their platforms along with how I call it premiumizing the display of advertisements to their users. These changes do not lessen their power within the advertising industry and the problem of advertising performances remain. Facebook and Google will still need to reassure the public of their performance practices. This will mean providing some degree of transparency but unless forced by law to do so they will not be willing to give in their power.  And what can be concluded of today’s policy changes is, the main losers are the least powerful smaller businesses.

 

References

Bond D 2017 https://www.ft.com/content/9a9ac60a-575a-11e7-9fed-c19e2700005f

Castillo M 2018 https://www.cnbc.com/2018/01/16/facebook-news-feed-changes-not-doom-for-publishers-adam-mosseri.html

Cohen D 2018 http://www.adweek.com/digital/the-ad-communitys-reaction-to-facebooks-news-feed-algorithm-change/

Litman-Navarro K 2018, https://www.inverse.com/article/40270-youtube-partner-program-monetization-changes-logan-paul

The Next Stage Of Language Evolution & EMOJI in Business Communication

Emojis and Emoticons are omnipresent in today’s modern generation. In these passing years, these ideograms of modern ages have been widely known as internet shorthand for emotion for everyone ranging from love or heartbreak, sad or tears of joy until flags or even an avocado.

They’re vivacious, light-hearted. Plus, a broad range of emotions can be conveyed so efficiently in a way that even words sometimes can’t.

Emoji — the pictogram prodigy of text-based emoticons

Emoticon — the font-based representation of human faces, like 🙂

 

THE EVOLUTION OF EMOJI

1999 : The first model of modern emojis

Shigetaka Kurita first created the emojis for NTT Docomo’s mobile internet platform presenting a set of 176 pixelated symbols each on 12×12 pixels in dimension which are the ancestors of the later more complicated and ever-increasing set of emoji we use today.

Kurita’s kanji and manga-inspired emojis were openly welcomed by number of Japanese mobile users. Whereas, outside of the country, users started using the ideograms slowly, owing in part to the closed, complex and competitive matrix operated by different mobile phone operators in Japan.

However, companies see the social media taking off in the U.S. as the great opportunity to expand into overseas markets, it was now! — the time for emoji to go global.

2013 : The Publication of Emoji Dick

In the following years of emoji evolution, more emojis supporting gender and racial diversity were added as options. Emoji Dick was published in 2013, an all-emoji translation of Melville’s classic. A thousand of hours are spent by over 800 people working on the creation of this book.

2010 : Global tech giants like Apple, Google include emoji options on their messaging platforms

Apple’s inclusion of an emoji keyboard on the iPhone 5’s operating system in 2011 effectively turned emoji from being a weirdo Japanese thing into a real global communication tool.

2015 : Facebook’s Cooperation and Face with Tears of Joy (😂) as the word of the year

In 2015, Facebook co-opted emoji into shorthand and moreover, Face with Tears of Joy (😂) was crowned “word of the year by the Oxford English Dictionary

Not only is emoji is an expressive form of communication, helping to counter the lack of gestures and tone of voice in the written word, it’s also the fastest growing “language” of all time. Even though it is more popular among young ages, emojis also penetrate into almost every generation with an estimated 92% of internet users taking part.

2017 : Improved Diversity and Gender Representation Emojis

Considering the 2017’s emoji pack, this year’s main themes are inclusivity and diversity, with emoji’s creators aiming to expand the scope of their pictograms to better represent the full range of people using them.

Apart from that, this year’spack finally adds a full range of skin tones to all human emojis. The basic smiley emojis have always been a deep yellow, a kind of race-neutral skin tone reserved mainly for LEGO figures and residents of Springfield, but the more realistic depictions showing jobs or activities haven’t always catered to the full range of skin tones. Thankfully that’s no longer the case with these recent changes.

The latest update also includes improvements on gender representation – when many of these emojis were first launched, they had just one version apiece and predominantly followed gender stereotypes. Men were used to showcase most of the work-based activities while women were mainly seen getting massages and haircuts. With emojis used so frequently by so many – especially young people – they ran the risk of perpetuating these stereotypes. To combat that in a positive way, alternate versions of these characters have gradually been added to show that women can be construction workers and men can be dancers.

Going a step further, the new pack also includes suggestions for a series of gender-neutral emojis without typically masculine or feminine features. This would not only please those who don’t align with the conventional binary genders, but also provide a more neutral set of emojis for all, stripped of the inherent implications and biases of gender. Sometimes you just want to portray somebody waving or shrugging or smiling or running, and it’s not important whether they’re a man or a woman. Perhaps these will form a new ‘base’ emoji going forward, with users switching to a specific gender representation if they feel it’s relevant.

It then arouse a question that — with new, more diverse emojis coming soon, could those cute little smiley faces have a bigger cultural impact than we thought?

EMOJIS IN BUSINESS WORLD : Is it Appropriate to Use Emojis and Emoticons in Business Communication?

One question that has always been in my mind every time i write a business email aiming for a somewhat informal tone, i habitually finish my sentence with :), i typed, i deleted and repeated this for many times.

People usually use emojis and emoticons to express themselves more accurately as emojis and emoticons help to convey tone of the sentence for example, to avoid misunderstandings when making jokes.

SO — in my opinion, the answer is YES in cases or times that you aim to make some impressions. Yet, you need some tips for the professional use of emojis and emoticons.

  1. Use emojis and emoticons to convey your messages’ tones

The most common problem of the written communication is that there is the space left for misinterpretation.

The famous psychologist, Albert Mehrabian claimed that only 7% of our communication is verbal. 38% is vocal (our intonation) and 55% is nonverbal (our body language).

Emojis and Emoticons are here as tools to effectively solve the problem of the lack of nonverbal in written communication. Without emojis, the written communication can suffer from the ‘negativity effect’, which happens when the message is interpreted more negatively than intended.

However, there are some limitations here. Emojis range from dumplings to airbus planes and those are friendly in private communications. Yet, in business communication, you should avoid those and stick with face-like emojis instead.

  1. Avoid the emojis that are higher in risk of being misinterpreted

For the use of emoji in business communication, this means that you would do better to avoid the emoji that are higher in risk of being misinterpreted.

There is still a step beyond, now that some emojis and emoticons are universally positive, yet they are still being used in different expressions. Consider the wink emoji ;), some people agree that it is positive, to signal their friendliness, whereas, some use it as a way to represent their double meaning and irony.

3. Limit the number of Emojis

Packing your messages with emojis will obviously make you look unprofessional. But how many you can afford to throw in there depends primarily on your communication channel.

Emoji in email are fine, but they should be used with modesty for example, only use them at points that a sentence could be misinterpreted, and try to limit it per one email like below 1 emoji per 3 paragraphs.

However, live chat and messaging are much more accepting for emojis and emoticons than in email. That’s probably because of the informal effect of chat and real time communication.

4. Depend on who you are dealing with

In the end, whether the use of emoji is appreciated or not depends mostly on the person you’re interacting with. There are several factors regarding this issue.

      • CULTURE : looking at how asians (for the extreme example, the Japanese) differ from europeans when it comes to the use of emojis. It shows that culture has a huge impact.Moreover, cultural differences between industries and companies probably also play a role. There likely is a difference in emoji acceptance between a PR from advertising agency and an accountant from the government organization.
      • AGE : People mostly believe that it is only the younger generations who use emojis and emoticons. However, in the reality, they are popular in older groups as well.
      • GENDER : Women tend to use more emojis and emoticons than men now that women are more expressive in online as well as in real-life facial emotions.

All in all, to avoid misunderstandings that may occur and to be in the safest place, social mimicry should be used in the sense that — using emojis and emoticons only when your partner does so. When their tone is formal, better to exclude emoji. That also means it’s a good idea to save the use of emoji until after you’ve become more familiar with the person.

The Evolution of Ad Blocking

Before we dive into the evolution of ad blocking, first let’s start with taking a look at what is the ad blocking? According to Wikipedia, the ad blocking or ad filtering is a type of software (or less commonly, a computer hardware device), that can remove or alter advertising content from a webpage, website, or a mobile app. Ad blockers are available for a range of computer platforms, including desktop and laptop computers, tablet computers and smartphones. A variety of methods have been used for blocking advertisements. The benefits of this software are wide-ranging and the use of ad blocking software is increasing. However, many media owners and publishers rely on advertising to fund the free content that they provide to users. Some have taken counter-measures against users who block ads on the sites they visit, for example Forbes.

Now it’s time for the evolution timeline. The starting point of an ad blocking software is surprisingly humble. Henrik Aasted Sorensen originally wrote the source code for Adblock. It was the most popular and widely used extension dated back in 2002. However, where he started was as humble as just a thing he did to distract himself from university work.

« I suppose some people expect Adblock to have been created in a fit of anti-capitalist rage, or as an idealistic effort to return the internet to its less commercial roots, » Sørensen said. « What actually happened is I was supposed to be cramming for an upcoming exam at university [in Copenhagen, where he studied internet technology and computer science.] As a procrastination project, I decided to try out the relatively new possibility of creating extensions for the Phoenix browser — which is the browser that eventually got renamed Firefox. The idea was primarily to try out a new development environment and move a bit out of my development comfort zone.”

At the moment, there was an existing extension to remove ads, however it was only based on an image size. Sørensen then figured out that it would be better and more efficient to filter ads according to their address of the image, because ads tend to be centralized at specific address. The original Adblock just hide the ads from the webpage, it did not actually prevent ads from being downloaded.

Despite of the limited functionality, Sørensen launched the source code to the public and it became an immediate success. « I remember it as a runaway success from day one, which caught me quite by surprise. One thing that stands out as funny in retrospect is how giddy it made me when Adblock got a front page mention on a website that dealt with Mozilla technology. Of course, Adblock has been mentioned in far bigger publications since then, » Sørensen said.

After he finished his studies and began working full-time, Sørensen abandoned his involvement in the project and his excitement in seeing Adblock flourished. The owner of the code had been changed hands to hands for years, until 2006, when Wladimir Palant, the Adblock Plus co-founder, picked up the code and rewrote the code to be assured that the ads were completely blocked from being downloaded at all, not just blocked from view. The original code were modified almost completely, little of the original one remained today.

No matter how successful and profitable the Adblock Plus is, the original creator Sørensen said he has never made any money from his original Adblock code. However, the owner of Adblock Plus, the Germany-based company, Eyeo, earns millions of dollars by doing business with big name companies like Google, Microsoft and Amazon. Eyeo charged those companies with huge fees to get their ads white-listed. Some of the acceptable ads will be appeared to Adblock Plus users. Adblock Plus also calculated and charged 30% of the additional ad revenues they would have made were the ads unblocked to those companies. On the other hand, PageFair estimated that Google will lost $6.6 billion in global revenue to ad blockers in 2016.

Ben Williams, Adblock Plus operations and community manager, has previously told Business Insider that only about 10% of the partner companies actually pay for their ads to be unblocked on the white-list and the fees are depended on the company’s size.  Sørensen comments on Adblock Plus and other ad blockers that runs similar white-listing strategy have “a fine line to walk. « It won’t require much more than a tiny misstep before the endeavor is labeled as simple extortion. Had I still been involved, I would not have chosen that direction, earning money from Adblock never really entered into the equation for me while I was involved. I’m a huge fan of the open source movement and I benefit from it on a daily basis in my work. On the other hand, you could argue that I dropped out of the development, and that anyone who picked up the mantle is allowed to make that decision for themselves, » Sørensen said.

Now that we learned about where did it all started, the yearly timeline of the evolution of ad blocking is here. After the Danish developer, Henrik Aasted Sørensen builded the first widely used ad blocking extension in 2002, the boom in internet pop-ups advertisement declined dratiscally in 2004. The enormous number of ads that popped up in separated windows of the web browser were seen as the most intrusive and most obnoxious features on the internet. Later, major companies, Time Warner’s AOL unit, Google and Yahoo launched software that blocked those annoying pop-up advertisements from opening. And soon the reach of those ads were reduced sharply.

After Wladimir Palant had developed Adblock Plus from the original source code of Sørensen. The Adblock Plus has been the most downloaded and used ad block extension since its creation in 2006. It is an open source project that blocking annoying ads on the web as we know it.

Later in 2009, the use of Adblock Plus increased continually. Wladimir Palant said that the reason behind Adblock Plus was to give control back to internet users by allowing them to be able to choose and block annoying ads by their own choice. He also presented an approach to fair blocking.

Wladimir Palant then launched Adblock Plus as a Chrome Extension in 2010. And the consequences of supporting only one browser has limited the Adblock Plus’ options enormously. As in that moment, Internet Explorer was the dominant browser, however, it did not give a hand enough to the usable extension support. And by creating an ad blocker extension for the Internet Explorer would be very complicated. On the other hand, Google Chrome supported JavaScript-only extensions, which Palant believed that he could more or less reuse his Adblock Plus source code.

Global adblock users reported to be grow 30% from 30 million to 39 million in 2012. This exponential growth rate was demographically clustered in Poland, Greece, Sweden and Denmark, all of them have more than 20% growth rate in ad blocking. Number of Adblock Plus global download reached 77 million in 2013, a 35% growth from last year. According to PageFair, adblock users characteristics were found as typically young, tech-savvy and more likely to be male.

As the same time with the rise of Google Chrome, the Adblock also grow together with the penetration rate nearly doubled to be 70% in June 2014. A report of PageFair said the millennial users drove the adblock usage, 41% of the adblock users was 18-29 years old.

After Apple users complained that the ads tracked them, slowed down web browsers’ speed and were extremely annoying, Apple then enabled ad-blocking apps through its new mobile operating system, iOS 9 in 2015. In less than 48 hours, ad-blocking applications, for example, Peace, Purify and Crystal had been ranked so high in the Apple’s App Store top chart.

The online advertising companies must have been shaking in 2016, when a report from Global Web Index showed that 37% of internet users have blocked online ads on their mobile device over the last month. Moreover, 42% of who have not blocked the ads said that they are definitely interested. This will resulted in more than 80% of blockers, which definitely leave a huge impact on online advertising revenue.

And that was the Evolution of Ad Blockers that we use today, from how it was originated to the one that we installed today. I would like to give more information about the AdBlock Plus (ABP) since it is the most well known and used among ad blockers. It is available for Firefox, Chrome and Opera. Its handy and effective features that contributed to its success are quick set up, loading preset filter lists that allow users to quickly block most of the annoying online ads, along with the option to filter malicious software. Moreover, it offers savvy internet users to be able to choose additional block lists, customized filters, or even whitelist their favorite websites. AdBlock Plus also covers the mobile version with two different offerings for both Android and iOS users. For iOS users, the seamlessly advertisement blocking on Safari is the integration between the AdBlock Plus application and the content blocker system in Apple’s mobile OS. While the AdBlock Browser provides Android users with a Firefox-based Android browser that automatically block any of the advertisings.

 

Vayada Leelasiwaporn

Coup de mou dans le dynamisme de France Télévisions

Coup de mou dans le dynamisme de France Télévisions La télévision publique coincée entre valeurs d’hier et enjeux de demain Chacun le sait, la consommation de télévision aujourd’hui n’est plus ce qu’elle était. Tous les groupes médias sont confrontés à la délinéarisation de la télé. Le constat est simple. La télévision s’efface au profit de la vidéo. Les rendez-vous donnés par les chaînes, aux téléspectateurs sont de moins en moins rentables. Elle apparaît de plus en plus comme un média « has been ». Par ailleurs, on assiste à une explosion de la consommation de contenus à la demande. Ces enjeux, les professionnels les connaissent et ils semblent dépassés par cette mutation. L’arrivée de Delphine Ernotte à la tête du groupe public laissait présager un virage dans la stratégie du groupe, notamment en ce qui concerne le digital et les nouvelles pratiques. L’ancienne numéro deux d’Orange a été nommée à la tête du groupe, pour son projet. A l’heure de la convergence entre les médias et les télécoms, cette nomination s’annonçait comme du pain béni.

Une cadre de l’ancien opérateur public de télécommunications représentait une réelle valeur ajoutée. Orange a mené d’une main de maître son passage dans le secteur privé mais a aussi su se positionner pour ne pas s’écrouler face à l’arrivée sur le marché, de l’entreprise Free. Les temps ont été durs mais cette époque là est révolue et Delphine Ernotte a fait partie avec Stéphane Richard du comité exécutif qui a su réorienter la stratégie d’Orange pour contrer les politiques agressives des nouveaux arrivants sur le marché des télécoms.
Un manque criant d’innovation et de dynamisme Pour le moment, l’image dynamique mise en oeuvre chez l’ex-France Télécom, n’a pas été transposée chez France Télévisions. Certes, Delphine Ernotte est en poste depuis le mois d’août 2015 et il est encore très tôt pour pouvoir faire le bilan de son mandat. Mais lors des dernières conférences de presse du groupe, il ne se dégageait pas l’idée d’une mutation ou d’une évolution. Des petits changements cosmétiques ont été apportés aux grilles des différentes chaînes. Ce n’est pas ce que l’on attend! Nous aimerions que l’on nous propose la télévision de demain. Des programmes innovants, une offre de télévision publique repensée pour les nouveaux usages sur le digital. Or, ce qui a été annoncé c’est une volonté de développer les images de marque des différentes chaînes composant l’entité France Télévisions. S’y ajoutent la volonté de créer des « rendez-vous » avec les téléspectateurs en deuxième partie de soirée et la création d’un « label » France pour les fictions françaises. La révolution n’aura pas lui tout de suite! Il semble que les patrons de chaînes n’aient pas saisi l’enjeu des défis de la télévision de demain. Certes, un « Plan création » a été annoncé à l’horizon 2020 (les chaînes porteront leurs investissements dans la création digitale à 10 millions d’euros par an).

Mais, avoir l’ambition de donner des « rendez-vous » alors qu’aujourd’hui les pratiques pour les contourner se multiplient, semble illusoire. Par ailleurs, si l’on souhaite faire revenir les téléspectateurs et gagner de l’audience il serait intéressant de développer une télévision qui colle plus à l’image des français. Delphine Ernotte a révélé il y a quelques jours qu’elle rêverait d’embaucher Laurence Haïm et Yann Barthès. Les animateurs c’est une bonne chose, mais un concept d’émission et de l’innovation c’est mieux. Les audiences sont en souffrance y compris suite aux aménagements mis en place à la rentrée de septembre. Depuis début janvier, les après-midis de France 2 ont été à nouveau modifiés. Sur le digital, pas de changement depuis quelques temps. Outre une cellule de prospective, extrêmement dynamique et un blog (« meta-media ») très intéressant et novateur, pas de révolution à signaler. Un changement attendu avec la nouvelle plateforme « Pluzz » La nouvelle plateforme « Pluzz » devrait être mise en service à partir du mois de mai 2017. La patronne de France Télévisions l’a annoncé à la mi-janvier. Tout d’abord elle changera de nom. Mais sera aussi repensée dans un format plus adapté à l’époque pour un usage simplifié. Elle permettra de visionner les programmes en replay, la VàD et un service VOD. Ce service est l’une des nouveautés annoncées. A priori, il devrait être mis en service à l’automne prochain. Peu
d’informations ont été dévoilées sur ce projet.

Lors du FIPA, à Biarritz, le patron de la RTBF, JeanPaul Philippot a annoncé une éventuelle participation à l’offre de vidéo à la demande par abonnement. On sait également que la patronne du groupe public négocie actuellement ce projet avec plusieurs producteurs, sur le principe du partage des revenus. Les discussions sont en cours notamment avec Banijay Zodiak, Cyber Group Studios, Lagardère Studio, Makever, Mediaparticipations, Univers Ciné, Newen Studios, Millimages, Xilam et Tétramedia. Le business plan de ce projet stratégique n’a pas encore été approuvé en Conseil d’administration. Le service se retrouvera confronté à des concurrents français et internationaux bien installés Enfin, la grande inconnue, et pas des moindres, vont-ils mettre en place une forme de collecte de data à travers le nouveau « Pluzz »? Delphine Ernotte n’a pas évoqué le sujet. Toutes les télévisions de rattrapage demandent au consommateur un minimum de données pour visionner les contenus. Ce n’est pas le cas de France télévisions. On peut accéder aux services en ne donnant aucune information. Or, on se demande si service public et récupération des données de l’utilisateur sont conciliables. L’avenir et les audiences se jouent sur ces informations. Il s’agirait de rattraper le retard accumulé dans le domaine voire même de trouver un compromis entre le fait d’optimiser les audiences via les données tout en préservant la confiance du public. Tisser et préserver un lien avec le spectateur, aujourd’hui, cela passe notamment par le digital.

Charlotte Tomaka

Clue, le futur de la santé est-il connecté ?

 

La startup berlinoise Clue, dont l’application a été lancée en 2013, a réuni un total de 30,3 millions de dollars lors de ses multiples levées de fonds. L’application mobile met la science et la donnée au service de connaissances personnelles actionnables dans le domaine de la santé féminine.

La cofondatrice Ida Tin est partie du constat que depuis 60 ans, première commercialisation de la pilule contraceptive, aucune innovation majeure n’a eu lieu en la matière. Et si la technologie pouvait entrer en jeu ?

Clue, mais qu’est-ce donc ? Voici des indices !

L’application mobile s’est positionnée comme un traqueur du cycle menstruel et une aide à la contraception et la fertilité. L’application est disponible dans plus de 190 pays, 15 langues et comptabiliserait selon elle 5 millions d’utilisateurs actifs. L’application repose sur trois technologies principales : le machine learning, les big datas et le cloud. Clue devrait proposer à l’avenir du hardware avec notamment l’utilisation de la technologie de réseau de capteurs sans fil.

L’application Clue peut être utilisée avec ou sans création de compte utilisateur :

  • Sans compte (opt out) : les données sont stockées localement sur le mobile de l’utilisateur, certaines fonctionnalités et la récupération des données sont impossibles. Les données ne sont partagées avec aucun tiers.
  • Avec compte (opt in) : les données sont stockées sur les serveurs propriétaires de Clue. Les données personnelles collectées sont anonymisées et sont utilisées pour la recherche par des universités partenaires comme Oxford University ou encore Columbia.

Les applications de suivi du cycle représentent la deuxième catégorie la plus téléchargée après les applications de running dans la catégorie forme et santé de l’App Store. Il existe à ce jour une centaine d’applications mobiles sur cette thématique sur le store français. Quels signaux sont actuellement envoyés sur le marché de la santé connectée et quelles stratégies peuvent y émerger ?

La santé connectée : un marché attractif !

Selon Statista, le marché global de la santé numérique a été évalué à 60 milliards de dollars en 2013 et devrait être multiplié par quatre d’ici 2020, pour atteindre les 233,3 milliards de dollars. Le marché devrait être plus particulièrement tiré par la m-santé, santé connectée grâce au mobile, la santé sans fil (« wireless health ») qui regroupe tous les usages de technologies sans fil au service de la santé et enfin la télémédecine qui désigne l’usage des NTIC pour permettre l’exercice de la médecine à distance. Le segment de marché de la m-santé devrait générer 55,9 milliards de dollars en 2020.

Le culte du « quantified self », déjà une habitude de consommation…

La mesure de soi, « quantified self », n’est pas née avec le numérique. Cependant, le numérique a permis sa généralisation et son partage. Ce terme désigne l’ensemble des méthodes et technologies permettant à l’utilisateur de mesurer ses données personnelles pour mieux se gérer lui-même. Cela peut regrouper la gestion de sa productivité, de son bien-être ou encore de sa santé. L’émergence et le succès d’applications permettant de suivre la santé de ses utilisateurs sont indissociables de l’accélération du phénomène de mesure de soi.

… Malgré une méfiance à l’égard des produits de santé connectée !

Il existe néanmoins un enjeu fort de confiance envers les services et produits du marché la santé numérique. Une étude Statista montre qu’un quart des consommateurs américains entre 35 et 44 ans sont soucieux du fait que leurs données de santé, et plus particulièrement leurs dossiers médicaux, soient stockés dans le cloud. Les générations les plus jeunes sont plus enclines à partager leurs données que leurs ainées.

Quant au partage des données de santé de manière anonyme pour faire avancer la recherche médicale, le clivage entre la génération des 18-24 ans et des 25-34 ans est particulièrement marqué puisque 40% des 18-24 ans y sont favorables tandis que les 25-34 ans sont parmi les générations les moins enclines à partager ces données (28%).

Enfin, la confiance des médecins est primordiale pour apporter de la légitimité aux produits et services de la santé numérique ainsi que favoriser leur développement et leur usage. L’enjeu actuel est de rassurer les médecins sur la manière selon laquelle les données sont traitées puisque la principale préoccupation des médecins en Europe est la mauvaise interprétation des données.

L’importance de se positionner en « good data company »

Face à ses concurrents, Clue affirme être une « Good data company » et être très vigilante quant aux données de ses utilisateurs. Son concurrent Ovia Health espère valoriser ses données auprès des compagnies d’assurance et la réputation de Glow a été dégradée lors de l’été 2016 dans un rapport du site américain Consumer Reports démontrant des failles de sécurité concernant les données des utilisateurs, depuis démenties par Glow.

L’actualité juridique est particulièrement riche dans ce domaine avec l’entrée en vigueur du règlement européen sur la protection des données personnelles en 2018. Clue devra dès lors intégrer toutes les contraintes législatives à venir, en assurant une protection effective des données de ses utilisateurs dès la conception du hardware, en intégrant la notion de privacy by design.

Une stratégie de verrouillage des utilisateurs et de coopétition avec Apple

La stratégie de Clue est une stratégie de verrouillage et de mise en place d’un switching cost psychologique. L’utilisateur peut accéder grâce à l’application à toutes les données qu’il a entrées depuis le début d’utilisation de l’application. Le machine learning permet d’avoir des données dont la pertinence augmente avec l’utilisation de l’application. Si l’utilisateur quitte l’application, il perdra non seulement ses données, mais surtout la fiabilité des prédictions proposées par l’application. Clue ne verrouille pas ses utilisateurs de manière agressive : il est possible d’exporter ses données pour pouvoir les emmener en consultation médicale par exemple. Le verrouillage réside également dans le design de l’application puisque l’utilisateur est habitué à l’interface et en changeant d’application, il sera obligé d’apprendre à utiliser la nouvelle interface, ce qui peut constituer un switching cost psychologique.

L’arrivée d’Apple sur le marché a incité Clue à développer une logique de coopétition avec cet acteur. Plutôt que d’affronter frontalement Apple, Clue a décidé de coopérer avec lui en permettant de synchroniser les données de santé reproductive de Clue avec l’interface Health Kit de Apple. Cependant le passage par l’application Clue propose davantage de catégories que ce qui est pris en charge par le Health Kit, pour favoriser l’usage direct de l’application.

Du software au hardware, les prémisses du modèle d’affaire

Ida Tin, depuis les débuts de Clue, croit dans l’utilisation des capteurs sans fils, en plus des algorithmes et du machine learning, au service de la santé. Clue permet le suivi des données entrées par les utilisateurs eux-mêmes. En complément de l’application, il est déjà possible de se synchroniser avec FitBit, et Health Kit et ainsi, de prédire par la fréquence cardiaque, quand l’utilisatrice est plus fertile. Clue espère grâce à l’utilisation d’objets connectés, favoriser l’émergence d’une alternative aux moyens contraceptifs classiques.

Clue pourrait à terme constituer une alternative aux contraceptifs hormonaux, sous réserve d’études et tests cliniques rigoureux prouvant l’efficacité et la fiabilité de ce nouveau mode de contraception par rapport aux contraceptifs traditionnels. L’enjeu majeur est d’instaurer la confiance auprès des utilisatrices. Les alternatives actuelles restent contraignantes puisqu’elles nécessitent la prise de température basale et un suivi du mucus quotidiennement.

Le modèle d’affaire de Clue repose dès lors sur le hardware et non sur l’application seule. Le service proposé pourrait être à l’achat du support hardware et/ou à l’abonnement au service lié à l’usage du hardware. A date, aucune information descriptive sur l’objet connecté en cours de création n’a été communiquée, le projet restant secret et devant d’après les cofondateurs présenter une « innovation scientifique majeure ».

De l’application mobile au dispositif médical

Selon la directive Européenne 93/42/CEE, on qualifie les accessoires utilisés avec des dispositifs médicaux comme des dispositifs médicaux eux-mêmes. Avec le développement du hardware, il y a requalification de l’application Clue et les règles qui s’y appliqueront seront dès lors plus contraignantes. Clue semble avoir néanmoins déjà pris en compte en partie cet aspect juridique puisque tous les contenus rédigés sur l’application sont suivis d’une bibliographie citant la littérature scientifique ayant permis leur rédaction.

La course à l’innovation est lancée sur le marché de la santé connectée !

Le time to market du produit hardware semble long puisque la startup a été fondée il y a quatre ans. L’innovation technologique, la date de lancement du produit ainsi que les stratégies de pricing, communication et distribution seront déterminantes dans la réussite du modèle d’affaire de Clue. L’enjeu règlementaire viendra complexifier davantage les règles qui s’appliqueront à Clue, plus particulièrement sur le territoire européen. Plusieurs modèles d’affaires sur la m-santé féminine devraient s’affronter et l’avenir nous montrera s’ils pourront cohabiter ou si de gros acteurs comme Apple avec son softwares HealthKit ou encore Google, qui investit dans la recherche et développement de hardwares liés à la santé, capteront l’essentiel du marché.

 

Alice Fauroux

Le marketing digital au service de la politique

Le marketing politique a la particularité d’utiliser les techniques du marketing commercial classique pour promouvoir des idées. Ainsi, il agit sur le produit, en l’occurrence un candidat ou une idée, de manière à favoriser son adéquation avec les consommateurs (l’électorat, le citoyen, l’adhérent), créer la différence avec le produit concurrent, le faire connaitre par le plus grand nombre de consommateurs et avec un minimum de moyen afin d’optimiser les achats (suffrage, soutiens, adhésions). Il existerait donc un marché électoral, caractérisé par une offre, une demande et des marques.

Dès lors, il est possible d’assimiler la communication politique au marketing mix articulé autour des 4P :

Product : candidat – programme – parti

Price : Frais de campagne – nombre de voix

Place : lieux visités par le candidat – lieux de tractage et de promotion du candidat

Promotion : affiches – tracts – meetings – médias

S’il s’apparentait plus à un marketing de communication avant l’explosion du digital, il a pris une toute nouvelle dimension avec l’exploitation des capacités et outils du marketing digital. Comment la politique s’est-elle appropriée les techniques du marketing digital au point qu’elles en deviennent indispensables à la victoire ?

Le branding

Le marketing est le propre des marques, et l’essence de celles-ci, c’est la concurrence, ce qui est également l’essence de la politique dans une société démocratique. Le terme de branding désigne une logique d’action marketing ou publicitaire qui cherche à positionner une marque commerciale dans l’esprit du consommateur. A l’aune de cette définition, on pourrait se demander si les partis et les hommes politiques ne seraient pas devenus des marques comme les autres. Selon Marcel Botton, « les partis et a fortiori les hommes politiques sont des marques » : même besoin de notoriété et d’attractivité, mêmes outils marketing et même combat concurrentiel.

Le personnal branding prend d’ailleurs souvent le pas sur l’image des partis, toujours selon Marcel Botton « Marine Le Pen incarne son parti, tout autant que George Clooney incarne Nespresso »[1]. Très attachée à son image, Marine Le Pen a, par ailleurs, pratiqué le « rebranding » du Front National en donnant naissance au « Mouvement Bleu Marine » lors des élections présidentielles de 2012, exemple d’une adaptation du discours et de l’offre au contexte d’une campagne et aux attentes de nouveaux électeurs potentiels.

Le community management

Le réseau social aux messages en 140 caractères s’est imposé comme l’outil de marketing digital privilégié des personnalités politiques. D’abord utilisé pour créer une relation de proximité avec les internautes, Twitter est devenu le lieu incontournable du buzz. Toutes les marques ont ainsi créé un compte et investis dans des community manager pour tenter de sortir leur épingle du lot dans le flux d’information continu du réseau social. Ils entretiennent ainsi leur image de marque afin de pénétrer le quotidien des internautes, dont la majorité a tendance à voter pour une personnalité plus que pour un programme politique.

Les politiques ont misé sur une présence importante sur Twitter, et il le leur rend bien : le réseau social a bien souvent influé sur le résultat des élections. Récemment, Jean-Frédéric Poisson, pourtant inconnu du grand public, a déchainé la twittosphère et ainsi gagné une notoriété inespérée, les hashtags « poisson » et « clashpoisson » ayant écrasé ceux concernant ses concurrents.

Les applications smartphone

Développer une application smartphone est un élément incontournable pour cibler les fameux « millenials ». Tout comme les annonceurs, les politiques tentent désespérément de séduire les jeunes.  Hillary Clinton l’a bien compris et a lancé une application qui renouvelle la façon de mobiliser les militants. Réalisée par des développeurs de DreamWorks, cette application propose des défis quotidiens à remplir : s’inscrire à la mailing list, reposter une publication d’Hillary Clinton sur les réseaux sociaux ou encore se rendre au siège local du Parti démocrate pour aider à la campagne sur le terrain. Pour chaque mission accomplie, le supporter reçoit des points qu’il peut échanger contre un autographe de la candidate. Cette stratégie semble intelligente dès lors qu’elle rend l’expérience partisane ludique et permet au parti de récolter de nombreuses datas.

 

Le data mining, nouveau levier d’action politique

La qualification ultra-ciblée des bases de données permise par les outils de gestion de communautés citoyennes deviennent des atouts majeurs du marketing politique. Démocratisées par Barack Obama lors de sa campagne de 2008, de nouveaux programmes de gestion/CRM optimisés permettent aux politiques de mieux qualifier leurs bases de données et cibler davantage leurs actions sur le terrain comme sur le web. A l’époque, le candidat américain s’était entouré de jeunes informaticiens venus de Google et Facebook qui avaient mis en place un projet data reposant sur trois piliers :

  1. L’agrégation de données sociodémographiques et nominatives sur une base géographique (données publiques)
  2. Corrélation prédictive des votes en fonction de l’historique des résultats électifs précédents par zone géographiques (données publiques)
  3. Corrélation avec les sondages d’opinions et les études ad hoc réalisés afin de connaitre les thèmes de bascule propres à influencer le vote des électeurs indéterminés en fonction des zones d’habitation.

En France, les candidats à la primaire de la droite, Alain Juppé en tête, ont suivi les traces de l’ancien président américain, et ont fait appel à Nation Builder pour optimiser leur campagne. Cette plateforme permet d’administrer un site, de collecter des contacts et des données et d’organiser des campagnes militantes. L’aspect interactif est essentiel : les équipes d’un candidat sur le terrain l’alimentent avec les informations qu’elles recueillent et le candidat peut envoyer ces équipes faire campagne auprès de publics ultra-ciblés. Il n’y a pas de limite à un outil qui permet maximiser toute information personnelle afin de décrocher un vote, un don ou un coup de main pour une opération de tractage.

Ces nouveaux outils basés sur la data, permettent d’optimiser les dépenses marketing en e-mailing. Tout comme le font les annonceurs commerciaux, l’e-mailing politique pratique le retargeting (notamment à destination des indécis) et l’A/B testing (deux versions de courriels sont envoyées à deux panels de sympathisant et un bilan est réalisé pour savoir laquelle est la plus efficace : ouverture, taux de clics sur la pièce jointe, réponse etc.) 

La stratégie digitale à suivre : le cas Beppe Grillo

Tout commence en 2005 avec la création de son blog. Beppe Grillo caricature et dénonce les classes politiques italiennes, et partage ses coups de gueule. Son blog est l’un des plus lus d’Italie et atteint la 9ème position des blogs les plus populaires au monde. Il mise sur l’international en enrichissant d’une version anglaise et japonaise son blog, dont les visites augmentent au niveau mondial. C’est près de 150 000 et 200 000 visiteurs par jour en Italie.

Celui qu’on surnomme le « messie » utilise les réseaux sociaux et son blog pour créer des rassemblements contestataires dans toute l’Italie. Dès 2007, il parcourt l’Italie avec son « Vaffanculo Day ». Il utilise le portail du réseau social Meet Up pour former des groupes locaux à travers le monde (aujourd’hui 856 groupes, dans 14 pays qui comportent environ 120 000 membres) et créer des leaders d’opinion. Boycottant les plateaux télé, ses différents meetings du « Tsunami Tour » sont retransmis en direct sur son site, ainsi que sur sa chaîne Youtube (La Cosa). Son écosystème digital est prolifique, le relayage des informations sur les différents sites permet de créer un nouveau moyen de répandre ses idées en dehors des médias traditionnels. Il a également développé sa propre application. Aujourd’hui sa page Facebook compte 1,2 millions de fans, 1 044 491 followers sur Twitter et près de 110 millions de vues sur ses vidéos Youtube.

[1] Marcel Botton, « Les hommes politiques sont des marques comme les autres », 2008

 

Noémie Hennig

Data 1st party : Ce que les médias devraient apprendre des GAFA.

Dépasser ses first party data pour mieux vendre de la publicité.

En acquérant CCM Benchmark au mois d’octobre 2015, le Groupe Figaro avait pour objectif de devenir le groupe digital leader en France, en terme de visites d’une part, avec 24 millions de visiteurs uniques mensuels, et de data d’autre part, en diversifiant ses données 1st party. Son alliance avec l’éditeur de sites communautaires lui permet, en effet, de récupérer un autre type de données first party, comme les logs des internautes sur les forums. Une belle promesse publicitaire.

Le groupe, à l’instar des autres médias en presse et en télévision, a pris conscience d’une nécessité nouvelle : la  qualification véritable de son audience. Ainsi, avec le passage du média planning à l’audience planning, et la généralisation des DMP chez les annonceurs, ces derniers sont devenus exigeants. Les médias ont une promesse à tenir : une audience qualitative, et donc qualifiée. Exit les abus des premières heures de la publicité en ligne, pour le moins en apparence ; les éditeurs de contenu jurent avoir réglé les soucis de visibilité, de brand safety, et de fraude.

La combinaison de la data 1st et 3rd party : « connaître les inconnus ».

Internet a permis aux éditeurs de récolter de nouvelles données 1st party, plus précises, grâce aux web analytics : les données nominatives pour les utilisateurs loggés, les données comportementales pour tout visiteur (temps passé sur le site, durées d’écoute ou de lecture, moments de « décrochage » de lecture ou de visionnage, etc), la géolocalisation. Néanmoins, pour pouvoir vendre de la publicité ciblée, cette donnée 1st party de l’éditeur ne suffit plus car, si elle permet d’analyser le trafic et les comportement en ligne des internautes, le pourcentage de personnes loggées en presse écrite ou en radio reste très faible, ce qui ne permet pas de les identifier précisément. C’est notamment la raison pour laquelle les plateformes de catch-up TV de chaînes comme M6 ou TF1 obligent désormais leurs utilisateurs à se créer un compte afin de visionner des contenus.

Il a donc fallu enrichir ces profils avec de la data 3rd party, vendue ou louée par des acteurs tiers. Celle-ci apporte un autre type d’information sur l’internaute anonyme qui arrive sur un site, grâce aux « traces » qu’il a laissé lors de sa navigation, hors du site. Les acteurs de la 3rd party data, tels que Weborama, collectent les données des cookies et des tags, afin de définir des profils d’audience.

La combinaison de la data 1st et 2nd party  – Mieux cibler le consommateur visé par l’annonceur grâce à ses données.

Afin de parfaire le ciblage publicitaire, un autre type de données est injecté dans les plateformes d’achat d’inventaire : la donnée 2nd party, c’est-à-dire les données du partenaire commercial. L’annonceur peut ainsi tenter de cibler précisément, chez le média, les profils de sa base de donnée. Le croisement de la data 2nd party (de l’annonceur) avec la data 1st party (de l’éditeur) permet donc d’améliorer la qualité et la valeur du ciblage publicitaire : ce n’est plus la quantité d’impressions délivrées qui est valorisée, mais la qualité du ciblage du prospect.

D’un point de vue publicitaire, les médias traditionnels s’emploient donc à rattraper leur retard sur la collecte de données en ligne et le ciblage publicitaire. En revanche, ils sont encore loin d’optimiser la valeur de cette data, notamment 1st party, en les mettant au service de leurs contenus.

Traiter ses datas au service du contenu également.

Collecter des données ne suffit pas, c’est leur traitement qui apporte de la valeur à la data. Les données collectées sur l’audience en ligne pourraient permettre aux médias de recréer des marques fortes en optimisant le contenu et le personnalisant pour chaque utilisateur. Utiliser la data à des fins uniquement publicitaires est un palliatif fragile à la baisse des revenus : si l’audience déserte les contenus, c’est également à terme la disparition du « temps de cerveau disponible » si cher aux annonceurs. Or pour l’instant, les DMP semblent avoir du mal à quitter les régies pour rejoindre également les rédactions.

Pour la majorité des éditeurs, les algorithmes de recommandation autour du contenu sont encore loin d’être une réalité à l’exception de Melty, premier groupe médias chez les jeunes. Son business modèle repose ainsi sur « Shape », son algorithme prédictif. Celui-ci permet au média en ligne d’anticiper les sujets qui plairont à l’audience et deviendront viraux. Il influence aussi bien le fond, en s’inspirant des requêtes Google des tranches d’âge concernées et en faisant évoluer l’article en fonction des comportement de lecture, que la forme, en conseillant la sémantique la plus à-même de faire remonter l’article dans les moteurs de recherche.

 C’est pour s’aligner avec Google News ou la recommandation du News Feed de Facebook que les éditeurs traditionnels cherchent, de plus en plus, à créer une page d’accueil évolutive et personnalisée. Le Washington Post, depuis son rachat par Jeff Bezos, utilise ainsi deux nouveaux outils pour renforcer son audience en ligne. D’une part, Bandito lui offre la possibilité de publier un article avec cinq titres, photos et traitements de l’histoire différents, arbitrés par un algorithme en fonction de la combinaison générant un engagement maximal du lecteur. D’autre part, Loxodo lui permet de mesurer son « lead » : la qualité perçue d’un article par rapport à ceux d’autres éditeurs, ou la réaction provoquée par une notification mobile.

En améliorant leur contenu grâce au traitement de la donnée, les « marques» média tels que Le Elle, les Échos ou le Figaro susciteraient une attention plus captive. Ce cercle vertueux autour de la data permet aussi une diversification : opérations spéciales, événements, location ou vente d’emailing à des entreprises partenaires. Néanmoins, l’utilisation de la 1st party data à des fins d’amélioration et de personnalisation des contenus n’est pas encore une réalité pour la majorité des éditeurs dits « traditionnels ». Ceux-ci se limitent encore à une valorisation publicitaire.

Les GAFA et NATU, très en avance sur le traitement des données.

Face à eux, des acteurs tels que Google ou Netflix ont construit leurs business model autour de la donnée 1st party. Ils n’excellent pas seulement dans le traitement de leur data, via des algorithmes auto-apprenant (deep learning et machine learning) et de recommandation qui permettent d’améliorer constamment l’expérience de l’utilisateur, ils ont également pris une longueur d’avance sur la quantité de données stockées. On pourrait presque évoquer un phénomène de « vinification » des datas, dans le sens où, Facebook, comme Google, a segmenté, croisé, fait « macérer » des données comportementales, émotionnelles, transactionnelles, contextuelles depuis dix ans.

Si les médias aujourd’hui, commencent à « profiler » leur base de données, la supériorité des GAFA[1] est donc incontestable en terme d’expérience dans la connaissance de leurs utilisateurs (consumer centric).

La vraie supériorité : avoir une donnée 1st party assez puissante pour se passer de la 3rd.

 Ces nouveaux acteurs ont donc dépassé la nécessité d’acquérir une donnée autre que leur 1st party data grâce à leur expérience son traitement. Des entreprises, telles que Netflix,  dont l’algorithme est devenu la proposition de valeur, peuvent se passer d’intermédiaires de la 3rd party en intégrant leurs outils à leur algorithme propriétaire.

Celui de Netflix développe ainsi de la 1st party data dès son premier contact avec son utilisateur : il se log dès le premier mois d’abonnement (gratuit sur le modèle freemium), ce qui permet à la plateforme d’associer précisément la donnée nominative et comportementale, affinitaire, émotionnelle ou transactionnelle. Si la data ne permet pas de produire des contenus originaux, elle guide les choix de production et leur suggestion au consommateur[2]. L’algorithme de recommandation se base sur les goûts et le profil du client ainsi que sur un système de filtrage à partir de profil similaire (look-alike). Netflix ne faisant que croître, ce modèle éditeur est devenu un best case, au regard de l’importance du traitement de la 1st party data.

En conclusion, la question n’est pas tant de se demander pourquoi aller au delà de la first party mais quelle sera sa nature, qui la possèdera et comment l’utiliser. La vraie bataille sera celle de la data, entre nouveaux détenteurs de la données (GAFA, FAI) et médias, qui en auront besoin tant pour orienter leurs contenus que pour les monétiser. L’importance d’aller au-delà de la 1st party data découle aussi de l’emprise des FAI sur cet actif naturel des médias.

 

[1] Google, Amazon, Facebook, Apple

[2] Pour se faire les programmes sont “taggés” et “séquencés” pour en déduire des dénominateurs communs à partir de facteurs tels que : le rythme de visionnage, le contenu de ces programmes ou le genre notamment.

Claire Manzano

TELEGRAM, le marketing digital de l’ère post-snowden

« When you say I don’t care about the right to privacy because i have nothing to hide, that is no different than saying I don’t care about freedom of speech because i have nothing to say (…) ». Qui citer d’autre, pour définir l’ère post-snowden, qu’Edward Snowden lui même ?

L’on associe traditionnellement la question de la vie privée à celle du secret des correspondances : la tradition se perpétue même si les techniques de correspondance changent pour devenir essentiellement numériques. Ce statu quo est impeccablement illustré par le nom de l’application de messagerie chiffrée qui a inspiré cet article, Telegram, créée en 2013 en Russie.

L’ère post-snowden est significative en ce qu’elle globalise la question de la protection des données  à caractère personnel tant verticalement (dans les relations entre institutions politico-économiques et les individus) qu’horizontalement (dans les relations entre individus ou groupes d’individus). Apparait alors un marché considérablement élargi, à l’instar de la masse des personnes potentiellement concernées par ce désir de protection : Telegram a été téléchargé près de 50 millions de fois en 2016.

Illustrant succès et limites de la dynamique entrepreunariale post-snowden, l’intérêt de Telegram va plus loin puisque l’application a su utiliser cette dynamique pour se reconvertir en social media, modèle plus pérenne.

Garantir la protection des données à caractère personnel : une stratégie marketing initiale efficace mais en perte de vitesse ?

Affaire Snowden, développement exponentiel des techniques de hacking, guerre numérique à échelle mondiale dont les dernières élections américaines sont un exemple évocateur, remise en question des pratiques commerciales de certaines grandes multinationales (…), tout ceci a contribué à distiller une véritable doctrine de la protection des données à caractère personnel qui ouvre un marché prometteur pour tous moyens de communication s’engageant à la garantir. Ce marché est en outre propice à un marketing opaque vue la difficulté pour les utilisateurs, même sensibilisés à l’informatique, de vérifier si les applications qu’ils utilisent sont bel et bien strictement sécurisées. Il s’agira alors de se démarquer de ses concurrents en communicant d’une façon convaincante sur un degré de sécurité prétendument supérieur : Telegram base sa stratégie sur le constat d’échec de ses principaux adversaires, Facebook et WhatsApp, à protéger les données  à caractère personnel qui y transitent. «Unlike other services, when we say we don’t share your data with third parties, we mean it », peut on lire sur le compte twitter de l’application qui, à la différence des autres,  fonctionne grâce à un cloud, ne stockant ainsi (presque) rien sur le téléphone. Opération réussie : début 2014, WhatsApp subit une panne mondiale de plusieurs heures ; le malheur des uns faisant le bonheur des autres, Telegram annonce alors avoir enregistré plusieurs millions de nouvelles inscriptions près de 24 heures après le bug, soit une augmentation de près de 2500%.

La question du financement et donc de l’appartenance boursière est également au coeur de la tactique marketing de Telegram : l’application se revendique auto-financée et indépendante (« Telegram can’t be sold ») tandis que Facebook rachète WhatsApp, en 2014, pour 19 milliards de dollars provoquant instantanément de sérieux questionnements -voire des investigations- sur le partage de données entre les deux entreprises.

Il ne reste plus qu’à décrire Pavel Durov, co-fondateur de la messagerie : créateur en 2006 de Vkontakte, le Facebook russe, menacé par le Kremlin (à qui il a, notamment, refusé l’accès aux profils des manifestants de Maïdan), exilé, ami des hackers …, tout jusqu’à son physique et son nom incarne et crédibilise l’image de Telegram comme arme contre le totalitarisme. Le charme opère puisque 15 milliards de messages sont envoyés chaque jour depuis l’application, et ceci sans le moindre investissement marketing significatif.


Mais cela ne tient que tant que la crédibilité de Telegram, comme messagerie inviolable, perdure. Là réside probablement la limite du marketing digital de l’ère post-snowden. Il faut s’assurer que la technologie utilisée est toujours la plus fiable, alors que les hackers sont de plus en plus performants et innovants. Pavel Durov tente de s’en assurer en offrant de 300 000 dollars à toute personne qui trouverait une faille dans son système. Il n’est pas sûr que cela ait été totalement efficace puisque l’application a été récemment pointée du doigts pour avoir été victime d’un piratage de grande envergure en Iran (15 millions de numéros de téléphone aurait été collectés), information partiellement démenti par Telegram[1]. L’application pourrait également, selon certains, avoir joué un rôle lors des prétendues tentatives des services secrets russes pour compromettre le nouveau président américain (rappelons qu’aucune des ces informations ne sont, actuellement, confirmées ou vérifiables).

De nouvelles applications, réputées plus sécurisées, commencent d’ailleurs à voir le jour, à l’instar de Signal (recommandée par Snowden lui même mais victime de problèmes techniques) téléchargée 3,62 millions de fois, ou Wicker-Me (3,8 millions).

Autre épine, l’utilisation assumée de l’application par des terroristes, dont certains impliqués dans les attentats récemment perpétrés en France, qui pose des questions éthiques et suscite des tentatives de réaction de différents gouvernements (« Les échanges de plus en plus systématiques opérés via certaines applications, telles que Telegram, doivent pouvoir (…) être identifiés et utilisés comme des éléments de preuve (…) » déclare Bernard Cazeneuve, alors ministre de l’intérieur, qui souhaite « armer véritablement nos démocraties sur la question du chiffrement », suggérant que « la Commission européenne étudie la possibilité d’un acte législatif pour rapprocher les droits et les obligations de tous les opérateurs »). Le droit national, régional et international est donc à la recherche d’armes juridiques pour lutter contre ces nouveaux canaux de communication. Si Telegram réagit timidement (suppression de 78 comptes liés à l’EI suite aux attentats de novembre 2015, création de la chaine IsisWatch qui publie des rapports réguliers sur le nombre de canaux ou de bots pro-Daesh bannis de la messagerie), il est évident que cela n’est pas dans son ADN, ni dans celui de Pavel Durov, qui déclare refuser de se plier à des « restrictions locales à la liberté d’expression ».

Plus globalement, l’on peut se demander si le concept premier sur lequel repose Telegram n’est pas fondamentalement incompatible avec l’effet de réseau que génère l’application. Si la confidentialité promise attire des masses conséquentes d’utilisateurs, ces masses attireront à leur tour la convoitise et le système se fera prendre à son propre piège. Associé à une inviolabilité quasi-impossible sur le long terme rendant inévitable la naissance de concurrents hautement compétitifs, et à la pression éthique, politique et juridique que subit le modèle, l’on doit s’interroger sur la pérennité de la vision qu’a Telegram du marketing digital de l’ère post-snowden.

Renouvellement de la stratégie marketing : utiliser la dynamique de l’ère post-snowden pour se reconvertir en social media et en plateforme digitale.

Il semble que Telegram ait assumé et anticipé cette plus ou moins inéluctable perte de vitesse, puisque l’entreprise entame une mutation intéressante et choisit d’utiliser bénéfiquement son effet de réseau pour se reconvertir en social media. Outre le service de messagerie individuelle ou groupée (un groupe pouvant contenir jusqu’à plusieurs milliers de personnes), Telegram propose des «  chaînes », listes de diffusion non limitées en taille, publiques ou privées, accessibles à partir d’URL permanents. Le diffuseur de n’importe quel message ou lien peut voir, en live, le nombre de vues qu’il suscite et le nombre de transmission à des membres extérieurs à la chaine.

Ce support détient un intéressant potentiel commercial et marketing pour les marques, engendrant une convoitise qui, si elle est problématique à gérer pour une application de messagerie sécurisée, devient potentiellement une force pour un social media : c’est peut-être la solution qu’a trouvé Telegram pour échapper à son paradoxe.

Telegram tend également à devenir une plateforme digitale complète et centralisatrice. D’abord, son utilisation ne requière pas d’espace de stockage puisque l’application utilise un système de cloud, servant initialement à éviter la présence de datas dans la mémoire de l’appareil utilisé. Ceci permet notamment d’envoyer des fichiers beaucoup plus volumineux que ceux pouvant transiter via d’autres systèmes de messagerie. Ensuite Telegram fournit deux types d’API à d’éventuels développeurs : des « Bot API », permettant de connecter des bots (systèmes interactifs robotisés avec lesquels l’on peut tchatter) au système de messagerie et des « Telegram API » permettant de développer des applications sur la plateforme. Enfin, l’on peut citer, à titre d’exemple des divers services maintenant offerts par Telegram (qui dispose d’ailleurs depuis peu d’une version disponible sur ordinateur), une option pour transférer de l’argent disponible en Russie et au Brésil ou des stickers crées sur mesure par des artistes … D’aucun pourrait répondre qu’il manque encore la possibilité de passer des appels via l’application : c’est en cours !

L’évolution de Telegram atteste donc d’une stratégie marketing pragmatique. Il reste que cela sonne vraisemblablement le glas de l’idéologie entrepreneuriale initiale, résumée ainsi : « its non-profit model means that it was not created to make the billions that other companies strive for : it was build to offer a better messaging service to the people ».

[1] Droit de réponse de Telegram : https://telegram.org/blog/15million-reuters

 

Athur Terry

Data et programmatique : un couple gagnant ?

Face à une expérience en ligne extrêmement dégradée, la publicité programmatique se révèle être une perspective d’avenir intéressante. L’augmentation constante du taux d’équipement des adblockers en France pousse les annonceurs et les éditeurs à réinventer le modèle publicitaire en ligne. Ces dernières années IAB a avoué privilégier l’optimisation des revenus publicitaires et les outils de retargeting qui permettaient de conserver des CPM et CPC rentables. Cette stratégie a conduit à accroître la pression publicitaire sur les internautes qui sont maintenant plus de 30% à être équipés d’adblockers.

Depuis 2015, IAB fait marche arrière et Scott Cunigham prêche pour un standard publicitaire dit « LEAN », plus léger, moins intrusif qui laisse le choix aux internautes. Aujourd’hui éditeurs et annonceurs tentent de se renouveler en pariant sur des formats innovants, la brand utility et la personnalisation de la publicité. L’association du big data et l’évolution de la publicité programmatique sont les deux éléments essentiels de cette transformation. La France est l’un des pays prescripteurs en termes de ventes d’annonces automatisées, fin 2016, les ventes mobiles représentent 43% des ventes annuelles soit 239 millions et une croissance de plus de 60%. Cette tendance continuera de se renforcer, emarketer estime à 518 millions de dollars les dépenses en programmatique en 2018. Le couple data programmatique est au coeur de cette évolution réussie.

Du marketing de masse au marketing à la performance

Le terme de programmatique désigne, dans le cadre du marketing digital, l’automatisation de l’achat et de la vente d’espaces publicitaires sur n’importe quel device.

La publicité ciblée, une révolution permise par le RTB sur Ad Exchange

La programmation RTB (real time bidding) que l’on pourrait traduire par « offres en temps réel » est comparable à une salle de marché boursier sur laquelle se vendent et s’achètent des espaces publicitaires en ligne. La vraie révolution intervient avec le modèle du Ad exchange : les transactions, qui s’effectuaient sur un Ad Network jusqu’à lors, ne concernent plus des espaces publicitaires mais des audiences. Ainsi, le même espace publicitaire n’est pas commercialisé aux mêmes personnes avec le même message : l’annonceur peut désormais cibler une audience. En effet, grâce à un logiciel de bourse en temps réel, l’annonceur propose des flux d’informations concernant la cible qu’il aimerait toucher et ne va payer que pour des audiences qui correspondent à ses critères. D’un autre côté, les éditeurs proposent des inventaires dont ils ont qualifié l’audience, plus cette dernière est connue et précise, plus elle peut être vendue chère aux annonceurs, il existe donc un véritable enjeu au de la donnée de l’audience.

En pratique, l’annonceur va contacter une agence (sauf s’il dispose d’une équipe marketing compétente en interne) qui utilisera une Demand Side Plateforme afin de fixer les paramètres de la campagne publicitaire (cible, budget etc.). C’est le DSP qui fera le travail en faisant automatiquement et en temps réel des offres d’achat d’impressions. Pour cela, il se connecte à un Ad Exchange, lui-même connecté à différentes Sell Side Plateform. Ces dernières permettent aux éditeurs de vendre leurs inventaires disponibles en automatisant leur gestion selon la stratégie qu’ils ont définie et d’optimiser leurs revenus publicitaires. La suite du processus se déroule de la façon suivante :

La programmatique RTB sur Ad exchange constitue une véritable révolution dans le domaine de la publicité digitale dès lors qu’elle offre l’opportunité à l’annonceur de cibler le bon client final en lui proposant une publicité personnalisée grâce à la data.

L’enrichissement des données, clef de voûte d’un marketing performant

Le véritable enjeu de la programmatique c’est la data. La prise de décision en temps réel de répondre à l’achat ou non d’un espace publicitaire repose toujours sur les données. La data s’avère donc être la clef de voûte du marketing digital : l’annonceur cherche à atteindre la bonne cible, l’éditeur cherche à maximiser la donnée et le prestataire veut faire du profit grâce à la valeur de sa revente dans les ad exchange. Il existe plusieurs formes de collecte de données : celles concernant l’individu lui-même (formulaires, life logging, cloud etc.), celles concernant d’autres individus connectés au premier (liens, commentaires, contacts), les traces (données de navigation implicites ou explicites, cookies, tags, logs) et les collecteurs historiques (CRM, achat de bases de données). Il faut néanmoins souligner que toutes les données des réseaux sociaux sont considérées comme des données personnelles par la loi française et leur utilisation est subordonnée au consentement de la personne (« opt-in »).

« L’Oréal, l’achat programmatique dynamise les ventes »

L’Oréal s’érige en véritable modèle de réussite  dans la transition du marketing de masse au marketing segmenté. En 2012, le groupe se lance dans la programmatique avec l’objectif d’optimiser les taux d’engagement de ses pubs grâce au ciblage des audiences. L’Oréal renonce donc à toucher un public le plus large possible mais tente de segmenter son audience pour mieux connaître les consommateurs et leur délivrer les bons messages au bon moment. La marque de cosmétique a relevé le défi avec  Shu Uemura qui ne parvient pas à atteindre sa cible sur le marché américain. Pour la campagne Shupette, L’Oréal désire développer la notoriété et intensifier les visites du site Shu Uemura.

La première phase de l’opération consistait à identifier l’audience existante grâce à Google Analytics Premium et Double Click Bid Manager. Cette étape cruciale a permis d’acquérir de nouveaux prospects grâce aux annonces ciblées sur les réseaux sociaux et le display.

L’acquisition correspond à la seconde phase, pour ce faire Shu Uemura utilise DoubleClick Bid Manager pour le remarketing de la gamme Shupette.

Grâce à sa data interne et l’achat programmatique, le chiffre d’affaires atteint le double des estimations, aux Etats Unis, le CPA va jusqu’à dépasser les objectifs à hauteur de 73%.

Cette opération montre à quel point data et programmatique sont indissociables pour une évolution vers la personnalisation de la publicité.

L’optimisation du budget marketing

L’automatisation de la vente et de l’achat de médias a conduit à une réduction du gaspillage et permis une plus grande optimisation des coûts et des opérations, selon les conclusions d’une enquête que l’IAB. Avant, l’annonceur devait définir un groupe cible, une série de critères, rencontrer une agence marketing en mesure d’identifier les éditeurs pertinents pour l’affichage et seulement quelques semaines plus tard un contrat était signé. Le processus était lent et inefficace en matière de ciblage. Avec le traitement automatisé de la data au sein d’une DMP et un échange en temps réel sur un Ad exchange, les entreprises font des économies : d’une part parce qu’elles évitent le recours à des acteurs payants et parce qu’elles optimisent leur marketing. En effet, dès lors que les annonceurs achètent une audience qualifiée ils offrent une publicité personnalisée directement au client final avec la possibilité de retargeter, redimensionner. Ils économisent ainsi le budget marketing alloué initialement à la masse dont la plupart est désintéressée du produit.

Une alternative qui séduit :

Selon l’étude de l’IAB susmentionnée, une majorité d’acteurs de l’industrie de la publicité déclare avoir adhéré aux méthodes programmatiques de vente et achat média. 900 acteurs parmi annonceurs, agences et éditeurs, situés dans 29 marchés différents ont été interrogés dans le cadre de cette étude : seuls 8% des éditeurs, 13% des annonceurs et 7% des agences interrogées ont déclaré ne pas avoir recours au programmatique. 90% des professionnels interrogés affirment vouloir augmenter les investissements dans ces méthodes dans les 12 mois prochains.

Selon l’agence IPG MediaBrands, la publicité programmatique devrait représenter près de 33 milliards d’euros en 2019. Elle constitue d’ores et déjà près de 40% du display, qui lui-même représente, rappelons-le, environ un tiers de la publicité digitale (un marché toujours dominée par le search).

 Data et programmatique : un couple inséparable

Il y a encore quelques années l’achat en programmatique avait mauvaise presse parce qu’il servait principalement à écouler les espaces invendus des éditeurs. Le programmatique n’est pas tout à fait débarrassé de cette image « d’achat media low cost » qui pose la question de  brand safety. Pourtant, la rencontre entre data et programmatique permet d’améliorer l’expérience d’achat automatisé pour l’annonceur. Ce dernier a la possibilité d’affiner ses acquisitions, il n’achète plus uniquement des impressions, mais bien des profils de consommateurs sur lesquels il collecte des informations. Selon Béatrice L’hospitallier, directrice data du groupe Les Echos-Le Parisien, cette évolution permet aux annonceurs de sortir du modèle de performance et d’utiliser le programmatique pour des opérations de branding afin de profiter d’audience qualifiée. Mutualiser les données acquises par les annonceurs et les éditeurs ouvrent également le champ des possibles et donne le pouvoir de détecter les jumeaux marketing qui sont similaires aux audiences déjà identifiées et susceptible d’avoir les comportements d’achat identiques.

D’autre part, la data est synonyme de fiabilité pour les annonceurs. Les annonceurs ont longtemps été réticents à investir dans l’achat programmatique pour des raisons de brand safety mais aussi à cause des phénomènes de fraudes aux impressions. Les bots auraient coûtés 6,3 milliards de dollars en 2015 aux annonceurs pour des pubs qui n’ont jamais été visibles par les internautes. Aujourd’hui, Sophie Poncin affirme que les réticences des annonceurs se font moindres et laissent place à une approche très qualitative.

 

  Anouar Lmabrouk

@anouar_smh

Deepomatic, un nouveau moteur de recherche au service de la mode, 100% français

Deepomatic est une start-up française dédiée à l’intelligence artificielle et à l’image. Son domaine de prédilection est la mode et l’équipe a pour ambition de répondre à un besoin grandissant des internautes, avoir accès à tout, tout de suite en créant un moteur de recherche de reconnaissance d’images.

Les prémices de la start-up

Deepomatic est née de la rencontre de trois amis, à l’école Normale Sup de Lyon : Augustin Marty, Alois Brunel et Vincent Delaitre. Leur première idée est de monter Smyle. Le but était de créer une marketplace qui récupère tous les sacs et les chaussures disponibles chez les e-commercants francais et de permettre aux utilisateurs de naviguer à travers cet immense catalogue pour trouver des articles qui se ressemblent. En clair : une envie d’un sac Marc Jacobs alors que les économies font défaut ? Il suffisait à l’utilisateur de rentrer une photo du modèle voulu et Smyle se chargeait de trouver un article similaire, à prix bien évidemment plus avantageux.

Les trois amis, un peu trop ambitieux, ont décidé d’arrêter cette affaire et de se concentrer sur ce qui savent faire le mieux : le développement de la technologie de recherche par image. Deepomatic voit alors le jour.

Les trois compères sont partis de trois constats. Premièrement, le mode de consommation de prédilection est désormais le ATAWAD (any time, anywhere, any device),  74% des français lisent au moins une marque de presse en version numérique, et 54% sont des lecteurs sur mobiles ou tablettes[1]. Deuxièmement, le e-commerce est en plein essor. Selon le dernier baromètre de la Fevad (Fédération du e-commerce et de la vente à distance) 35,5 millions de français achètent sur internet, et 6,6 millions d’entre eux ont déjà effectué des achats à partir de leur mobile[2]. La mode représente une part importante du marché du e-commerce, l’habillement et les chaussures ont effectué en 2016 5,2 milliards d’euros de chiffre d’affaire. Troisièmement, les français deviennent de plus en plus allergiques à la publicité. Un sur trois affirme avoir déjà installé un bloqueur de publicité[3]. Cette aversion envers la publicité numérique est une préoccupation pour les annonceurs qui doivent s’adapter et chercher de nouvelles solutions de publicité.

L’objectif de Deepomatic est donc de répondre aux envies tous les clients des sites de e-commerce tout en satisfaisant également les éditeurs et les e-commerçants.

Deepomatic, comment ça marche ?

Deepomatic est installé directement sur les sites des éditeurs de magazines féminins. Grâce au deep learning, l’algorithme développé repère les différents éléments qui composent les photographies présentes sur les sites internet visités par les internautes : la robe, les chaussures, le chapeau, les lunettes etc. L’algorithme recherche ensuite sur les sites de e-commerce la pièce en question (le “perfect match”), ou bien d’autres articles similaires (forme, couleur, motifs).

Cette technologie tend à satisfaire tous les acteurs de la chaine, les éditeurs, les e-commerçants ainsi que les consommateurs finals. En liant des images des sites internet des éditeurs à des produits achetables, l’algorithme permet aux médias de monétiser automatiquement leur contenu tout en apportant un trafic qualifié aux e-commerçants. Les internautes, quant à eux, ont désormais la possibilité de trouver facilement leurs produits de mode préférés, sans avoir à se disperser sur les dizaines, voire les centaines de sites des e-commerçants.

L’outil Deepomatic est disponible sur le site « Puretrend », qui poste plusieurs centaines de photo par jour. Et avec plusieurs millions de visiteurs uniques par mois sur le site, ce nouveau système de référencement représente une manne potentielle pour les sites commerciaux.

La publicité, un ras le bol grandissant

Le modèle publicitaire actuel est obsolète et contraint d’évoluer. L’objectif est de Deepomatic est de donner à la publicité en ligne une forme innovante. Pour cela, l’équipe installe un iframe discret au sein des pages articles, avec la possibilité d’être redirigé vers la boutique de l’e-commerçant. Cette publicité in-content est pour l’éditeur une valeur ajoutée qui permet de rompre avec le modèle d’une publicité intrusive pour l’internaute. La publicité devient moins agressive, le but étant réellement de cibler le public. La publicité est alors contextualisée et interactive. Ce sont les internautes qui viennent chercher le service, qui décident d’interagir avec l’image et de s’engager dans une démarche commerciale.

De plus, Deepomatic propose aux e-commerçants de développer ensemble de nouveaux leviers d’acquisition de trafic grâce au shoppable content. L’univers éditorial est tout à fait capable de générer une performance significative. Dans la mesure où Deepomatic rend un service à l’internaute, les CTR sont élevés et apportent un trafic important au site d’e-commerçants. Les tests réalisés par frenchweb ont montré que du shoppable content sur une vidéo promettait des taux de clic entre 7 et 11% et entre 3 et 5% sur des photos shoppable[4].

Comment la start-up se rémunère-t-elle ?

Deepomatic se rémunère par le biais d’une commission de 5% sur le prix des articles vendus via l’outil proposé. Le modèle d’attribution choisi est le modèle du last click. Il ne s’agit pas du modèle idéal car de nombreux articles peuvent sortir de leur champ d’attribution. Le modèle d’attribution de Deepomatic serait donc à repenser, mais un obstacle de taille est venu semer le doute dans la traçabilité des internautes. Le 11 janvier dernier, la Commission européenne a dévoilé son projet de révision de la directive de 2002 sur la « e-privacy »[5]. Bruxelles prévoit que les cookies tiers (ceux qui ne servent pas au fonctionnement direct du service, mais qui permettent de connaître les habitudes des internautes) devraient être bloqués par défaut et que leur activation dépendrait de l’utilisateur. Cette mesure fait trembler l’industrie publicitaire. Le but est louable : renforcer la sécurité des données personnelles, mais il met en péril le système publicitaire. Il serait alors impossible pour Deepomatic de tracer les achats effectués grâce à l’algorithme…

Une vocation à devenir le véritable « Shazam » de la mode ?

Dans un futur plus ou moins proche, Deepomatic a pour ambition de mettre à disposition cette technologie innovante entre les mains du consommateur. L’équipe fait le pari qu’il y aura de plus en plus de recherches par voix ou par image, comme le démontre à l’heure actuelle l’essor des assistants vocaux, tels que Siri, Google Voice ou encore Amazon Echo.

Technologie prometteuse avec un système d’utilisation très simple. Via une application Deepomatic, chaque utilisateur pourra photographier un vêtement dans la rue, sur une affiche, voire sur une personne et retrouver d’un clic, grâce à l’algorithme, la pièce recherchée ou encore des articles semblables sur tous les sites de e-commerce. Le bonheur à portée d’un clic ? En effet, quelle femme n’a jamais rêvé d’avoir la même robe que son ennemi sans avoir à lui demander où elle l’a trouvée ?

Alice Petit

[1] ACPM, One Global, 2016 V4

[2] http://newspaper.fevad.com/wp-content/uploads/2016/09/Plaquette-Chiffres-2016_Fevad_205x292_format-final_bd.pdf).

[3] Baromètre sur les Adblocks sur le marché français, vague 2, novembre 2916 http://www.iabfrance.com/content/etude-sur-les-adblocks-presentation-de-la-v2.)

[4] http://www.frenchweb.fr/5-enseignements-a-tirer-du-shoppable-content/268479

[5] http://www.lefigaro.fr/medias/2017/01/05/20004-20170105ARTFIG00300-en-menacant-les-cookies-bruxelles-inquiete-l-industrie-publicitaire.php

Comment s’opère la concurrence Google et Facebook ?

 Depuis plus d’an et demi, Facebook a accéléré le nombre de produits mis à la dispositions de ses utilisateurs gratuitement ou non de manière intense. Cette diversification des activités, n’est pas novatrice pour certaines d’entre elles. En effet beaucoup d’entre elles étaient déjà proposées par Google. Les deux géants américains s’affrontent désormais sur des terrains concrets et bien identifié.

Continuer la lecture de « Comment s’opère la concurrence Google et Facebook ? »

La Vidéo On Line, nouvelle économie de l’attention pour les annonceurs ?

Mais qu’est ce que la VOL publicitaire ?

La vidéo online publicitaire est un format vidéo que l’on inclut dans un contenu digital pour mettre en avant une publicité. Deux types de formats peuvent être observés : l’instream d’une part, cela se caractérise par une publicité se trouvant dans le flux vidéo tel que le pre-roll qui se met en marche en amont des vidéos. L’outstream d’autre part qui affiche une vidéo sur une page web au milieu d’articles comme l’inRead.

La Vidéo on line, le format web incontournable  

Une étude Cisco a démontré que la vidéo on line représentera 82% du trafic Internet d’ici 2020, ce qui signifie que de nouvelles offres publicitaires ne cessent de s’insérer dans les contenus en ligne. Nous pouvons alors parler d’une nouvelle mine d’or pour les annonceurs qui peuvent ainsi placer leurs publicités dans ces vidéos. Ainsi, ils pourront obtenir de meilleurs rendements que la publicité traditionnelle en ligne qui engrange rarement de bons retours sur investissements. C’est par la vidéo on line que les annonceurs espèrent notamment attirer l’attention des consommateurs.

La VOL publicitaire est en plein essor et cela provient en partie des médias sociaux. En effet, les publicités vidéo sur les réseaux sociaux ont vu leur croissance exploser en 2016  avec +351%  d’évolution. Les annonceurs misent donc énormément sur les réseaux sociaux tels que Facebook et ses vidéos autoplay, Youtube se positionnant comme la nouvelle télévision ou Snapchat et ses vidéos verticales.

Le fait est que la publicité numérique a détrôné la publicité TV depuis 2016. Dès lors, le numérique est devenu le premier media récepteur d’investissement avec une part de marché de 29,6% alors que la télévision n’en représente désormais que 28,1%. « La télévision de papa » n’est plus la seule en course sur les contenus visuels.

Une étude récente de Google montre même que la vidéo online gagne du terrain en termes d’impact et d’efficacité des formats publicitaires.Cette avancée des médias numériques se témoigne notamment par le fait que 58% des internautes français ont l’habitude de regarder des vidéos en ligne au moins une fois par semaine.

Il est donc clair que l’impact de la VOL est significatif et un nouvel enjeu à saisir pour les annonceurs. Cependant le marché publicitaire doit encore se développer et utiliser à bon escient ces nouvelles opportunités.

Une automatisation de la VOL grâce au programmatique

La vidéo en ligne s’est ouverte aux achats programmatiques sur divers devices,  tels les  ordinateurs, tablettes et mobiles, qui sont en train de bouleverser le marché de la VOL.

En 2017, le programmatique ne sera pas uniquement utilisé pour les achats d’espaces vidéo mais également pour automatiser la création et optimiser les annonces. Des milliers de variations d’annonces vidéo seront générées et permettrons aux marketeurs de mener des campagnes particulièrement ciblées et personnalisées.

Criteo a fait une étude prévisionnelle sur l’évolution du secteur du e-commerce et sur la façon dont les annonceurs doivent s’y préparer. Avec des prévisions partagées, les résultats sont plus qu’encourageant pour l’e-commerce en France : +14,6%  de croissance sur le marché en ligne ; même si le panier moyen a diminué de 5 euros pur atteindre les 70 euros. Néanmoins, la VOL n’est pas encore à la pointe du programmatique. La data et le retargeting vidéo semblent encore rares.

Il est nécessaire d’adapter son contenu publicitaire à la VOL  

Il semble évident que la vidéo doit s’imposer pour les annonceurs, qui doivent désormais adapter leurs messages publicitaires à ce contexte particulier de la commercialisation programmatique. Même si le marché semble favorable,  le format de la VOL est bien trop proche de celui de la télévision. En effet, les annonceurs aimeraient pouvoir décliner leurs publicités sur télévision, ordinateur et mobile. Or, ils doivent comprendre aujourd’hui que chaque média doit adapter son contenu publicitaire dont la VOL.

Il faut repenser la vidéo par le format : en vidéo verticale ou horizontale, la durée jusqu’à 30 secondes et la forme d’intégration en pré-roll ou mid-roll. Snapchat l’a bien compris avec son format de vidéo verticale sur mobile. Ce qui importe est l’expérience utilisateur, il faut créer de l’interactivité, peu importe que le consommateur soit sur sa tablette ou son ordinateur.

Le digital permet justement d’apporter cette interactivité à la vidéo et d’inciter le consommateur à visionner le contenu pour ensuite cliquer sur le lien vers le site web afin d’éventuellement finir par une vente en ligne. La clé reste la même pour tous les médias : la qualité du contenu visuel est ce qui permettra d’attirer l’attention des consommateurs.

Quelle croissance pour la publicité VOL ?

La vidéo en ligne n’en est qu’à ses débuts et les opportunités offertes par le digital ne sont pas encore totalement exploitées par la publicité. Désormais le marché de la VOL n’a plus qu’à se développer et adapter les messages publicitaires ainsi que leurs contenus, particulièrement depuis l’arrivée du programmatique qui continue de s’accroître.

L’enjeu n’est donc plus réellement technologique, mais aussi pédagogique pour les annonceurs qui doivent encore une fois investir dans une nouvelle forme de contenu digital.

 

Laetitia Rey

Les mutations du livre numérique

Dans un contexte de redressement du marché global du livre, le e-book est loin de s’imposer comme le format dominant au détriment du livre physique, comme cela a été le cas pour la vidéo, la musique ou le jeu vidéo. Tour d’horizon.

Un livre numérique est un livre édité et diffusé en version numérique, disponible sous forme de fichier, qui peut être téléchargé et stocké pour être lu soit sur un écran tel que celui d’un ordinateur personnel, d’une liseuse ou d’une tablette tactile, soit sur une plage braille, soit sur un dispositif de lecture de livres audio. Il peut également être lu en ligne. Il est à noter que les ventes de bandes-dessinées et de mangas sont incluses dans le total des ventes de l’édition en France. Ainsi, le plus gros succès littéraire de l’année 2015 a été la dernière BD de Astérix.

Selon une étude de Xerfi, le marché du livre français a progressé de 1,8% en valeur en 2015, rompant avec 5 années consécutives de baisse. Plus intéressant, les ventes d’ouvrages imprimés ont progressé de 0,7% sur les cinq premiers mois de l’année 2016 : le physique semble donc loin d’avoir dit son dernier mot.

Ainsi, on est loin du raz-de-marée attendu pour les e-Book. C’est d’ailleurs une des différences principales entre les marchés américains et français : un taux de pénétration très différent du livre numérique comme le montre ce graphique du Syndicat national de l’édition. Le livre numérique est bien plus démocratisé aux Etats-Unis qu’en France : 24% vs 6,5% de PDM / CA total livres en 2015. Selon Xerfi, ce tauxde PDM donne une valeur de seulement 280 millions d’euros pour un marché global de presque 2,7 milliards d’euros.

Pourtant, la situation du e-book aux Etats-Unis n’est pas non plus paradisiaque. Sur les 6 premiers mois de l’année 2015, les ventes d’E-Books ont ainsi diminué de 10,4% outre-Atlantique. Dans le même temps, le patron de la grande chaînes de librairies Waterstones au Royaume-Uni annonçait retirer les Kindle de ses rayons pour cause de ventes trop faibles. En France, les ventes de liseuses, support le plus confortable pour la lecture numérique, continuent de plafonner à 350 000 par an selon GFK.

Loin d’être parfaitement objectifs, nous pouvons tout de même avancer ces quelques facteurs afin d’expliquer le trou d’air vécu par le e-book :

  • Le faible catalogue des bibliothèques numériques (surtout en français)
  • Des prix jugés trop élevés par les clients
  • Un attachement non négligeable au support papier
  • Un confort de lecture supérieur sur papier

Si la progression du livre numérique n’est pas effrénée en termes de ventes, elle reste néanmoins soutenue au moins dans les usages : 19% des français affirment avoir lu au moins un e-Book sur les 12 derniers mois en progression de 3 points et les éditeurs poussent vers un élargissement de l’offre numérique comme l’a montré Madrigall en rendant disponible ses bandes-dessinées. Xerfi pronostique ainsi une PDM de 10% pour l’année 2017.

Aux Etats-Unis, le manque de dynamisme du livre numérique tient également d’une autre explication : la nouvelle augmentation de son prix par ce qu’on appelle les BIG 5, c’est à dire les 5 plus grands éditeurs américains, alors que le prix des livres physiques restait stable. La part des ventes de livres numérique a donc logement diminué, sauf pour les indépendants et les petits éditeurs auxquels le livre numérique permet une meilleure visibilité.

 

En 2015, ce sont ainsi 204 millions de livres numériques qui se sont écoulés contre 653 millions de livres papier. Leur part de marché est tombé à 24% comme nous l’avons vu, alors qu’elle se situait à 28% en 2013. Certains genres connaissent un succès plus grand en numérique comme les polars (51% en numérique). Concernant les appareils utilisés, le smartphone est le seul à tirer son épingle du jeu, et tous les autres appareils sont moins utilisés pour la lecture numérique qu’auparavant, même si les liseuses continuent à dominer le marché aux Etats-Unis en offrant un plus grand confort pour la lecture numérique. De même, on note que l’ordinateur est un support peu adapté à la lecture numérique.

De nouvelles offres vers la consommation illimitée

L’abonnement Kindle a une promesse forte : accéder à plus d’un million de titres, dont 25 000 en français, à partir de 9,99€ par mois, sur tous les appareils. On trouve aussi des services français comme Youboox qui propose le même type de service ou Izneo qui est spécialisé dans la bande-dessinée et les mangas. Ces trois acteurs vendent des abonnements à 9,99 euros à leurs clients, ce qui permet d’accéder à un catalogue de titres plus ou moins fourni.

Leur inspiration vient évidemment des autres industries culturelles comme le cinéma (Netflix) ou la musique (Spotify) pour lesquelles ce business model a fonctionné à merveille. La distribution des contenus, leurs formats et leurs modes de consommation plongent le consommateur dans l’abondance. Il se retrouve face à un “hyperchoix”, désormais libre de lire / regarder où, quand et comme il veut une offre pléthorique de contenu.

L’arrivée de ces services sur les marchés de l’édition littéraire va-t-elle modifié les usages, les équilibres et les chaînes de valeur et déstabiliser ce marché comme elle l’a fait pour la distribution physique ? Va-t-elle enfin faire exploser le livre numérique ? Mais, le marché du livre a de nombreuses spécificités qui complexifient la mise en place de ces business models.

Le prix unique du livre numérique en garde-fou

La nouvelle législation de 2011 est une transposition de la législation en vigueur pour le livre physique (loi Lang de 1981). L’éditeur fixe un prix pour le livre numérique qui doit être respecté par les revendeurs, qu’ils opèrent depuis la France ou l’étranger afin de protéger les créations françaises. Les éditeurs sont donc tenus de fixer un prix de vente public qui peut différer en fonction du contenu de l’offre, de ses modalités d’accès ou d’usage (abonnement en streaming par exemple).

Un conflit a logiquement éclaté avec les plateformes comme Kindle Unlimited qui proposaient des abonnements illimités allant à l’encontre de cette législation sur le prix unique du livre numérique. La médiatrice du livre Laurence Engel a jugé cette offre contraire à la législation française du prix unique du livre, car les éditeurs ne peuvent plus fixer le prix de leurs produits dans ce modèle.

Le nom a tout d’abord été modifié pour “Abonnement Kindle”, car les abonnés payent désormais pour des crédits de consultation prenant place dans une sorte de cagnotte. Chaque éditeur et auteur indépendant doit fixer un prix de consultation à la page, qui est déduit de la cagnotte de l’abonné. Hélène Mérillon, la fondatrice de Youboox, résume bien le mécanisme :

« Les prix à la page définis par les éditeurs sont affichés dans l’application. Chaque page lue est comptabilisée pour venir abonder un compte commun dont l’équilibre est surveillé par Youboox, conformément aux dispositions validées par la médiatrice »

Le système a beau être transparent, c’est un vrai casse-tête pour les abonnés, loin de la simplicité que l’on peut par exemple trouver dans la musique. Difficile dans ce cadre d’imaginer une fulgurante augmentation de la part de marché du livre numérique en France grâce à ces nouvelles offres. L’apport réel du e-book est peut-être à chercher ailleurs…

Le livre numérique facilite l’autoédition

Avec sa plateforme d’auto-édition, Amazon permet à tout auteur, auto-édité ou non, de télécharger soi-même, simplement et gratuitement ses ebooks et de les mettre en vente sur la boutique Kindle. Les ouvrages sont ainsi accessibles non seulement aux possesseurs de la liseuse Kindle, mais également à tout un chacun via les applications Kindle pour ordinateur, smartphone et tablette. Occupant une place de premier plan sur ce marché, Amazon s’est lancé dans l’autoédition pour augmenter l’offre de livres numériques disponibles sur sa plateforme de vente et alimenter ses terminaux de lecture en contenus bon marché.

À l’heure actuelle, 55 000 titres français autoédités seraient ainsi disponibles dans le Kindle Store. Face à des maisons d’édition classiques qui refusent énormément de manuscrits et/ ou qui payent souvent la majorité des auteurs au lance-pierre, le géant américain a permis à des écrivains d’être publiés gratuitement. Mais de là à se transformer en machine à fabriquer des best-sellers?

Il est vrai que certains projets refusés par des éditeurs méritent d’être publiés et que l’édition numérique permet de réparer cette injustice culturelle à moindre frais car le numérique casse la coûteuse barrière de la distribution. Fini la tournée des salons du livre pour espérer vendre quelques exemplaires : Amazon.fr, c’est 17 millions de visiteurs uniques par mois et autant de lecteurs potentiels. Le self-publishing représente ainsi 12% des ventes d’ebooks aux Etats-Unis en 2015 contre 8% en 2014 selon une étude du cabinet Nielsen.

Publier est une chose, mais assurer la visibilité de son livre parmi l’offre pléthorique que favorise ce système en est une autre. La suppression des intermédiaires entre l’auteur et le lecteur implique non seulement que l’auteur se démène sur les réseaux sociaux pour promouvoir son livre mais aussi que le livre se fasse remarquer avec des bons scores et des commentaires élogieux des utilisateurs du site. Le pouvoir bascule des éditeurs traditionnels qui opèrent habituellement cette sélection vers les lecteurs qui plébiscitent les contenus qu’ils aiment.  Cela implique donc que l’auteur devienne sa propre marque conduisant un travail de marketing de soi et de construction de sa réputation s’il souhaite conquérir un lectorat.

De plus, avec l’absence de filtre éditorial et l’abaissement de barrières l’entrée, l’accès au marché s’en est trouvé facilité, ce qui a entraîné l’inflation de la production qui s’accompagne d’une concurrence accrue.  Il est d’autant plus difficile de se distinguer dans cette nouvelle économie de l’attention dans laquelle l’offre est abondante mais les ressources disponibles (temps, argent) pour la consommer nettement plus réduite.

On le voit bien, le livre numérique ne s’est pas encore imposé comme un format de référence, mais il ouvre le champ des possibles pour cette industrie avec des offres faisant la promotion d’une consommation illimitée et la montée en puissance de l’autoédition.

Jean charles thebaud

L’innovation technologique au service du social media et des marques  

Depuis  quelques  années  déjà,  les  innovations  technologiques  dédies  aux  réseaux  sociaux  ne   cessent  d’émerger  et  apportent  avec  elles  de nouvelles  problématiques  de  branding  et  de   contenus.  Bien  que  le  ROI  ne  soit  pas  encore  présent  de  dans  l’utilisation  des  réseaux  sociaux, surtout  sur  Instagram  ou  il  est  très  compliqué  de  «  tracker  »  les  utilisateurs,  les  marques   arrivent  à  se  distinguer  notamment  via l’exploitation  des  formats  innovants.  Ces  formats  sont   utilisés  par  les  marques  dans  leur  démarche  de  transparence  le  plus  souvent.  Par exemple,   beaucoup  misent  sur  l’avenir  et  les  vidéos  à  360°  sur  Facebook. Egalement,  le  live  est  au  cœur   des  pratiques  aujourd’hui.

Il  y  a  une  semaine,  Instagram  lançait  son  option  de  LIVE.  Après  Twitter,  YouTube  et  Facebook,   c’est  au  tour  d’Instagram  de  se  mettre  à jour  avec  une  fonctionnalité  majeure.  Plus  qu’un   besoin  technique,  cette  évolution  technologique  est  les  symbole  d’une  besoins  constant  d’instantanéité.  C’est  le  pari  qu’avait  réussi  Snapchat,  et  c’est  au  tout  de  petit  frère  de   Facebook  de  s’y  mettre. Avec  ces  formats  et  ces contenus  originaux,  nous  sommes  typiquement  au  cœur  de  ce  que   recherchent  les  marques  et  les  entreprise  dans  le  cadre  de  leur communication.  Via  des   stratégie  de  branding  et  d’awareness,  les  marques  manipulent  et  s’adaptent  aux  supports  que   la  technologie  leur propose.  Le  but  ultime  que  ces  marques  cherchent  à  atteindre  pour  la   plupart  d’entre  elles  est  de  toucher  les  millennials,  cette  tranche  de  la  population  très  sensible   aux  nouvelles  technologies  et  au  social  media.

Effectivement,  une  marque  a  la  volonté  d’être  une  marque  active,  à  jour  sur  ce  qu’il  se  fait  en   termes  de  contenus  et  d’innovation.  De  plus,  de  développement  récent  de  la  réalité  virtuelle   laisse   beaucoup   de  sociétés   rêveuses   quant   aux  possibles  utilisations  à  des  fins   de   communication  sur  les  réseaux  sociaux.  Pourquoi  mettre  à  profit  cette  innovation  ?  Pour   rester  connecté  à  ce  qui  se  fait  de  mieux  et  terme  de  format  et  de  proposer  une  expérience   de  marque  inédite  reflétant  les  valeurs  la  marque.       L’atout  numéro  un  des  réseaux  sociaux  pour  une  marque  est  la  vidéo.  Oui,  malgré  la  baisse   significative  du  reach  global  et  de  l’engagement  sur  Facebook,  la  vidéo  est  le  format  qui   engage  le  plus  et  qui  permet  une  portée  clairement  supérieure  aux  statuts  liens  ou  photos  .   Sur  Facebook,  sur  Instagram  et  de  plus  en  plus  sur  Twitter,  la  vidéo  rythme  les  fils  d’actualité   et  s’impose  de  façon  palpable.  Au  format  360  ou  live,  la  vidéo  est  déjà  le  fer  de  lance  des   marques.

Bien  que  85%  des  vidéos  soient  visionnées  sans  le  son,  elles  restent  un  levier   prédominant  dans  la  rechercher  de  visibilité  et  de  viralité  d’un  contenu  ou  d’un  message  pour   une  entreprise.  Cette  dernière  l’utilise  déjà  assez  souvent  d’ailleurs.       Snapchat  est  également  de  la  partie  avec  ses  Stories  et  ses  pages  dédiées  sur  lesquelles  on   peut  trouver  Le  Monde,  Melty,  Konbini  ou  encore  L’équipe.  Cela  bouleverse  totalement  la   manière  dont  une  marque,  qu’elle  soit  média  ou  non,  imagine,  fabrique  et  pousse  son   contenu.  C’est  un  nouveau  paradigme  que  nous  voyons  actuellement  notamment  via  la  forme   mais  aussi  le  fond  d’un  contenu.  Qu’il  soit  informationnel  ou  communicationnel  un  contenu   va  prendre  de  la  valeur  d’une  part  sur  sa  qualité  mais  d’autre  part  à  travers  son  support.

Le contenu  et  la  manière  dont  il  est  mis  en  avant  sont  des  enjeux  majeurs  pour  les  marques   actuellement.  Egalement,  la  data  permet  des analyses  plus  précises  et  permet  une  logistique   dans  le  déploiement  des  contenus.       Ce  qui  doit  retenir  l’attention  des  marques  sur  leur communication  en  ligne  c’est  créer  un   contenu  qui  provoque  une  réaction  chez  l’internaute,  qui  lui  fait  naitre  une  émotion.  Et  cela   devra se traduire  par  de  l’engagement  et  une  activité  sur  la  page  de  la  marque  ou  ses  comptes   en  ligne.  Prenons  l’exemple  de  la  réalité  virtuelle qui  est  très  éloquent.  A  travers  elle,  les  user   vont  pouvoir  vivre  une  expérience  unique  et  singulière.  Oui  plusieurs  marques  ont  déjà  testé ce  format  avec  la  vidéo  260  sur  Facebook.  Je  pense  notamment  à  J&B,  le  Washington  Post  ou   encore   Milka.   Ces  trois  acteurs  très différents   ont  tous  pris  conscience  de  l’évolution   technologique  qui  a  lieu  actuellement  et  qui  se  met  en  place  sur  les  réseaux  sociaux.  On voit   bien  qu’ils  proposent  des  expériences  qui  vont  se  distinguer  et  qui  donneront  envie  de   consommer  cette  marque,  de  s’engager  avec elle.

Retenons  alors  que  l’innovation  technologique   permet  aux  marques   de  repenser  leur   communication  et  surtout,  leur  stratégie  de contenu  que  ce  soit  dans  sa  création  on  sa   diffusion.

 

Valentin Richardot

La magie de yuzzit ou la mémoire augmentée

Accompagnée de Sud de France Développement,  la start-up vient d’être récompensées au Consumer Electronic Show (CES) de Las Vegas. Objet intelligent, connecté à une application, Yuzzit est une sorte de petit boîtier connecté et intelligent.

Yuzzit enregistre pour vous des lieux géolocalisés, vous invite à enregistrer vos pensées et retrouve en fin de journée tout ce que vous avez aimé lors de votre journée sur un fil personnalisé.

Vous n’oublierez plus rien : ni l’emplacement de votre voiture, ni la petite robe noire repérée dans une boutique, ni le restaurant au coin de la rue. Yuzzit vous promet de se souvenir de tout ce que vous voudrez.

Pour cela, le wearable est doté d’un micro intégré et intelligent qui permet d’enregistrer des notes vocales.

Shazamer, tagger sa vie.

L’idée née dans les années 2000. Le fondateur, Frédéric Bruel, souhaite identifier tout ce qu’il voit, entend, rencontre.

Cela germe dans son esprit. Shazam est lancé en 2002 comme service téléphonique et débarque en 2014 sur l’Apple Store : le succès est enclenché. Je shazame, tu shazames… Mais, il (Frédéric Bruel), veut « shazamer » plus que de la musique. L’idée de Yuzzit est née. Lancée en 2016, elle se fait vite remarquer. L’application et son wearable reconnaîtront plus vite que la musique.

La fin du post it.

La startup Yuzzitit entend tagger notre vie. Plus que de se remémorer de manière digitale tous les moments de notre journée, Yuzzit est un outil pour notre to do list comme pour nos achats… Il yuzzit, nous yuzzitons, vous yuzzitez ?

Le wearable est un boîtier doté d’une technologie de « clipping ». Un clic, le boîtier enregistre le lieu, la musique ou la voix, via une technologie « speech to text », qui facilite le bookmark.

Deux clics, Yuzzit enregistre une action personnalisée, comme l’enregistrement d’un programme. Le wearable est bien une prolongation de soi. La transformation numérique permet par le tactile ou la voix d’être toujours plus proche du corps.

Les technophobes vont diront que cela simplifie l’accès aux fonctionnalités, les automobilistes éviteront une amende quand les technophiles prescripteurs vous diront que Siri suffit et fonctionne très bien.

La reconnaissance vocale, c’est la tendance du CES 2017 : Siri, mais aussi Alexa, Amazon Echo… Yuzzit développe toutes ses technologies en interne. Dix personnes s’y activent.

Petite révolution ou gadget ?

L’internet des objets avec la miniaturisation des processeurs permet d’intégrer des technologies très puissantes dans un porte-clef qui récolte une myriade de données.

Comme toute startup dont le cœur d’activité repose sur la data, Yuzzit a dû intégrer un paramètre essentiel dans son business model : la protection des données.

Pour nous rassurer, l’aspect confidentialité est pris en compte dès la création. C’est ce qu’on appelle la « privacy by design ».

En effet, l’actualité juridique se révèle riche dans ce domaine avec l’entrée en vigueur du règlement européen en 2018. Cette privacy deviendra une condition sine quanon.

Sécurisé, Yuzzit devient votre alter ego, notre journal intime 4.0 ; le mécanisme n’est qu’en second lieu celui du partage sur les réseaux sociaux.

Yuzzit se propose comme une Killer App en intégrant Bluetooth low energy, géolocalisation, API (Facebook ou Google Maps) ainsi qu’un cloud de reconnaissance audio universelle.

Trop d’applications, une application

78% des applications téléchargées sont utilisées moins d’une fois avant d’être définitivement supprimée. Plus besoin de se souvenir où l’application, ni même le wearable est caché… bippez à distance votre yuzzit.

L’utilisation de ce pense-bête 2.0 est très intuitive. Doté également d’un d’un système de reconnaissance vocale, le wearable peut reconnaître la voix de son utilisateur mais également une émission à la radio ou encore à la télévision. De quoi donner des idées aux annonceurs tv ?

Yuzzit avec sa logique servicielle fonctionne sur une co-création de données avec ses utilisateurs. C’est une boîte de technologie, où le consommateur est une ressource (« customeras a resource ») et le produit une commodité.

Un marketing 4.0

Pour se différencier, du côté B2C, Yuzzit devra proposer une promesse limpide et des fonctionnalités essentielles attendues par les consommateurs. A priori, peut-être un Yuzz, tout détenteur de smartphone. Le développement d’une réelle masse critique, d’une communauté permettrait de faire exister cette cet outil pour capter l’attention de chaque utilisateur.

Le « tag » devient la nouvelle technologie marketing. Mais parallèlement, 90% des ventes se font encore, en France, en physique : quoi de mieux que de se rappeler où aller acheter l’objet de sa convoitise.

Des perspectives d’évolution

1/La segmentation B2B2C pour atteindre une masse critique d’utilisateurs via des acteurs prescripteurs

Pour atteindre une masse critique, les concessionnaires automobiles seront des partenaires clefs.

En voiture, chacun se transporte d’un point à l’autre sans avoir forcément accès à son smartphone : Yuzz.it prend alors tout son sens. Logiquement, c’est un service que le concessionnaire pourrait offrir à son client lors de l’achat d’une voiture. Le wearable Yuzz.it serait alors remis avec le porte-clef de la voiture. Le concessionnaire pourrait, par ailleurs, nouer des partenariats avec des assurances de voitures telles que Axa dans l’offre du Yuzz.it. Ainsi, ce porte-clef malin éviterait bien des accidents au volant.

Dans un premier temps, l’objet du porte clef avec l’appareil Yuzz.it serait conservé avant la mise en place de la « car-as-a-platform ». Dans un futur proche, certains constructeurs pourraient proposer directement dans le dashboard de leur voiture, des fonctionnalités et des services à leurs clients. Alors, la licence seule pourrait être proposée au sein de cette automobile du futur.

Au sein d’une API, qui appelle des fonctions de données, il convient de multiplier les partenariats afin de proposer et d’assembler un maximum de services. En effet, face à des géants du web, une solution de reconnaissance vocale et de clipping ne suffisent pas. Aussi, c’est une source supplémentaire de revenus pour les différents clients de yuzz it. Dans le modèle B2B2C, le client final a une expérience client optimisée permise par une récolte de données en opt in du B2B.

Carrefour, pourrait proposer le device Yuzz It aussi à ses clients afin qu’ils se souviennent des produits qu’ils souhaitent mettre sur leur liste de course ou pour récolter des données sur leurs clients. Plus en avant encore, Carrefour pourrait faire payer le device du Yuzz à d’autres fins utiles. Le B2B2C prend ici un autre sens. Carrefour vend son objet mais n’utilise pas en retour les données de l’utilisateur. Cet outil permettrait aux clients de chez Carrefour de (re)commander un produit (comme le dash button pour Amazon) ou à recevoir des push pour des offres pour lesquelles les clients auraient choisi de souscrire. Ce sont des business model totalement différents. Mais Yuzzit, comme nous l’avons dit, peut être un outil de base, un device comme une licence, que les entreprises se réapproprient selon leurs besoins.

Selon le client, il y a donc plusieurs possibilités de “revenue model” :

• Facturation de l’objet : la marque qui commande des boîtiers à Yuzzit facture une somme moins importante que le prix de vente affiché dans les commerces (49€) et réalise du co- branding.

• Facturation de la privacy : Carrefour vend le boîtier yuzzit mais c’est le client qui est au commande de l’objet connecté pour en faire ce qu’il souhaite. Carrefour concurrence ainsi Amazon.

• Objet gratuit versus data : la marque offre l’objet et en récupère la data, un concessionnaire ou le salon de l’automobile auront tendance à choisir ce modèle.

 

2/Le géomarketing, un évolution clivante

Le géomarketing est une fonctionnalité à double tranchant. Tout d’abord, il faut avoir atteint une masse critique pour espérer pouvoir revendre les données de ciblage de manière intéressante pour des partenaires. C’est pourquoi, le géomarketing ne peut être permis qu’à partir d’un certain seuil d’utilisateurs pouvant intéresser des annonceurs ou des partenaires.

Aussi, la deuxième barrière de cette recommandation, vient du opt in. Le yuzz doit avoir accepté de recevoir des offres contextualisées.

En push, Yuzz It pourrait suggérer tant des publicités, que des offres promotionnelles ou des sorties. Pour ce faire, il faut penser un contenu intéressant pour le client en s’associant à des partenaires.

Si cela est bien fait, avec un contenu créatif, voire du gaming, des publicités pensées avec du DCO (Dynamic Creative Optimization) voire personnalisées en fonction des personnes avec un message et un habillage ingénieux, cela peut être gagnant, alors les utilisateurs n’iront pas vers le opt out. Au contraire, avec une publicité ou des push trop intrusifs, l’utilisateur de yuzz pourrait considérer que sa data sert plus les intérêts des annonceurs ou des partenaires que le sien ; alors la mise en œuvre pourra faire échouer cette fonctionnalité.

Enfin, pour les restaurants, le revenu sharing de ce produit est plus complexe. Le restaurant n’aurait aucun intérêt à donner ou vendre l’objet yuzzit tel quel. Aussi, dans un premier temps, yuzz it pourrait être un apporteur d’affaire pour les restaurants. Comme Mapstr, yuzz permet de se souvenir des restaurants où l’on veut aller. Mais si yuzz it convertit une envie en une réservation dans le restaurant, un système de commission pourrait être envisagé. Ainsi, dans un premier temps, Yuzzit doit déjà proposer une API ouverte à des partenaires hôteliers ou de la restauration pour avoir un maximum d’endroits répertoriés. Bien que l’API de Google Maps soit quasiment suffisante, il ne faut pas que Yuzzit soit trop dépendant des données de Google Maps.

D’un point de vue plus stratégique, Yuzzit aurait intérêt à développer les meilleures fonctionnalités de Shazam, de Dash Button d’Amazon, de Mapstr, de Evernote ou encore de Wistiki dès sa version de lancement afin de devenir une killer app.

 

Alix de Goldschmidt
Quitter la version mobile