Dans la boite noire de TikTok

Qui aurait cru après l’échec de l’application Vine qu’une application de doublage musical puis de montage et de partage de courtes vidéos d’origine Chinoise dépasse les mastodontes Facebook et Instagram sur le marché de plus en plus en concurrentiel de l’attention (1) ?

C’est pourtant ce qui est arrivé en 2020, en effet selon les chiffres d’Airnow data qui analysent le nombre de téléchargements de l’application dans le monde en 2020 de mars à août c’est bien TikTok qui arrive loin devant Facebook ou Instagram (presque 80 millions de téléchargements en mars pour TikTok contre un peu moins de 40 millions pour Instagram). TikTok a même depuis 2021 surpassés le nombre de visites Google (2)… Comment expliquer cet engouement frisant l’addiction planétaire ?

Retour sur une ascension fulgurante

Pour comprendre comment une telle croissance est possible, il faut tout d’abord revenir en 2016, à la création de Douyin par l’entreprise ByteDance. Douyin est la « grande sœur de TikTok », les deux ont exactement le même fonctionnement c’est-à-dire une plateforme de distribution et de production de vidéos allant de 3 à 180 secondes, mais la première est hébergée sur un serveur Chinois et s’adresse à un public domestique tandis que la seconde est créée pour le marché international (3).

Les deux applications rencontrent très rapidement un fort succès et le rachat en 2018 par ByteDance (4) de l’application concurrente Musica.ly ne fait que renforcer la popularité de l’application. Si la musique est une donnée du succès à part entière de l’application prisée par les générations les plus jeunes (5) La réponse au secret de cette popularité se trouve également dans le business model, la raison d’être même de Bytedance : l’utilisation de l’intelligence artificielle et toutes ses déclinaisons pour distribuer et créer de l’interaction avec de l’information et du contenu (6). Mais qu’est-ce qui fait la spécificité de TikTok par rapport à ses concurrents ? La réponse se trouve en grande partie dans le taux d’engagement que suscite l’application, si l’on se trouve dans un tournant très favorable à l’user generated content (Jensen,2007) (7) ces derniers sont impressionnants pour une plateforme aussi jeune.

TikTok domine non seulement en matière d’utilisateur actif, mais également en rétention de ceux-ci avec une moyenne de longueur de visites de 52 minutes par jour et par utilisateur. Si TikTok arrive à maintenir un taux d’engagement aussi c’est grâce à sa capacité de recommandation et de curation de contenu personnalisé. C’est ce fonctionnement qui a mis au cœur des différents succès ou controverses de l’application la question de son algorithme et des interrogations qu’il soulève, puisque c’est ce dernier qui est l’architecte de ce nouvel écosystème.

Mathématiques d’un succès

Que se cache-t-il derrière cet algorithme vu par certains comme une poule aux œufs d’or et par d’autres comme un dangereux outil ?

Il est difficile de répondre à cette question que beaucoup se sont posés, et d’autres facteurs comme le design de l’application rendant l’user expérience agréable peuvent être avancés (8). Une autre explication peut être le format et la durée des vidéos, TikTok privilégie les vidéos de quelques secondes, cela permet de naviguer facilement entre des centaines voire des milliers de vidéos de quelques secondes dans un contexte où l’attention moyenne de l’être humain a chuté pour se stabiliser autour de quelques secondes (9). Dans cet environnement de forte augmentation d’absorption de l’information et de saturation de l’attention, une application basée sur de petits formats courts et percutants utilisant le système de récompense aléatoire (10) semble être une formule gagnante.

Néanmoins, c’est bien cet algorithme de recommandation, et l’idée d’un contenu unique personnalisé pour l’utilisateur et retranscrit dans la page d’accueil « For you page » qui dope l’audience de l’application. En effet, TikTok prends l’idée de la recommandation à rebours, là où « l’explore page » est secondaire sur Instagram, la « For you page » qui mêle abonnements, mais surtout contenu poussé par l’analyse des habitudes de visionnage (likes, temps de visionnage, interactions avec hashtags…) est au cœur de l’application. Ici la recommandation est au cœur de l’application, elle en est son essence même. Beaucoup d’hypothèses ont été faites sur les spécificités de l’algorithme, c’est pourquoi en septembre 2020 l’application a précisé quelques informations sur le fonctionnement de l’algorithme afin de dissiper certaines rumeurs.

En effet, c’est à cette période que l’entreprise lance son premier « transparency center » à Los Angeles en pleine tourmente et questionnement sur l’ingérence de la Chine aux États-Unis (obligation de se faire racheter par une entreprise américaine, ce qui est toujours en suspens) (11), mais aussi des inquiétudes quant aux traitements des données recueillies par l’application (12). On apprend donc de cette ouverture de TikTok à la presse américaine que :

  • L’algorithme utilise l’apprentissage automatique pour déterminer le contenu susceptible de plaire à l’utilisateur en proposant de nouvelles vidéos basées sur l’engagement de personnes aux profils similaires.
  • Il utilise également les informations de la vidéo (sons, tags, légendes) ainsi que celles de l’appareil qu’il utilise.

Grâce à toutes ces données, l’application peut « cartographier » les thèmes assignés à l’utilisateur et les agréger en clusters. Ainsi il va recommander des vidéos en fonctions de ces clusters, mais aussi de l’affilier à des groupes d’utilisateurs similaires tout en évitant d’envoyer un contenu redondant, on ne tombe quasiment jamais deux fois sur la même vidéo. Mais cette capacité à cerner les intérêts des utilisateurs est comme l’avaient craint certains critiques, problématique. En effet, l’entreprise elle-même admet qu’un effet de « bulle de filtrage » peut arriver en poussant les utilisateurs dans des biais ou des limitations de contenus, ce qui soulève des problèmes à l’aune de la multiplication des fake news. L’entreprise pour se défendre de ces dérives a fait appel à des censeurs, mais également en données et sécurités. Mais il semble que cet « effet secondaire », pendant de sa recette miracle, ait encore de beaux jours devant lui.

En effet, une enquête menée par le Wall Street Journal et publiée en juillet 2021 analysant les données produites par 100 bots lancés sur l’application avec des centres d’intérêt différents a montré comment l’algorithme par son système de recommandation multifactoriel puissant avait tendance à renforcer ou créer de biais cognitifs de façon extrêmement rapide, ce qui soulève autant de problèmes de santé publique et de protection de l’enfance que d’ingérence dans la sphère politique et démocratique. L’algorithme peut détecter rapidement à quel contenu on est sensible, celui qui va nous faire interagir sans signifier que c’est un contenu que l’on apprécie, c’est celui qui va faire rester l’utilisateur sur la plateforme. Il est donc difficile de changer ses préférences quand l’outil de recommandation a catégorisé l’utilisateur. Il n’est plus seulement question d’utilisateur qui entraine l’algorithme à reconnaître ses gouts, il est aussi question d’un algorithme qui pousse un certain contenu vers l’utilisateur (13).

RSE ou coup de communication ?

Cette problématique de renforcement négatif a été confirmée par la fuite d’un document interne début décembre 2021 portant sur l’algorithme et analysé par des journalistes du New York Times. Les critiques de l’application ont trouvé raison à leurs inquiétudes dans ce document qui montre bien que la rétention sur l’application et le temps de visionnages étaient les deux métriques principalement optimisées, pouvant favoriser « l’addiction » de l’utilisateur et non pas juste ses préférences. L’équation simplifiée suivante : « Plike X Vlike + Pcomment X Vcomment + Eplaytime X Vplaytime + Pplay X Vplay » permet également d’attribuer un score à une vidéo qui déterminera sa mise en avant. Le document explique également comment il essaye de déjouer les vidéos « like bait » et l’ennui que pourrait ressentir l’utilisateur si l’algorithme poussait trop de vidéo similaire en son sens tout en favorisant le contenu monétisé.

Ce problème a poussé TikTok à déclarer un ajustement en décembre 2021 de son algorithme pour ne pas encourager des mécanismes de « renforcement négatif » et protéger la santé mentale de ces utilisateurs ainsi que des plus jeunes par rapport à certains sujets nocifs (15). Difficile de savoir dans quelle mesure cette modification de trajectoire est possible sans brider ce fonctionnement qui fait le succès de l’application.

Mais paradoxalement, le document interne de TikTok montre la « banalité » de l’algorithme. Si le document ne rentre pas dans les détails techniques, les techniques qu’ils semblent employer ne semblent pas plus éthiquement discutables que celles déjà utilisées par des plateformes comme Facebook, il en va de même pour les inquiétudes considérant la privacy et l’utilisation des données. Ce qui semble alors poser problème relève peut-être alors plus de la souveraineté numérique que l’on ne peut le croire. En effet ce qui inquiète, c’est aussi le lien très fort avec ByteDance et Douyin qu’entretien avec TikTok et par extension le gouvernement Chinois.

Elise Kravets

Sources

  1. https://fr-statista-com-s.proxy.bu.dauphine.fr/infographie/22897/telechargements-mensuels-application-tiktok-dans-le-monde/
  2. https://ici.radio-canada.ca/nouvelle/1849557/tiktok-populaire-site-web-google-palmares-2021-cloudflare
  3. https://www.lemonde.fr/pixels/article/2018/10/05/comprendre-tik-tok-l-application-preferee-des-ados-fans-de-play-back_5365205_4408996.html
  4. https://www.reuters.com/article/us-bytedance-musically/chinas-bytedance-scrubs-musically-brand-in-favor-of-tiktok-idUSKBN1KN0BW
  5. https://numerique-investigation.org/les-adolescents-sur-tiktok-a-la-recherche-de-la-couronne/2771/
  6. http://tcci.ccf.org.cn/summit/2017/dlinfo/02.pdf
  7. http://imx.acm.org/2007/tutorials/user-generated-content2.pdf
  8. https://www.nyucommclub.com/content/2020/12/14/why-tiktok-is-addicting-its-not-the-reason-you-might-think
  9.  https://journals.physiology.org/doi/pdf/10.1152/advan.00109.2016
  10. https://numerique-investigation.org/les-adolescents-sur-tiktok-a-la-recherche-de-la-couronne/2771/
  11. https://www.axios.com/tiktok-los-angeles-china-6b4be5e0-a7ac-4a5c-a929-8538382d4bd3.html
  12. https://siecledigital.fr/2021/02/12/tiktok-oracle-suspens/
  13. https://www.wsj.com/articles/tiktok-algorithm-video-investigation-11626877477
  14.  https://www.nytimes.com/2021/12/05/business/media/tiktok-algorithm.html
  15. https://www.wsj.com/articles/tiktok-to-adjust-its-algorithm-to-avoid-negative-reinforcement-11639661801

Algorithmes prédictifs : la fin du libre arbitre ?

Akindo – Getty Images

Omniprésents dans notre quotidien, les Géants du Net semblent satisfaire tous nos besoins numériques. L’émergence d’outils technologiques et d’algorithmes toujours plus performants facilite largement nos possibilités de communiquer, de nous informer, nous divertir, et même de consommer. Mais à quel prix ?

Derrière la gratuité de ces services, se cache en effet une addition peu ordinaire : l’exploitation de nos données et de nos préférences personnelles.

Cette monétisation des données utilisateurs voit le jour au début des années 2000, lorsque Google introduit la publicité dans son nouveau modèle économique. L’idée est simple : utiliser les données de navigation pour établir des profils utilisateurs et appréhender les préférences de chacun, afin d’orienter les annonceurs vers les individus susceptibles d’être intéressés par leurs offres. Progressivement, la donnée est ainsi devenue l’or noir des Géants du numérique, et les stratégies de ciblage se sont, depuis, normalisées. Aujourd’hui, nos parcours en ligne sont constamment analysés par les mastodontes qui établissent des profils utilisateurs toujours plus précis. Entre systèmes de recommandation et algorithmes prédictifs, nous sommes en permanence confrontés à des contenus qui nous ressemblent, favorisant notre intérêt et notre dépendance.

Mais cette personnalisation ne rimerait-elle pas avec manipulation ? En effet, derrière cette volonté de satisfaire nos attentes, les Géants sont accusés d’utiliser nos données pour affirmer leur position sur le marché numérique. Mais ce n’est pas tout. Il semblerait que leur influence ne se limite plus à nos simples écrans. Au-delà du bouleversement économique et politique dont ils sont l’origine, les grands acteurs du Web orienteraient désormais nos choix et notre jugement.

Face à cette emprise, une question apparaît donc comme légitime : quel espace reste-t-il à notre libre arbitre ?  

Vers un capitalisme de surveillance ?

Pour la sociologue Shoshana Zuboff, les Big Tech ont impulsé un basculement vers une nouvelle ère capitalistique, celle de la surveillance. Dans son ouvrage « L’âge du capitalisme de surveillance », elle montre comment ce nouveau modèle repose sur quelques acteurs dominants, qui ne se contentent plus de collecter et monétiser les données utilisateurs, mais bien de les exploiter selon leurs propres intérêts. Là où le capitalisme industriel exploitait la nature pour produire des sources d’énergie, le capitalisme de surveillance utiliserait désormais la nature humaine comme source de profit. Face à ces algorithmes prédictifs qui anticipent tout ce qui est susceptible de nous plaire et de nous maintenir en ligne, la sociologue est donc inquiète pour nos libertés fondamentales.

« Leur connaissance remplace notre liberté »

Alessandra Montalto – New York Times

Comment les géants du numérique s’immiscent dans nos vies ?

D’une part, en prenant le contrôle de nos paniers. Et leur influence sur nos achats ne se limite plus au simple ciblage publicitaire. L’exemple évoqué par Shoshana est celui de Pokémon Go. Ce jeu de réalité augmentée sur téléphone, visant à chasser des Pokémons dans la rue, guidait en fait les joueurs vers des enseignes bien réelles. Pokémon chassé, client appâté. Google avait en effet passé des accords avec certains commerces, comme McDonald’s ou Starbucks, pour multiplier les Pokémons dans ces zones-là, et pousser le client à la consommation.

Mais ce n’est pas tout, l’ultra-ciblage auquel nous sommes confrontés va également introduire les Géants dans notre intimité.

Plus nous passons de temps en ligne, plus nous sommes confrontés à des publicités, et plus les revenus des grandes entreprises numériques ont une chance d’augmenter. Ces dernières vont donc tout faire pour accroître notre temps passé devant les écrans, en nous proposant uniquement les contenus susceptibles de nous intéresser. Les algorithmes prédictifs vont ainsi garantir une offre sur mesure, à partir de critères précis de notre personnalité et de notre activité numérique (contenus likés et commentés, recherches effectuées, pages consultées par exemple). Notre existence est ainsi examinée avec soin : opinion politique, centres d’intérêt, préférences, déplacements, parcours en ligne … Et bien que l’offre qui en découle puisse s’avérer conforme à nos attentes (fils d’actualité dépouillés de tous contenus qui ne nous ressemblent pas), les algorithmes prédictifs viennent finalement nous conformer. Ils brident notre curiosité et nous privent d’une certaine autonomie dans nos jugements. Notre approche de l’information est impactée, et nous voilà enfermés dans des bulles de filtres, pour reprendre le terme du militant Eli Pariser.

Rose Wong

Sur les réseaux sociaux particulièrement, nous voyons ainsi défiler des contenus allant dans le sens de nos opinions. Confortés dans nos idées, trop peu confrontés à celles des autres. L’absence de débat nous donne l’impression que notre façon de penser est la bonne, ce qui vient largement influencer notre raisonnement. Ces bulles de filtres viennent aussi isoler l’utilisateur, amené à penser que sa perception est celle qui prévaut dans le monde extérieur. En effet, l’approbation excessive de notre opinion garantie par la bulle, engendre finalement une forme d’inconscience face aux réalités de l’actualité. A l’image de l’élection de Donald Trump en 2016, qui a surpris plus d’un démocrate. Dans le fil d’actualité des partisans d’Hillary Clinton, rien n’indiquait en effet que le candidat républicain pouvait réunir une majorité.

Les Géants du Net, par le biais des algorithmes prédictifs, viennent donc cloisonner notre vision du monde, entacher la remise en question et limiter la sérendipité. En nous proposant des contenus pertinents pour nous, ils viennent finalement contrôler notre accès à l’information et à la culture.

Reconquérir notre liberté

Les grandes entreprises numériques sont faciles à blâmer, mais il ne faut pas oublier qu’elles cherchent simplement à défendre leurs intérêts économiques. Alors oui, nos choix sont influencés et les services numériques opaques peuvent nuire à notre libre arbitre. Néanmoins, nous ne pouvons pas nier notre part de responsabilité dans cet enfermement, dans la mesure où nous choisissons la place que nous laissons aux algorithmes dans notre quotidien, et que ces derniers se basent sur nos propres comportements d’origine. Il est donc important de revoir nos habitudes de navigation et de ne plus interagir uniquement avec les contenus qui nous ressemblent. Il faut continuer de s’informer auprès de médias variés, entretenir notre esprit critique. Il est également essentiel de prendre du recul sur les services numériques, de mesurer notre dépendance, et de ne pas se laisser aveugler. C’est à nous de briser nos chaînes et de quitter le confort de notre bulle informationnelle. A nous de faire d’Internet un outil clé de la diversité d’opinions et de la démocratie, en multipliant nos recherches, nos sources d’informations, en nous confrontant aux idées divergentes. Diversifions nos centres d’intérêt et n’ayons pas peur de l’inconnu.

En bref, soyons curieux !

Free Your Mind par Akindo – Getty Images

Zélie Duban

Sources

Quitter la version mobile