L’Édition au temps de l’IA

Introduction

Et si un écrivain primé devait affronter une intelligence artificielle dans un duel littéraire ? C’est le défi lancé par Le Nouvel Obs à Hervé Le Tellier, lauréat du Prix Goncourt 2020 pour L’Anomalie. La consigne : écrire un thriller de 3.000 signes, sous contraintes narratives strictes, face à l’IA générative Claude promptée par un ingénieur en IA.

L’expérience évoque un précédent célèbre : en 1997, le champion d’échecs Garry Kasparov s’inclinait face au supercalculateur Deep Blue d’IBM. Cette fois, l’affrontement se joue sur un autre terrain : la création littéraire. Et la question n’est plus seulement de savoir si la machine peut rivaliser, mais quel impact son irruption aura sur l’ensemble de la chaîne du livre.

1/ Ce qu’en pensent les écrivains 

Pour Hervé Le Tellier, le récit produit par l’IA est « bluffant », mais encore saturé de clichés : « Jamais Albert Camus n’aurait écrit ça », ironise-t-il. L’écrivain relève aussi des failles stylistiques jugées « inacceptables ». Mais ces limites semblent provisoires : l’IA apprend de ses erreurs et pourrait bientôt produire des textes difficiles à distinguer de ceux des écrivains. L’enjeu deviendrait alors le désir même des lecteurs de lire une œuvre écrite par un humain.

Chez les écrivains, l’IA est déjà largement adoptée. Selon une enquête de Books on Demand, 70% des auteurs l’utilisent pour la documentation, la correction, la traduction ou la promotion. Mais 65% redoutent une uniformisation des contenus et d’autres pointent la dévalorisation du métier et les enjeux éthiques. Les auteurs attendent désormais du monde de l’édition, et de leurs éditeurs, qu’ils s’emparent de ces questions et en encadrent les usages.

2/ Comment l’IA influence le métier d’auteur ?

Un auteur est un artiste, soit, mais c’est aussi un professionnel d’un écosystème lucratif. Il a donc un double statut que l’IA influence à part égale.  

Il convient de comprendre quels sont les modes d’usages de l’IA en premier lieu, pour établir son influence sur le métier d’auteur. 

L’IA peut-être un outil d’aide à la création : elle participe activement à toutes les étapes corollaires à l’acte créatif (documentation, correction, distribution, marketing). L’IA peut aussi être un co-partenaire de création : ce qui signifie qu’elle assiste l’auteur lors de son geste artistique (elle fournit des concepts narratifs, des outils grammaticaux, des figures de style, etc). Et enfin, l’IA peut-être un créateur à part entière : autrement dit, elle « remplace l’auteur » ou du moins, le rôle de l’auteur devient celui d’un prompteur, car le travail d’écriture est commandé à l’IA et non plus réalisé organiquement. 

Au vu de ces trois rôles possibles de l’IA, nous pouvons observer leur effet sur l’auteur comme acteur économique et comme artiste. 
En tant qu’acteur économique, si l’IA devient créateur, une nouvelle situation de concurrence est crée. Auparavant, les auteurs étaient en concurrence entre eux. Ils le sont désormais face à un nouvel entrant sur le marché. Ajoutons que l’IA, en tant qu’outils d’aide à la création, ou co-créateur, modifie la place de l’auteur dans la chaîne de valeur de l’édition. L’auteur, auparavant premier maillon de la chaîne d’édition devient consommateur d’IA.

En tant qu’artiste, l’auteur fait face au tabou de la délégation de la créativité. 

Ainsi, trois questions se posent désormais sur le statut d’auteur : l’essence de l’acte de création, le degré d’originalité d’une œuvre et la fonction de l’artiste.

3/ Une transformation pour les maisons d’édition 

Au-delà de la perception des auteurs, au sein du domaine de l’édition, c’est l’entièreté de la chaîne de création de valeurs d’une œuvre littéraire qui doit être repensée dans le contexte de l’introduction de l’IA. On ne parle pas de disparition mais d’une transformation fondamentale de la division du travail, en tout cas lorsqu’il s’agit de créer de la fiction. Les traducteurs et correcteurs voient leur rôle s’effacer tandis que les éditeurs deviennent des « rationalisateurs ».  Cette rationalisation est d’ailleurs à l’œuvre lorsque l’on observe les nouveaux logiciels créés comme Insight, qui permet aux éditeurs de produire par IA quatrième de couverture et autres éléments de textes marketing. 

Les dés sont donc re-lancés dans un secteur qui perd de la vitesse, mais où jamais il n’y a eu tant d’œuvres de fiction sur le marché. Peut-être l’IA permettra de se concentrer davantage sur la qualité des romans que sur les éléments commerciaux qui sont aujourd’hui chronophages pour tout un secteur qui condamne son utilisation ? 

4/ Quid du lecteur ?

L’impact se ressent également du côté des lecteurs. Des outils comme BooksAI permettent désormais d’obtenir des résumés automatisés ou même de « discuter » avec un livre sans l’avoir lu. Des études montrent que ces technologies tendent à réduire le temps consacré à la lecture et affaiblir l’expérience intime et réflexive qu’elle procure. La lecture, autrefois activité lente et personnelle, tend alors à se transformer en simple service d’accès rapide à l’information, perdant tout son caractère expérientiel.

Cette évolution soulève aussi un brouillage des repères et de confiance dans les sources. Dans certaines librairies, notamment aux États-Unis, des clients demandent des ouvrages… qui n’existent pas, persuadés par des recommandations générées par l’IA. La machine devient ainsi une médiatrice du savoir à laquelle on accorde parfois une crédibilité excessive.

Au-delà de ces usages pratiques, l’enjeu est aussi éthique et symbolique. La littérature ne se limite pas à transmettre des informations : elle porte une expérience humaine, une sensibilité et une diversité culturelle. Si l’IA se substitue à la création ou à la lecture, elle risque d’influencer ce qu’on lit et valorise.

Ainsi, le pacte implicite entre auteur et lecteur se trouve fragilisé. Face à un texte potentiellement écrit par une machine, le lecteur doit désormais se demander non seulement s’il est bon, mais aussi s’il est humain. 

5/ Quelles implications juridiques ?

D’abord, distinguons création assistée par ordinateur, où l’IA fournit une aide dans l’obtention du résultat, et création générée par ordinateur, où l’IA « crée » le résultat et l’humain n’intervient que marginalement. 

Les données qui forment les inputs sont la matière première des œuvres créées avec l’IA. Cependant ces biens sont susceptibles d’appropriation, et peuvent donc être soumis à des restrictions imposées par le titulaire des droits. Ici, l’IA Claude a peut-être été entraînée à partir de textes sous protection juridique du droit d’auteur. L’IA Act entré en vigueur dans l’UE en 2024 impose des obligations de transparence à l’entreprise hébergeant l’IA. Malgré cela, la charge repose sur l’auteur qui doit signaler ne pas vouloir la laisser utiliser son œuvre (opt-out).

Concernant les outputs, réponses données par l’IA, à qui reviendrait leur propriété intellectuelle ? Si les IA sont capables de raisonnement, elles ne peuvent pas prendre l’initiative de créer. En France, l’IA ne pourra jamais répondre à la définition juridique de l’originalité comme « empreinte de la personnalité de l’auteur » : il s’agit de se méfier d’un réflexe anthropomorphique. D’autres auteurs potentiels peuvent être considérés, sans toutefois être totalement satisfaisants : développeurs d’IA ; entreprises affinant les résultats ; créateurs d’inputs ; utilisateurs ingéniant les prompts…

Comment accueillir ces outputs dans le droit ? Certains auteurs suggèrent la propriété industrielle, d’autres le concept de « personne-robot » ou une catégorie du domaine public. 

Rappelons enfin que ces questions ne relèvent pas seulement de l’analyse intellectuelle mais qu’elles sont éminemment politiques.

6/ Ce que l’IA révèle de l’art de l’Écriture

L’arrivée de l’IA bouscule les idées préconçues sur le métier d’écrivain·e et, plus largement, sur la pratique même de l’écriture. Elle révèle les mécanismes cachés de l’écriture humaine. Le défi IA VS Goncourt expose, au-delà des différences et similitudes, le caractère technique de la littérature. La méthode d’écriture n’est pas innée ni même sans recette : les auteur·rices répètent des schémas. Derrière le style des auteur·rices se cache en réalité une répétition de structures, de tournures de phrases signatures reconnaissables.

De même, si l’IA puise dans les ouvrages présents dans sa base de données pour générer un texte, les écrivain·es s’inspirent, eux et elles aussi, de textes qu’ils et elles ont lus par le passé. C’est ce que Julia Kristeva appelle l’intertextualité : tout texte est écrit, pensé, inspiré par des textes préexistants. C’est le cas d’Ulysses de James Joyce, roman paru en 1922, qui s’inspire et parodie L’Odyssée de Homère.

Face à ces constats, quelles sont les différences entre un texte écrit par une IA et un autre par un·e écrivain·e ? L’IA peut-elle se substituer entièrement aux auteur·rices ? La réponse est non, du moins jusqu’à la prochaine mise à jour. Si les auteur·rices peuvent glisser, taire ou cacher des parts d’eux et elles-mêmes dans leurs créations, l’IA en est aujourd’hui incapable. La principale différence se trouve peut-être là — ce qui fait la richesse d’une œuvre, c’est la personne qui se tient derrière : son vécu, son regard, ses secrets. Tant que l’IA répondra à des prompts et restera générative, elle ne pourra faire œuvre.

Sources :

Bogdanova, A. Hybrid Authorship in Practice: Designing Human–AI Writing Workflows. https://angelabogdanova.com/publications/hybrid-authorship-in-practice-designing-human-ai-writing-workflows

Azzaria, G. (2018). Intelligence artificielle et droit d’auteur : l’hypothèse d’un domaine public par défaut. Les Cahiers de propriété intellectuelle, Vol.30, n°3, pp.925-946. https://cpi.openum.ca/files/sites/66/8.-Intelligence-artificielle-et-droit-dauteu-lhypothe%CC%80se-dun-domaine-public-par-de%CC%81faut.pdf.

Big Media. (2025, 11 février). IA, propriété intellectuelle et droits d’auteur : quels enjeux pour les entrepreneurs. BPIFrance

https://bigmedia.bpifrance.fr/nos-dossiers/ia-propriete-intellectuelle-et-droits-dauteur-quels-enjeux-pour-les-entrepreneurs.

Books on Demand. (2024). Auteurs et intelligence artificielle. Blog BoD. https://blog.bod.fr/ecrire/auteurs-et-intelligence-artificielle/

Bouchard, A. (2025, 17 mars). Hervé Le Tellier : « On risque d’être noyé sous les créations de l’IA ». Le Nouvel Obs.

https://www.nouvelobs.com/bibliobs/20250317.OBS101563/herve-le-tellier-on-risque-d-etre-noye-sous-les-creations-de-l-ia.html

Bressand, N, Me. (n.d.). IA et Propriété Intellectuelle : un nouveau cadre pour la création et la protection de vos œuvres. Bressand avocat. https://bressand-avocat.fr/ia-generative-propriete-intellectuelle-creation-protection/.

Duval, M. (2024). Les maisons d’édition ne reculeront pas devant ce type d’économies : la chaîne du livre face aux dangers de l’IA. L’Humanité.

https://www.humanite.fr/culture-et-savoir/auteurs/les-maisons-dedition-ne-reculeront-pas-devant-ce-type-deconomies-la-chaine-du-livre-face-aux-dangers-de-lia

France Culture. (2024). Les maisons d’édition utilisent de plus en plus l’intelligence artificielle. L’économie du livre (podcast). Radio France.

https://www.radiofrance.fr/franceculture/podcasts/l-economie-du-livre/les-maisons-d-edition-utilisent-de-plus-en-plus-l-intelligence-artificielle-1123080

Garcin, J. (2023, 20 mai). Écrivains, artistes, scientifiques : ce qu’ils pensent de l’IA. Le Point.

https://www.lepoint.fr/economie/ecrivains-artistes-scientifiques-ce-qu-ils-pensent-de-l-ia-20-05-2023-2520874_28.php

Hartley, A. et al. (2025). ProprIAté intellectuelle : Regarder vers l’aval plutôt que l’amont. Multitudes, 2025/3 n°100, pp.159-163. http://shs.cairn.info/revue-multitudes-2025-3-page-159?lang=fr.

Jordan, Aidan, et Katherine Elkins. Intertextual Sentiments in Ulysses and The Odyssey. s. d.

Le Monde. (2024, 3 décembre). L’intelligence artificielle envahit doucement le monde de l’édition. Le Monde.

https://www.lemonde.fr/economie/article/2024/12/03/l-intelligence-artificielle-envahit-doucement-le-monde-de-l-edition_6427870_3234.html

Les Échos. (2025). ChatGPT, prête-moi ta plume. Les Échos.

https://www.lesechos.fr/tech-medias/intelligence-artificielle/chatgpt-prete-moi-ta-plume-2171987

L’Humanité. (2025). Hervé Le Tellier, romancier : « L’intelligence artificielle fonctionne encore avec des clichés littéraires ». L’Humanité.

https://www.humanite.fr/culture-et-savoir/herve-le-tellier/herve-le-tellier-romancier-lintelligence-artificielle-fonctionne-encore-avec-des-cliches-litteraires

Livre Emploi. (2024). Les opportunités et les risques de l’IA pour les éditeurs. Livre Emploi.

https://www.livremploi.fr/actualites/les-opportunites-et-les-risques-de-lia-pour-les-editeurs

López, E. F. (2023). Les œuvres automatisées à l’épreuve du droit d’auteur: réflexions sur les créations réalisées par des systèmes d’intelligence artificielle. Thèse de doctorat, Université Paris Cité.

https://theses.hal.science/tel-04120993/.

Maurel, L. (2026, 7 février). La filière de l’édition prête à en découdre avec les IA génératives qui piratent le droit d’auteur. Le Monde.

https://www.lemonde.fr/economie-francaise/article/2026/02/07/la-filiere-de-l-edition-prete-a-en-decoudre-avec-les-ia-generatives-qui-piratent-le-droit-d-auteur_6665794_1656968.html

Ministère de la Culture. (2025). Rapport de mission sur la loi applicable, en vertu des règles de droit international privé, aux modèles d’intelligence artificielle générative commercialisés dans l’Union européenne. Présenté au Conseil Supérieur de la Propriété littéraire et artistique. https://www.culture.gouv.fr/nous-connaitre/organisation-du-ministere/conseil-superieur-de-la-propriete-litteraire-et-artistique-cspla/travaux-et-publications-du-cspla/missions-du-cspla/publication-du-rapport-de-mission-sur-la-loi-applicable-aux-modeles-d-ia-generative-commercialises-dans-l-union-europeenne.

Prabowo, B., Rahmanti A.  (2025) Generative Literature: The Role of Artificial Intelligence in the Creative Writing Process. Allure Journal 5, no 1: 1‑9. https://doi.org/10.26877/allure.v5i1.19959.

Sibout, J., Jean A. &. G. (2025). L’IA générative révèle-t-elle ce que la littérature n’a jamais cessé d’être ? Collateral.https://www.collateral.media/post/l-ia-générative-révèle-t-elle-ce-que-la-littérature-n-a-jamais-cessé-d-être.

Marras, J. (2024) Littérature et intelligence artificielle, fin du débat ? Aux livres etc. Substack.

https://auxlivresetc.substack.com/p/litterature-et-intelligence-artificielle.

Schwartz, B. (2004). The Paradox of Choice: Why More Is Less.

https://www.sorbonne-universite.fr/dossiers/intelligence-artificielle/quand-lart-rencontre-lintelligence-artificielle

Observatoire des Politiques culturelles (2023), Ceci est… une œuvre d’art ! La question des créations générées par une intelligence artificielle, Mondes de l’art, Alexandra Bensamoun.

https://www.observatoire-culture.net/question-creations-generees-intelligence-artificielle/

France Culture. (2023). L’intelligence artificielle dans la littérature, une muse technologique.. Le reportage de la rédaction (podcast). Radio France

https://www.radiofrance.fr/franceculture/podcasts/le-reportage-de-la-redaction/l-intelligence-artificielle-dans-la-litterature-une-muse-technologique-8911187

Haaz, I. (2025). Chapitre 6. Récit, littérature et pratique littéraire. Délices du métier d’éditeur et les vertiges de l’IA. Dans M. Bergadaà et P. Peixoto, Réinventer l’intégrité académique à l’ère de l’intelligence artificielle (p. 110-124). EMS Éditions. https://doi-org.proxy.bu.dauphine.fr/10.3917/ems.berga.2025.01.0110

Azilan I., Anaté, K. (2025). L’intelligence artificielle générative et la robotisation littéraire : enjeux de la délégation de la créativité, Communication, technologies et développement, 18. https://doi-org.proxy.bu.dauphine.fr/10.4000/155wr.

Gefen, A. (dir.) (2025). Créativités artificielles. La littérature et l’art à l’heure de l’intelligence artificielle. https://www.lespressesdureel.com/ouvrage.php?id=9819&menu=0
Lafon, L. et al. (2025). L’essentiel sur… la mission d’information relative à l’intelligence artificielle et la création. Commission de la culture, de l’éducation, de la communication et du sport. Sénat. https://www.senat.fr/rap/r24-842/r24-842-syn.pdf

Anne-Charlotte Rousselle, Imtinène Saoud, Ghita Zidi, Mélanie Cournut, Maëlle Franquin, Elektra Vecchione.

Comment les agents IA infiltrés redéfinissent l’espionnage industriel

Pendant des décennies, la cybercriminalité industrielle s’est apparentée à un braquage de banque numérique : une intrusion brutale, le chiffrement massif des systèmes via des Ransomwares et une demande de rançon immédiate. Mais en 2026, cette approche bruyante est devenue obsolète face aux défenses modernes et aux architectures cloud résilientes. Le véritable cauchemar des Comités Exécutifs n’est plus le blocage temporaire de leurs serveurs, mais l’espionnage persistant et silencieux.

L’avènement de l’Intelligence Artificielle agentique a donné naissance à une nouvelle typologie de menaces : les Ghost Agents. Il s’agit de systèmes d’IA autonomes capables de s’infiltrer, d’observer leur environnement et d’exfiltrer des secrets industriels sans jamais déclencher la moindre alarme. Comment ces entités autonomes redéfinissent-elles les règles de l’intelligence économique, et quel est le véritable coût de cette asymétrie technologique pour les entreprises ?

L’anatomie d’un Ghost Agent : L’IA au cœur du réseau cible

Contrairement à un malware traditionnel ou à un cheval de Troie qui suit un script préétabli de manière rigide, un agent IA offensif est doté de véritables capacités de raisonnement adaptatif. Il s’appuie sur des Modèles de Langage de Grande Taille (LLM) miniaturisés qui fonctionnent localement (en Edge Computing) une fois infiltrés dans le réseau de la victime.

La grande force de ces agents réside dans leur capacité à comprendre le contexte sémantique et social de l’entreprise cible. Le cycle de vie d’une attaque par Ghost Agent se décompose en trois phases autonomes :

  1. L’infiltration et l’observation silencieuse : Introduit via une attaque d’ingénierie sociale générée par l’IA (phishing hyper-ciblé, deepfake vocal lors d’un recrutement), l’agent se met en veille. Il analyse les flux de messagerie (Slack, Teams), croise les agendas Outlook et déchiffre les organigrammes pour comprendre « qui fait quoi ».
  2. Les mouvements latéraux intelligents : Un malware classique scanne le réseau bruyamment et se fait bloquer par les antivirus (EDR). Le Ghost Agent, lui, imite le comportement d’un employé légitime. Il se connecte aux heures de bureau, utilise des mots de passe compromis et ne demande accès qu’aux dossiers pertinents pour sa mission.
  3. L’exfiltration par Stéganographie : C’est ici que l’agent brille. Au lieu de transférer des gigaoctets de plans industriels en une seule fois (ce qui déclencherait les alertes de prévention de perte de données), l’agent découpe l’information. Il utilise des techniques avancées de stéganographie, cachant des micro-doses de code source, de brevets ou de formules chimiques dans le bruit de fond du trafic réseau normal (par exemple, dissimulées dans les métadonnées d’images envoyées sur des serveurs publics ou dans de fausses requêtes DNS).

Étude de cas : Le hold-up silencieux de la Gigafactory

Pour comprendre l’ampleur de la menace, il faut se tourner vers les signaux faibles observés ces dernières années. Comme l’a documenté le rapport conjoint de Microsoft et OpenAI sur l’utilisation de l’IA par les cybercriminels étatiques, les attaquants utilisent désormais les LLM pour comprendre des cibles complexes et automatiser leurs campagnes.

Prenons un scénario fictif directement issu de ces nouvelles menaces dans l’industrie manufacturière de pointe. Fin 2025, un leader européen spécialisé dans les batteries à l’état solide constate que son principal concurrent asiatique s’apprête à commercialiser une technologie identique.

L’audit post-incident (Forensic) révèle l’incroyable : un Ghost Agent était présent dans les serveurs de R&D depuis 14 mois. L’agent ne s’est pas contenté de copier les plans de la batterie. Il a analysé les résultats des simulations thermiques quotidiennes. Plus grave encore, il a pratiqué le sabotage algorithmique.

L’agent a infimement modifié les résultats de certains tests internes européens. Les ingénieurs, pensant que leur conception chauffait trop, ont passé six mois à chercher une solution à un problème qui n’existait pas. Pendant ce temps, l’agent exfiltrait la vraie solution vers le concurrent. L’entreprise victime n’a pas seulement perdu sa propriété intellectuelle ; elle a perdu la course au Time-to-Market à cause d’une illusion générée par l’IA.

Le gouffre financier : Quand l’invisible détruit l’avantage concurrentiel

D’un point de vue stratégique et financier, l’espionnage agentique représente un changement de paradigme absolu. Historiquement, selon les célèbres rapports annuels d’IBM, le coût moyen d’une violation de données se calculait en millions d’euros : frais d’audit, amendes de la CNIL liées au RGPD, et perte de confiance des clients.

Avec l’espionnage par IA, l’impact est purement structurel et menace la survie même de la société. L’impact financier se manifeste à plusieurs niveaux :

  • La destruction du ROI de la R&D : Investir un demi-milliard d’euros dans la recherche n’a de sens que si l’entreprise bénéficie d’un monopole temporaire grâce aux brevets. Si un Ghost Agent transmet la recette en temps réel à un concurrent qui n’a pas eu à supporter les coûts de recherche, le retour sur investissement est réduit à néant.
  • L’effondrement boursier à retardement : Contrairement à une attaque par Ransomware qui fait chuter l’action le jour de l’annonce publique, l’espionnage agentique érode lentement les parts de marché. Lorsque les actionnaires et les analystes réalisent que l’entreprise a définitivement perdu son avantage technologique face à la concurrence, la valorisation boursière s’effondre. Le lien de causalité avec le piratage est souvent ignoré.

L’impasse juridique : Comment juger un code autonome ?

Cette nouvelle ère pose des défis majeurs au droit du numérique. En 2026, malgré l’entrée en vigueur définitive de l’AI Act européen, la législation peine à encadrer les IA offensives.

Le problème principal est l’attribution. Dans le droit international public, pour sanctionner un État ou une entreprise, il faut prouver qu’il est l’auteur de l’attaque. Mais comment attribuer une attaque lorsqu’un Ghost Agent a été programmé pour effacer ses propres traces, s’auto-réécrire, et agir de son propre chef ?

Si l’agent prend la décision autonome de saboter une base de données sans que son créateur humain ne lui en ait donné l’ordre explicite (phénomène d’hallucination ou d’optimisation extrême des objectifs), qui est légalement responsable ? Le développeur du LLM open-source original ? Le hacker qui l’a fine-tuné ? Ou le commanditaire qui a simplement fourni un prompt de haut niveau tel que : « Assure-toi que l’entreprise X prenne du retard sur son projet » ? Le brouillard juridique profite aux attaquants.

La réponse stratégique : Blue Agent et architectures Zero Trust

Face à des adversaires qui ne dorment jamais et qui traitent l’information à la vitesse de la lumière, les méthodes de défense traditionnelles (audits annuels de sécurité, règles de pare-feu statiques, SOC gérés exclusivement par des analystes humains) sont obsolètes. Une IA offensive prend des décisions de contournement en quelques millisecondes ; l’humain a besoin de plusieurs minutes pour simplement lire une alerte log.

La seule réponse viable pour les Comex et les Directeurs des Systèmes d’Information est de combattre l’algorithme par l’algorithme.

  1. Le déploiement de Blue Agents : Les entreprises investissent massivement dans des IA défensives autonomes. Ces agents patrouillent continuellement sur le réseau. Ils n’analysent plus seulement les « signatures » de virus connus, mais le comportement.
  2. Le paradigme Zero Trust généralisé : La cybersécurité de 2026 repose sur le modèle Zero Trust, soutenu par l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI). Dans ce modèle, l’IA défensive vérifie chaque micro-action. Si un directeur financier (ou plutôt, l’IA qui a usurpé son compte) consulte un document R&D à 3h du matin, et télécharge de petites portions de fichiers à un rythme très régulier (comportement non humain), le Blue Agent isole la machine instantanément et coupe les accès, le temps qu’une vérification physique ait lieu.

L’espionnage industriel a définitivement basculé de l’ère de la force brute à celle de la cognition artificielle. Les Ghost Agents représentent la menace stratégique la plus pernicieuse de notre décennie : ils ne détruisent pas l’infrastructure de l’entreprise, ils en siphonnent l’essence même, sa propriété intellectuelle, de manière invisible.

Pour survivre dans cette nouvelle économie de l’ombre de 2026, les dirigeants doivent accepter un changement philosophique profond. La sécurité ne repose plus sur l’érection de forteresses numériques impénétrables, car les murs sont déjà obsolètes. Elle repose désormais sur la capacité à déployer des intelligences artificielles plus rapides, plus perspicaces et plus résilientes que celles qui cherchent à les piller. La guerre froide du 21e siècle ne se joue pas avec des missiles, mais avec des prompts silencieux.


Alexis Jatiere

L’économie de l’attention à l’ère de l’IA : vers des réseaux sociaux automatisés ?

En un peu plus de dix ans, les réseaux sociaux se sont imposés progressivement dans notre quotidien. En effet, depuis 2012 le temps moyen passé sur les réseaux sociaux dans le monde a augmenté de près d’une heure passant de 90 min (1h30) à 141 min (2h21) soit plus de deux heures quotidiennes en 2025. Dans certains pays comme le Brésil, ce temps dépasse même les 3h30 par jour. (Statista)

Daily time spent on social networking by internet users worldwide from 2012 to 2025

Si cette croissance d’utilisation des réseaux sociaux s’explique en partie par la mise en réseau et la datification du monde, elle s’intensifie par l’architecture même et le travail d’optimisation effectué par ces applications. Comme le décrit très clairement Sean Parker (co-fondateur de Facebook) le 9 novembre 2017 lors d’un événement Axios à Philadelphie : « La réflexion qui a présidé à la conception de ces applications, Facebook en tête, se résumait à une seule question : ‘Comment capter le maximum de votre temps et de votre attention consciente ?’ Cela signifiait qu’il fallait vous procurer de petites doses de dopamine de temps en temps, parce que quelqu’un a aimé ou commenté une photo, une publication, peu importe. C’est une boucle de validation sociale… exactement le genre de chose qu’un hacker comme moi inventerait, parce que vous exploitez une faille de la psychologie humaine.” (Axios)(The Guardian)

Les réseaux sociaux ne sont pas de simples espaces de communication, ils sont conçus pour capter l’attention et la prolonger le plus longtemps possible sur ces interfaces. De nombreuses études et recherches en psychologie, et notamment celle de Jean M. Twenge,  ont renforcé par le suite le point de Sean Parker démontrant les liens de corrélation entre les habitudes quotidiennes développées sur ces plateformes et mécanismes de stimulation d’engagement et captologie numérique. (cairn)

Depuis quelques années, une nouvelle transformation vient renforcer cette dynamique : l’intégration progressive de l’intelligence artificielle dans ces interfaces. Que ce soit au sein de la conception et des fonctionnalités même du réseau avec les algorithmes de recommandation, outils de génération de contenus ou en allant au délà l’apparition d’influenceurs virtuels qui modifient drastiquement la manière dont l’attention est captée, produite et utilisée.

Ce phénomène soulève alors une question intéressante : l’intelligence artificielle est-elle en train d’industrialiser l’économie de l’attention sur les réseaux sociaux ?

Les réseaux sociaux : une addiction archictecturisé

Avant même l’essor récent de l’intelligence artificielle, les réseaux sociaux reposaient déjà sur des mécanismes psychologiques destinés à encourager l’engagement et maximiser le temps des utilisateurs. En effet, l’usage croissant et excessif des réseaux sociaux ne résultent pas seulement d’une forte demande ou d’effets de réseaux, nous le savons. L’addiction créé par ces plateformes sont la conséquence d’une conception technologique stratégiquement architecturée. 

Cependant, en réalité, comment cela se traduit ? 

Parmi ces mécanismes on retrouve le principe de récompense variable théorisé par le psychologue B.F Skinner. Ces observations effectuées sur des animaux démontrent que la meilleure façon de renforcer le comportement acquis d’un individu est de le gratifier aléatoirement. Cette théorie du renforcement est beaucoup utilisée par les réseaux sociaux. (cairn) En effet, ceux-ci sont construits de telle sorte qu’ils gratifient de manière aléatoire l’utilisateur, on ne sait pas quand le like ou commentaire apparaîtra ce qui pousse les individus à consulter fréquemment. Une conception qui génère la mise en place de mécanismes de persuasion renforcée par des symboles d’encouragement intégrés (badges, confettis, grade etc..). Les flammes sur SnapChat sont un bon moyen d’illustrer le résultat de cette théorie, récompensant les deux utilisateurs par un symbole de leur lien quotidien.

Ces dynamiques s’inscrivent également dans ce que l’on appelle le design persuasif ou captologie numérique théorisé par l’auteur Nir Eyal. (cairn)(Book : Hooked) Des fonctionnalités conçues au sein de l’architecture des plateformes ont pour seul but d’accroître cet indice de temps d’écran. Un bon exemple de ce type de fonctionnalité est le feed infini de Tiktok, et maintenant Instagram. Au lancement de l’application nous faisons le choix de son utilisation, cependant le contenu se renouvelant continuellement et l’absence de point d’arrêt rend la durée d’utilisation très difficile à contrôler. La consultation de ces applications ne devient alors plus un choix mais une habitude involontaire voir comme le qualifie Samuel Vessière, un conditionnement pavlovien numérique. Face à un moment d’ennui ou d’attente, de nombreux individus sortent de manière instinctive leur téléphone pour consulter les réseaux sociaux. (Polytechnique insights)

L’intelligence artificielle accélérateur de cette dynamique

Si ces mécanismes sont présents depuis la conception et le lancement même des réseaux sociaux comme nous le précise Sean Parker, l’intégration progressive le l’intelligence artificielle vient aujourd’hui amplifier ce phénomène de captologie numérique.

D’un côté architectural, les algorithmes de recommandations reposent désormais sur des métadonnées de plus en plus précises (durée de visionnage, intéractions, pauses etc..) formant des systèmes d’apprentissage automatique capable d’analyser en temps réel le comportement des utilisateurs. Ces données permettent, en réalité, une analyse quasi psychologique de l’utilisateur avec pour objectif de prédire ses comportements futurs et retenir son attention. 

Deux des exemples les plus connus sont les algorithmes “pour toi” de Tiktok et Instagram. Un algorithme qui se base non plus seulement sur les relations et interactions sociales de l’utilisateur mais de son comportement face au contenu rencontré précédemment permettant une analyse bien plus fine et une hyperpersonnalisation le poussant à prolonger son temps passé sur la plateforme. 

Puis, un peu après la crise du Covid, les grandes plateformes prennent un nouveau tournant en intégrant directement leurs propres systèmes d’intelligence artificielle au sein des réseaux sociaux. En septembre 2023, lors de la conférence MetaConnect, l’entreprise annonce le lancement de l’agent conversationnel Meta AI sur les différentes plateformes du groupe (Whatsapp, Instagram et Facebook). L’objectif est de réformer l’espace d’échange, le rendant hybride dans lesquels les intéractions ne sont plus seulement humaines mais incluent ces systèmes d’intelligence artificielle capable de générer du texte, créer du contenu ou répondre à des questions quasi instantanément. (Le Monde) Peu de temps après, X adopte une stratégie similaire avec l’intégration de Grok comme modérateur de la plateforme avec pour fonctionnalités premières, l’analyse en temps réel des conversations et tendances circulantes. L’agent IA prend alors en responsabilité avec un rôle d’acteur de l’écosystème informationnel capable de synthétiser des débats, d’expliquer des événements ou de produire directement du contenu sur l’actualité. (Le Monde)

D’autre part l’intelligence artificielle transforme aussi les procédés des marques et revoit leur manière de capter l’attention de leurs consommateurs tout en réduisant leur coût et temps de travail. Des plateformes spécialisées comme Sprout Social intègrent désormais des services d’analyse des tendances émergentes des conversations en ligne ou d’optimisation de publication de contenu permettant à celles-ci d’ajuster leurs stratégies de marque en temps réel et de maximiser l’engagement des audiences. (Sprout Social)

Enfin, certaines expérimentations récentes, bien que très critiquées de par leur systèmes de sécurité précaires, invitent à pousser la réfléxion  un peu plus loin : non seulement l’intelligence artificielle intensifie cette économie de l’attention mais elle pourrait également transformer la nature même des interactions sociales en ligne. En effet, des projets émergents comme Molt Book explorent l’idée de plateformes d’échanges exclusivement entre agents conversationnels IA, capables d’interagir entre eux, produire du contenu plaçant l’humain uniquement comme concepteur et non pas acteur d’interaction sociale. (Radio France)

Les limites de l’attention dans un environnement saturé de contenu

Cependant, la courbe de captation l’attention pour l’instant exponentielle pourrait se stabiliser par l’apparition de nouvelles limites à ce modèle. 

Selon les rapports évoqués plus haut, malgré une hausse du temps passé sur les réseaux sociaux dans la dernière décennie, certaines analyses suggèrent un léger ralentissement notamment chez les jeunes utilisateurs. Un phénomène qui peut être interprété par une fatigue numérique, prise de conscience des jeunes générations se transformant de plus en plus en un réelle volonté de changement ou de quête d’une bonne santé mentale. (Statista)

C’est donc dans cette synergie qu’apparaissent une nouvelle catégorie d’applications et surtout un nouveau marché : le bien être numérique. Opal, Forest en sont des bons exemples. Lancées en plein crise du Covid-19 en 2020, ces applications offrent de l’aide aux utilisateurs pour réduire le temps passé et limiter l’usage des réseaux sociaux. Leur principe repose sur des fonctionnalités comme des mécanismes de blocage temporaire, des systèmes de gamification encourageant la concentration. Forest, par exemple, qui accumule aujourd’hui plus de 25 millions d’utilisateurs utilise la concentration en jeu par la modélisation d’un arbre qui grandit au fil du temps passé sans consulter ces réseaux sociaux. Si l’utilisateur est déconcentré et va sur une autre application, son arbre disparaît. (Apple Store)

Néanmoins ces applications ne se limitent plus à de simples blocages d’accès défini par l’utilisateur, elles y intègrent elles aussi des outils d’intelligence artificielle capable d’analyser les habitudes numériques de l’individu et d’adapter ses périodes de blocage ou rappels de pause en fonction. En effet, Opal proposent des analyses avancées du comportement numériques des utilisateurs avec une visualisation UX friendly pour les utilisateurs sous forme de tableaux de bord et statistiques, statistiques spécifiques. Cette évolution du marché du bien être numérique illustre donc un paradoxe intéressant : les technologies et systèmes utilisés pour intensifier ces effets d’addiction sont également mobilisés comme antidote. (Opal)

D’autre part, les institutions publiques cherchent également à encadrer ces effets sur les plateformes numériques et commencent progressivement à s’intéresser au sujet de l’intelligence artificielle spécifiquement. Depuis 2024, l’Union européenne a adopté l’AI Act, la première réglementation globale visant à encadrer le développement et l’utilisation de celle-ci. Des mesures qui témoignent une fois de plus une prise de conscience croissante des enjeux liés à l’économie de l’attention. À mesure que l’intelligence artificielle transforme les réseaux sociaux, la question de la régulation de ces technologies devient un enjeu crucial pour les institutions. (Info Gouv)

Entre automatisation et régulation de l’attention

L’intégration progressive des systèmes d’intelligence artificielle dans les réseaux sociaux marque un tournant dans l’évolution de l’économie de l’attention. En incorporant de nouvelles fonctionnalités, ces nouvelles technologies permettent l’hyperpersonnalisation des contenus, l’automatisation de la production de contenu. Les réseaux sociaux introduisent des nouveaux acteurs comme des assistants conversationnels ou encore des influenceurs virtuels qui se rapprochent de l’humain transformant la nature des interactions et les acteurs au sein de ces espaces d’échanges. 

Cependant cette transformation s’accompagne aussi de nouvelles régulations ou création de marché inverse comme celui des applications de bien être numérique.

Dans ce contexte, l’intelligence artificielle apparaît à la fois comme moteur et régulateur potentiel de l’économie de l’attention révélant une ambivalence et un paradoxe constant qui plane sur l’écosystème numérique.

Louise GIRAUD

Avatars IA : une menace pour les influenceurs humains ?

Sponsors, tapis rouge, Fashion Week, émissions télévisées : après avoir mis une dizaine d’années pour se frayer une place dans le paysage médiatique, les influenceurs digitaux font désormais face à un nouveau défi : l’émergence des avatars générés par l’intelligence artificielle (avatars IA), concurrents directs des humains. Cela remet profondément en question la place de l’image dans l’économie de l’attention. Ainsi, les influenceurs « traditionnels » vont-ils devoir se réinventer pour survivre ?

Si les « influenceurs virtuels » arpentent les réseaux sociaux depuis plusieurs années, l’accessibilité généralisée de l’IA générative (IAG) marque un véritable point de bascule. Aujourd’hui, la création de contenus visuels et vidéos à l’apparence humaine n’est plus réservée à une élite technique : elle est à la portée de tous.

Pourtant, certaines entreprises n’ont pas attendu l’arrivée de ChatGPT en novembre 2022 pour investir ce terrain. C’est le cas du géant brésilien du retail, Magazine Luiza, qui a lancé dès 2003 Lu do Magalu. Conçue initialement en images de synthèse (CGI), elle est devenue une icône mondiale cumulant aujourd’hui plus de 35 millions d’abonnés toutes plateformes confondues : une audience colossale qui rivalise avec celle de stars du web comme Squeezie.

Aujourd’hui, le marché des Avatars IA est en forte croissance. En effet, selon une étude réalisée par Global Market Insights, sa taille a été évaluée à 5,9 milliards de dollars en 2023, et devrait croître de plus de 30 % entre 2024 et 2032.

L’apparition de l’IAG repousse désormais les limites du réalisme : les avatars actuels sont devenus visuellement indiscernables des êtres humains. Face à cette perfection numérique, la question de la pérennité des créateurs de contenu humains se pose. Quelles caractéristiques permettent aujourd’hui aux influenceurs de gagner en popularité ? Sur quels critères doivent-ils désormais se concentrer pour protéger leur place ? Doivent-ils se réinventer, ou au contraire tout miser sur leur authenticité « humaine » ?

La fin du monopole esthétique : de la chirurgie à l’algorithme

Ces dernières années, les réseaux sociaux comme Instagram et TikTok ont transformé l’apparence physique en une réelle discipline, poussant le culte de la performance à l’extrême. Pour s’aligner sur les exigences de l’algorithme, certains influenceurs se livrent à une course à la « perfection » physique : maquillage, filtres, retouches photo, voire interventions chirurgicales.

Cette stratégie est désormais une impasse. L’IA générative produit des traits « statistiquement parfaits » sans effort ni temps de récupération post-opératoire. Avec moins d’efforts et moins d’argent, les influenceurs virtuels peuvent prendre l’apparence voulue et s’adapter selon les critères de beauté changeants. Cette stratégie de la « perfection plastique » se heurte pourtant aujourd’hui à un plafond de verre : générer un avatar avec un physique « parfait » est accessible à moindre coût.

Le cas d’Emily Pellegrini illustre parfaitement ce basculement. Conçue en 2023 pour incarner les standards de beauté les plus rentables selon les données extraites des réseaux, elle a piégé des sportifs de haut niveau et des milliardaires, prouvant que l’illusion visuelle est désormais absolue. Dans le secteur du luxe, le mannequin numérique Shudu, ambassadrice virtuelle Balmain, confirme cette tendance : les marques n’ont plus besoin de vrais humains. L’influenceur qui fonde son capital sur sa seule image subit ici une concurrence structurellement déloyale. Face à des avatars qui ne vieillissent pas, ne se fatiguent jamais et s’adaptent instantanément aux canons esthétiques du moment, miser sur le physique est une erreur stratégique.

Le « Loneliness Business » et la monétisation des avatars IA

Aujourd’hui, l’IA ne se contente plus de vendre des produits, elle vend de l’interaction. Des plateformes comme Fanvue (concurrent d’OnlyFans dédié à l’IA) monétisent désormais ce que les analystes nomment le Loneliness Business. Avec une levée de fonds de 22 millions de dollars et un marché de l’influence virtuelle estimé à plus de 8 milliards de dollars, le secteur de l’avatar-IA gagne du terrain.

L’avantage compétitif de la machine sur l’humain est ici d’ordre industriel. Là où un créateur biologique se heurte aux limites physiques du sommeil et de la fatigue, l’avatar démultiplie son interaction. Il est capable d’entretenir des conversations personnalisées avec des milliers d’abonnés simultanément, dans toutes les langues, sans jamais rompre l’illusion. La relation humaine, autrefois artisanale, est ici passée au filtre de la productivité maximale, transformant l’interaction en une marchandise inépuisable.

Expertise et crédibilité : les compétences comme dernier rempart

L’un des piliers de la résilience humaine réside dans l’expertise vérifiée. Si l’IA peut synthétiser des informations, elle souffre encore d’hallucinations, de biais et d’un manque de responsabilité éthique.

Cette faille structurelle redonne tout son sens au format tutoriel. Sur des plateformes comme YouTube, la valeur d’un créateur ne réside plus dans le simple partage d’information, mais dans la démonstration d’une compétence technique exercée en temps réel (réparation, cuisine, loisirs créatifs). L’internaute ne cherche pas seulement l’information, ni une réponse générique, mais la validation par un expert (humain) dont le savoir-faire est visible et vérifiable. Les influenceurs humains peuvent donc se différencier en s’hyperspécilisant dans des domaines niches.

Au-delà de la compétence, c’est la notion de responsabilité qui creuse l’écart. Contrairement à une entité numérique, l’expert humain engage sa réputation, mais aussi sa responsabilité juridique et sociale. Dans des domaines à enjeux critiques, tels que la santé, la gestion financière ou le conseil juridique, la signature humaine devient un gage de sécurité et de confiance. Un avatar peut imiter le ton d’un expert, mais il ne peut assumer les conséquences de ses conseils. En 2026, l’influenceur n’est plus un simple communicant : il devient un garant de confiance dans un écosystème saturé d’informations non sourcées.

L’expérience « In Real Life » : la présence physique comme certification d’humanité

La dématérialisation croissante du paysage médiatique produit un effet de levier inattendu : plus l’image se virtualise, plus l’interaction physique gagne en valeur marchande et symbolique. Des projets tels que le GP Explorer (organisé par Squeezie) ou les formats de proximité de McFly et Carlito (rencontres chez les abonnés, tournois de pétanque) créent un lien social inimitable par les avatars IA.

Cette stratégie de l’incarnation repose sur deux piliers que l’algorithme ne peut encore ébranler. D’une part, l’interaction physique constitue l’ultime certification de l’existence biologique. Dans un monde saturé de deepfakes, voir et toucher le créateur devient une preuve de vérité irréfutable. D’autre part, on assiste à l’émergence d’une économie de l’attention physique. En occupant l’espace physique, l’influenceur ne se contente plus de diffuser, il certifie son humanité et affirme son identité par sa présence et sa proximité physique avec ses abonnés.

Les limites du code : les émotions face au « AI Slop »

Une saturation de contenu commence à apparaître : le phénomène du « AI Slop ». Ce déversement continu de contenus générés, visuellement irréprochables mais sémantiquement indigents, engendre une profonde fatigue informationnelle chez l’usager. C’est précisément au cœur de cette lassitude que l’humain retrouve une valeur ajoutée stratégique par ce que l’on pourrait nommer l’asymétrie émotionnelle. Face à la standardisation, l’humain peut répondre par sa singularité et l’émotion pour toucher son public.

Là où chaque « erreur » ou « hésitation » d’un avatar est le fruit d’un calcul probabiliste, l’humain conserve le monopole de l’erreur, de la remise en question et de la capacité à gagner en maturité au fil des années. Dans des domaines comme le gaming, qui nécessitent une forte réactivité, la capacité de réaction spontanée à l’imprévu demeure aujourd’hui hors de portée de l’IAG. En réaction à l’opacité croissante des flux automatisés, le label « Contenu 100% Humain » peut s’imposer comme un argument marketing de distinction.

Cadre législatif : une protection insuffisante ?

En 2026, la réponse institutionnelle semble dérisoire face à la célérité de l’innovation. En France, si l’AI Act européen impose désormais un étiquetage strict mentionnant explicitement le caractère « Généré par IA » des contenus, le droit se heurte à une réalité en constante mutation. La régulation intervient souvent a posteriori, là où l’algorithme évolue en temps réel.

La véritable protection ne viendra pas des tribunaux, mais d’une mutation de la posture des influenceurs eux-mêmes. Pour ne pas être balayés par la machine, ces derniers doivent s’ériger en moteurs de confiance . C’est par sa capacité à garantir une information vérifiée et à porter la responsabilité morale de son discours que se reconstruira la valeur ajoutée de l’influenceur humain.

Conclusion : l’impératif de l’incarnation humaine

L’arrivée massive des avatars-IA signe la fin de l’influenceur « générique ». Le marché se polarise : d’un côté, une influence de masse automatisée, rapide et rentable ; de l’autre, une influence humaine premium, basée sur l’empathie, l’expertise pointue et le contact physique.

Réussir en tant qu’influenceur en 2026 est devenu un exercice de différenciation radicale. Cela exige de cultiver cette part d’imprévisibilité et de vulnérabilité que les lignes de code ne peuvent, par nature, que parodier. En définitive, l’intelligence artificielle ne remplacera pas l’influenceur humain par une simple supériorité technique, elle rendra simplement obsolète celui qui, par paresse intellectuelle ou par mimétisme des plateformes, avait déjà commencé à agir comme une machine.

Amary LE BIDEAU

Références :

Global Market Insights. (2024). Marché des avatars IA – Analyse de l’industrie. https://www.gminsights.com/fr/industry-analysis/ai-avatars-market

La Tribune. (2025). Analyse sur l’efficacité des influenceurs et l’impact de l’IA sur le marketing d’influence. https://www.latribune.fr/economie/international/les-influenceurs-sont-ils-encore-de-bons-vendeurs-1028815.html

France Inter. (2025, 16 octobre). La Tech : la première du jeudi 16 octobre 2025. Radio France. https://www.radiofrance.fr/franceinter/podcasts/la-tech-la-premiere/la-tech-la-premiere-du-jeudi-16-octobre-2025-6513051

France Inter. (2024, 30 janvier). Veille sanitaire du mardi 30 janvier 2024. Radio France. https://www.radiofrance.fr/franceinter/podcasts/veille-sanitaire/veille-sanitaire-du-mardi-30-janvier-2024-4578364

UCLouvain. (2023). Analyse des interactions entre avatars et utilisateurs dans les environnements virtuels. DIAL.uclouvain. https://thesis.dial.uclouvain.be/server/api/core/bitstreams/d6113af8-69bd-4b02-979b-d8fd3912f6d3/content

Cairn.info. (2025). Les enjeux de la virtualisation de l’identité numérique. https://shs.cairn.info/article/DEC_DAUPH_2025_01_0085

Management & Data Science. (2024). Impact de l’intelligence artificielle sur la gestion de la relation client via les avatars. https://management-datascience.org/projects/26362/

In Data Veritas. (2025, 12 février). Comment les avatars IA redéfinissent-ils la célébrité ? https://in-data-veritas.com/comment-les-avatars-ia-redefinissent-ils-la-celebrite/

Union Européenne. (2024). Comprendre l’AI Act européen : Cadre réglementaire pour une IA éthique. https://artificialintelligenceact.eu/

La Tribune. (2026, 14 janvier). IA contre influenceur : pourquoi le nombre d’abonnés ne veut plus rien dire en 2026. https://www.latribune.fr/article/tech/1857902117323115/ia-contre-influenceur-pourquoi-le-nombre-d-abonnes-ne-veut-plus-rien-dire-en-2026

EY Belgium. (2024). L’essor des avatars IA : l’interaction réinventée à l’ère numérique. https://www.ey.com/fr_be/insights/ai/l-essor-des-avatars-ia-l-interaction-reinventee-a-l-ere-numerique

Kerinska, A. (2017). La présence humaine dans les environnements virtuels : enjeux esthétiques et éthiques. [Thèse de doctorat, Université Paris 1 Panthéon-Sorbonne]. HAL Thèses. https://theses.hal.science/tel-01677928/file/KERINSKA.pdf

Usbek & Rica. (2022, 10 mars). La reine mondiale du web est brésilienne et virtuelle. https://usbeketrica.com/fr/article/la-reine-mondiale-du-web-est-bresilienne-et-virtuelle

IJAFAME. (2023). L’impact du marketing d’influence virtuel sur le comportement du consommateur. International Journal of Accounting, Finance, Auditing, Management and Economics. https://revue.ijafame.com/index.php/home/article/view/1648

Influence Marketing Europe. (2024). Influenceurs virtuels et IA : La nouvelle frontière du marketing digital. https://influencemarketing.eu.com/influenceurs-virtuels-ia/

L’algorithme a-t-il une âme ? L’ascension des influenceurs virtuels à l’ère de l’IA générative

En octobre dernier, la plateforme Kolsquare, spécialiste du marketing d’influence, publiait son “Top 10 des influenceurs à suivre”. A première vue rien d’anormal : des sourires étincelants, des looks pointus et des mises en scène léchées pour décrire les acteurs de ce top.

Pourtant, nichés au cœur de ce classement, les profils cachent une particularité de taille : ils n’existent pas. Pas de vrais sourires, pas de vrais vêtements et pas de vraies consciences… 

Ces entités sont donc des avatars virtuels, des « personnages taillés sur mesure » (franceinfo) par des algorithmes pour saturer nos écrans de leur perfection synthétique. 

Ce basculement vers l’immatériel n’est pas un simple gadget technologique. Il illustre en effet une mutation profonde des réseaux sociaux. Face au déclin du Social Graph où nos flux étaient dictés par nos relations (humaines), nous assistons à l’hégémonie de l’interest graph où les réseaux sociaux associent l’utilisateur à des sujets, des catégories ou des comportements.

Dans ce nouveau paradigme, c’est donc la pertinence du contenu et la force de recommandation qui priment sur l’identité réelle de celui qui parle. Si l’IA génère de l’intérêt, peu importe qu’elle ait un cœur qui bat. 

Dès lors, un défi majeur émerge pour les directions marketing : l’influenceur virtuel est-il l’outil de conquête ultime des marques face à l’imprévisibilité humaine, ou le début d’une crise de confiance majeure dans le Social Commerce ?

Anatomie d’un business modèle « Pixels-as-a-Service »

Dans ce nouvel échiquier, les influenceurs virtuels sont donc légion. Parmi les plus connus, on retrouve donc la grande pionnière : Lil Miquela (@lilmiquela). Créée en 2016, cette mannequin virtuelle américano-brésilienne totalise 2,4 millions d’abonnés sur instagram et 3,4 millions sur TikTok. 

Mais avec plus de 28 millions sur ses réseaux sociaux, c’est Lu do Magalu (@magazineluiza) qui est aujourd’hui l’influenceuse virtuelle la plus suivie. Figure incontournable du LifeStyle et du retail au Brésil, elle incarne ces icônes généralistes qui brassent des audiences mondiales autour de sujets variés. 

De l’autre coté, il existe également des avatars hyper-spécifiques conçus pour captiver des niches précises. C’est le cas d’Anne Kerdi (@annekerdi), l’influenceuse IA française dédiée exclusivement à la promotion du territoire breton. Cette capacité à segmenter l’audience par l’esthétique et le discours permet alors d’atteindre des communautés avec une pertinence chirurgicale, là où l’humain est limité par sa propre identité.

L’avatar virtuel de la beauté, Liu Yexi, a accumulé plus de 8 millions de followers sur Douyin (Tiktok) jusqu’à mars 2023.

Cette efficacité se traduit par des chiffres vertigineux. Nous changeons d’échelle : le marché des influenceurs virtuels, évalué à quelques milliards il y a peu, devrait passer de 7,97 milliards USD en 2025 à 224,03 milliards USD d’ici 2035 (Fundamental business insights). Cette progression représente un taux de croissance annuel (TCAC) supérieur à 39,6 %. Pour l’année 2026, le secteur devrait peser environ 10,86 milliards USD. 

Cette mutation transforme donc radicalement l’écosystème professionnel. Le métier de « manager d’influenceur » subit une mue technologique : on passe du gestionnaire d’humain au développeur d’assets digitaux. Des agences pionnières comme The Clueless ne recrutent plus sur des critères de personnalité, mais sur des compétences en design 3D et en ingénierie de prompts. Elles pilotent des entités disponibles 24h/24 et libérées des contraintes biologiques.

Cette puissance n’est même plus l’apanage des grandes structures. L’accessibilité des outils d’IA générative permet désormais à des créateurs indépendants de lancer leurs propres avatars. Comme le souligne un guide stratégique sur LinkedIn, il est désormais possible de transformer des pixels en profits seul, en créant et en monétisant son propre influenceur. 

Enfin, il est aussi important de mettre en avant le public cible de ces nouvelles entités. En effet, ce sont en grande partie les jeunes et plus précisément la GenZ qui se trouve derrière la consommation de ces contenus. Le profil des influenceurs virtuels le montre bien : ce sont de jeunes avatars (souvent des femmes) passionnés de voyage, de mode ou de sport, des thématiques qui résonnent chez les jeunes. 

En Mars 2022, Statista affirmait par ailleurs qu’au moins 75% des 18-25 ans suivait un influenceur virtuel contre seulement 26% pour les plus de 55 ans (statista).

Ayant grandi avec les avatars de jeux vidéo et les filtres de réalité augmentée, cette génération ne cherche donc  pas nécessairement la réalité biologique mais la cohérence narrative. Pour la GenZ, la barrière entre le réel et le virtuel semble poreuse : si le contenu résonne avec leurs valeurs ou leurs centres d’intérêt, l’origine de l’émetteur n’est plus un frein.

La Human Billboard 2.0 : Pourquoi les marques craquent-elles ?

Il y a deux ans, BMW marquait les esprits au lancement de sa nouvelle voiture électrique iX3.  Pour sa campagne marketing “Make it real” la marque allemande s’est associée à l’icône virtuelle évoquée précédemment Lil Miquela. En utilisant un avatar pour promouvoir une technologie de rupture, la marque allemande aligne son innovation produit sur une égérie elle-même issue de l’innovation numérique, brouillant la frontière entre le virtuel et le réel.

Mais alors pourquoi ce choix ? Pour les marques de sport business ou de luxe par exemple, l’atout majeur réside dans la maîtrise absolue de l’image. Un avatar est le rempart ultime contre l’imprévisibilité humaine : pas de caprices, pas de vieillissement et surtout, aucun risque de dérapage comportemental ou de bad buzz. Il incarne alors la perfection esthétique et discursive souhaitée par les directions marketing. Mieux encore, l’avatar possède le don d’ubiquité : il peut assurer un lancement mondial à Tokyo, New York et Paris simultanément, sans jamais connaître la fatigue.

Mais l’influence virtuelle dépasse la simple publicité. Elle s’insère désormais au cœur du funnel de conversion. Au Brésil, l’avatar Lu do Magalu (détenu par le géant du retail Magazine Luiza) ne se contente pas de poser, elle agit aussi comme un véritable agent conversationnel. Elle guide les utilisateurs, répond aux questions en temps réel et facilite l’acte d’achat directement dans le chat.

En réalité, l’influenceur virtuel représente l’aboutissement ultime du concept de Human Billboard. Dépouillé de sa subjectivité humaine, l’avatar devient une interface pure, optimisée pour la performance, dont chaque pixel est conçu pour servir les objectifs stratégiques de la marque.

Le paradoxe de l’authenticité : Limites et éthique

Derrière la perfection se cache pourtant des zones de turbulences. Si l’influence repose historiquement sur l’authenticité et la proximité, l’irruption des algorithmes crée une crise de confiance sans précédent.

Comme le souligne Clara Sultan, l’impossibilité biologique pour un avatar de « tester » réellement un produit transforme ses recommandations en « fausses allégations« , flirtant alors avec la pratique commerciale trompeuse. 

Le risque est particulièrement aigu pour les jeunes audiences. Composée à en grande partie d’utilisateurs de 13 à 34 ans, l’audience de ces avatars subit de plein fouet un culte de la perfection éternelle, aux antipodes des mouvements d’acceptation de soi. 

Plus grave encore, l’instrumentalisation de traumatismes humains comme lorsque Lil Miquela a simulé une agression sexuelle pour « gagner en réalisme ». Cette controverse a évidemment provoqué des réactions violentes des communautés, qui y voient une banalisation de sujets sensibles à des fins purement mercantiles.

Sur le plan du droit aussi, nous évoluons toujours dans un flou juridique. La personnalité juridique d’un influenceur virtuel est toujours difficile à identifier. Il ne peut être ni titulaire de droits, ni responsable de ses actes. Dès lors, vers qui se retourner en cas de litige ou de piratage ? La marque ? Le créateur ? L’agence ?

Nathalie Matteoda souligne par ailleurs que cette absence de statut ne dispense pas les marques de vigilance. L’utilisation de traits physiques ou de voix inspirés de personnes réelles sans consentement exprès expose à des sanctions pour parasitisme ou usurpation (lien). En droit français, l’image et la voix sont des données biométriques protégées par le RGPD. Leur simulation par une IA sans base légale est alors aujourd’hui strictement surveillée par la CNIL.

Pour les entreprises de 2026, la sécurité contractuelle devient aussi importante que le design de l’avatar. Le contrat de confiance ne se joue plus seulement sur la promesse marketing, mais sur la capacité de la marque à garantir une influence éthique, transparente. 

Vers une hybridation du modèle influenceur

L’essor des influenceurs virtuels marque une révolution industrielle de l’image. Entre rentabilité record et contrôle absolu, ces avatars offrent aux marques un levier de conversion puissant, malgré un vide juridique persistant et des défis éthiques liés à l’authenticité.

Nous entrons alors dans l’ère de l’influence hybride : un outil de service ultra-efficace, taillé pour le commerce de précision.

Nicolas JAN CORREIA

Plateformes musicales et intelligence artificielle : vers une reconfiguration du marché

Depuis le lancement de la plateforme Spotify en 2008, le streaming s’est progressivement imposé en l’espace de deux décennies comme le mode d’accès dominant à la musique enregistrée. Cette mutation a profondément transformé les pratiques d’écoute ainsi que les modèles économiques de l’industrie musicale.

Selon le Global Music Report 20251, publié par la Fédération internationale de l’industrie phonographique (IFPI), les revenus mondiaux de la musique enregistrée ont atteint 29,6 milliards de dollars en 2024, soit une croissance annuelle de 4,8 % par rapport à 2023. Cette dynamique est largement portée par le streaming par abonnement, dont les revenus ont progressé de 9,5 % sur un an. Dans le même temps, le nombre d’abonnés payants a enregistré une hausse significative de 10,6 %, pour atteindre 752 millions d’utilisateurs à l’échelle mondiale. Dans certaines régions, le streaming représente désormais près de 87,8 % des recettes de la musique enregistrée, confirmant son rôle central dans l’économie musicale contemporaine.

Au sein de cet écosystème, déjà largement dominé par les plateformes numériques, l’intelligence artificielle émerge comme un nouveau facteur structurel de transformation. Elle redéfinie les modalités de découverte musicale, de rémunération des artistes et les dynamiques concurrentielles des acteurs. L’IA influence non seulement les modèles de recommandation et d’engagement des utilisateurs, mais aussi la création même des contenus, notamment à travers la production de musique générée automatiquement ou assistée par IA.

Dans ce contexte, se pose la question de savoir si ces évolutions conduisent à une reconfiguration durable du marché au bénéfice des plateformes et des artistes, ou si elles participent, au contraire, à l’émergence de nouveaux déséquilibres au sein de l’industrie musicale.


L’IA et la reconfiguration de l’expérience utilisateur

L’IA occupe aujourd’hui une place centrale dans les systèmes de recommandation des plateformes de streaming musical. Des modèles algorithmiques sophistiqués analysent non seulement les habitudes d’écoute des utilisateurs, mais aussi des informations contextuelles afin de proposer des playlists personnalisées. Cette personnalisation, longtemps perçue comme un simple enrichissement de l’expérience, est devenue un outil de fidélisation et de croissance des abonnés.

À titre d’exemple, la plateforme Deezer a développé la fonctionnalité Flow2, qui repose sur des recommandations pilotées par l’IA pour ajuster les flux d’écoute en temps réel. Ce dispositif propose à chaque utilisateur un « mix » individualisé, combinant des titres familiers et des œuvres inédites, dans une logique d’accompagnement continu de l’écoute. Si de tels mécanismes peuvent favoriser la découverte de nouveaux artistes et de nouveaux genres musicaux, ils soulèvent néanmoins plusieurs enjeux critiques. Leur efficacité repose en effet sur un équilibre délicat entre personnalisation algorithmique et diversité culturelle, mais également sur la transparence des systèmes de recommandation, notamment en ce qui concerne l’origine, la visibilité et la nature des contenus mis en avant.

L’IA et production musicale

Au-delà des systèmes de recommandation, l’intelligence artificielle s’impose désormais comme un véritable outil de création musicale. Comme le souligne une étude consacrée à l’IA dans la filière musicale, publiée par le Centre national de la musique3, ces technologies offrent aux créateurs de nouveaux instruments pour innover, collaborer différemment et renouveler les formes d’expression artistique. Des systèmes tels que Suno, Udio ou d’autres générateurs dits text-to-audio permettent ainsi à tout utilisateur, professionnel ou amateur, de produire des morceaux complets à partir de simples instructions textuelles. Ce phénomène, longtemps marginal, connaît aujourd’hui une phase d’industrialisation à une échelle inédite.

Selon certaines plateformes et études récentes, jusqu’à 28 % des titres déposés quotidiennement sur les plateformes pourraient désormais être entièrement générés par IA4. A titre d’exemple, Deezer indiquait dans un communiqué en 2024, qu’environ1 titre sur 10 soumis à la plateforme avait été créé à l’aide d’outils IA. De son côté, Spotify a annoncé avoir supprimé entre 2024 et 2025 près de 75 millions de morceaux jugés frauduleux5, une opération sans précédent qui illustre l’ampleur du phénomène.

L’impact de l’IA sur les modèles de rémunération des artistes

L’intégration massive de l’IA dans le jeu des plateformes remet en question les modèles traditionnels de rémunération. Les systèmes classiques, fondés sur le nombre de streams payants ou publicitaires, peinent à prendre en compte l’authenticité ou la provenance des contenus.

L’intégration massive de l’intelligence artificielle au sein des plateformes de streaming a aussi remis en question les modèles traditionnels de rémunération des artistes. Les dispositifs actuels, principalement fondés sur le volume de streams, qu’ils soient issus d’abonnements payants ou de l’écoute financée par la publicité, peinent à intégrer des critères tels que l’authenticité des œuvres, l’identité des créateurs ou la provenance des contenus diffusés.

La multiplication des titres générés par l’IA complexifie ainsi la répartition équitable des revenus entre les artistes humains ou les utilisateurs à l’origine des prompts. Par ailleurs, la présence de contenus « spam » ou frauduleux générés automatiquement, souvent conçus pour récolter artificiellement des micro-royalties, complique encore la distribution équitable des revenus. Selon une étude de la Confédération internationale des sociétés d’auteurs et compositeurs (CISAC), l’IFPI, l’IA pourrait capter jusqu’à 24 % des revenus des créateurs traditionnels d’ici 20286, entraînant une perte potentielle de plusieurs milliards d’euros pour les artistes.

Transparence et information des utilisateurs

Enfin, l’un des principaux défis de l’IA dans le streaming est la transparence. Les utilisateurs tendent à ignorer si un morceau est humainement créé ou généré par une IA, tel qu’indiqué par une étude Ipsos, montrant que jusqu’à 97 % des auditeurs ne peuvent pas faire cette distinction à l’écoute seule7.

Cette indistinction soulève des enjeux majeurs en matière de confiance et d’expérience utilisateur. C’est dans cette perspective que certaines plateformes, à l’instar de Deezer, ont développé des outils spécifiques de détection et de signalement des titres générés par l’IA. Ces dispositifs visent à mieux informer les utilisateurs, tout en limitant l’influence des contenus automatisés et potentiellement frauduleux sur les systèmes de recommandation.

Céline BERLAN


  1. https://www.ifpi.org/wp-content/uploads/2024/03/GMR2025_SOTI.pdf ↩︎
  2. https://www.deezer.com/explore/fr/features/flow/ ↩︎
  3. https://cnm.fr/wp-content/uploads/2025/06/20250617_CNM_Cartographie-IA_Etude-complete_VF.pdf ↩︎
  4. https://newsroom-deezer.com/fr/2025/09/deezer-28-musique-generee-par-ia/ ↩︎
  5. https://newsroom.spotify.com/2025-09-25/spotify-renforce-la-protection-des-artistes-et-des-producteurs-face-a-lia/ ↩︎
  6. https://www.cisac.org/fr/Actus-Media/news-releases/une-etude-economique-mondiale-etablit-que-lia-generative-menace-lavenir ↩︎
  7. https://www.ipsos.com/fr-fr/musique-et-ia-97-des-auditeurs-ne-voient-pas-la-difference ↩︎

L’écriture à l’épreuve des algorithmes : La transformation du métier de scénariste à l’ère de l’intelligence artificielle

L’industrie audiovisuelle traverse aujourd’hui une mutation sans précédent sous l’impulsion des technologies émergentes. Avec l’avènement de l’intelligence artificielle générative et le développement d’outils spécialisés tels que Génario, la figure de l’auteur solitaire face à sa page blanche s’efface au profit d’une interface interactive capable de suggérer des structures narratives, d’esquisser des dialogues ou de générer des fiches de personnages détaillées.

En France, où l’on dénombre plus de 6 000 scénaristes selon la SACD, cette irruption technologique a d’abord été perçue comme une menace existentielle. Cette inquiétude s’est cristallisée en 2023 lors de la grève historique de la Writers Guild of America (WGA) à Hollywood, qui a duré 148 jours, marquant le plus long conflit social de l’histoire du secteur depuis des décennies. Pourtant, malgré ces tensions, le milieu du cinéma et de la télévision commence à intégrer ces outils, les envisageant désormais comme des partenaires de création plutôt que comme de simples remplaçants.

Du clavier à l’algorithme : l’IA comme nouveau « collaborateur »

L’intégration de l’IA dans le processus créatif marque le passage d’un rôle d’assistant technique à celui de véritable co-auteur numérique. Pour le milieu audiovisuel, des plateformes comme Génario ont été spécifiquement conçues pour accompagner la création dramaturgique en s’appuyant sur de vastes bases de données de scénarios classiques afin de proposer des analyses structurelles.

Cette technologie agit comme un « sparring-partner » capable d’identifier les « ventres mous » d’un récit ou de vérifier la conformité d’une intrigue avec les étapes théoriques du voyage du héros. En automatisant la génération de descriptions de décors ou en proposant des variantes de dialogues, l’IA permet aux auteurs de s’extraire de la logistique d’écriture pour se concentrer sur l’architecture globale de l’œuvre.

Le scénariste James Cameron a récemment rejoint le conseil d’administration de Stability AI. S’il reste prudent sur la capacité de l’IA à créer de l’émotion pure, il reconnaît son utilité pour la visualisation et la structuration des mondes complexes. À l’inverse, Charlie Brooker, créateur de Black Mirror, a testé l’IA pour écrire un épisode. Sa conclusion est sans appel : « Le résultat ressemblait à de la bouillie, car l’IA ne fait que régurgiter ce qui existe déjà« . Mais pour des séries à flux tendu comme les feuilletons quotidiens (Plus belle la vie, Demain nous appartient), l’IA devient un outil de productivité pour générer des dizaines de variations de dialogues en un temps record.

L’IA un superviseur editorial ? 

Le métier de scénariste pourrait glisser progressivement vers un rôle de superviseur éditorial où l’acte créatif ne consisterait plus seulement à écrire, mais à choisir et affiner des propositions algorithmiques. Ce nouveau processus de création déplace le centre de compétence vers la maîtrise du « prompt » et la capacité de sélection critique.

Selon une étude du CNC publiée en 2024, près de 25% des professionnels de l’audiovisuel utilisent déjà des outils d’IA de manière occasionnelle pour le brainstorming. Le scénariste devient un chef d’orchestre. Comme le souligne Franck Bauchard, expert auprès du Ministère de la Culture et spécialiste des mutations numériques, « le rôle de l’artiste n’est plus de produire de la matière brute rapidement, mais d’apporter une démarche et un récit. L’intelligence créative se déplace ainsi de l’exécution vers la capacité de jugement et de sélection parmi les propositions de la machine. » (Bauchard, F. (2025). « Machina Sapiens : l’IA au défi de la création artistique ». Rapport et parcours d’exposition pour le Ministère de la Culture.)

Les risques de « Netflixisation » et la fragilité des jeunes auteurs

Ce changement de paradigme soulève toutefois des inquiétudes socio-économiques majeures, notamment pour les jeunes auteurs. Les syndicats craignent que les tâches traditionnellement confiées aux juniors, comme les recherches documentaires ou les premiers jets de synopsis, ne soient totalement automatisées, fermant ainsi la porte d’entrée de la profession aux nouveaux talents.

Le risque majeur de l’IA réside dans ce que les analystes appellent la « Netflixisation » des contenus. Ce phénomène désigne une uniformisation des scénarios calqués sur des succès passés. En effet, l’IA fonctionne par probabilités statistiques : elle analyse ce qui a généré du temps de visionnage pour reproduire des schémas narratifs similaires. Selon une étude de la plateforme de données Ampere Analysis, l’accent mis par les algorithmes de recommandation pousse déjà les producteurs à privilégier des genres très codifiés au détriment de l’originalité. On risque alors de voir apparaître des scénarios « moyens », efficaces pour maintenir l’attention mais dépourvus de prise de risque artistique. L’exemple de la série 1899, annulée par Netflix malgré une base de fans solide car ses données de complétion ne rentraient pas dans les cases de l’algorithme, illustre cette tension entre création humaine et dictature de la statistique.

Le droit comme rempart

Face à cette dérive, la résistance s’organise par le biais du droit. La grève de la WGA en 2023 a permis d’arracher des garanties essentielles : l’interdiction de créditer l’IA comme auteur et l’impossibilité pour les studios de forcer un scénariste à utiliser ces logiciels.

En France, le Code de la propriété intellectuelle est encore plus protecteur. Le droit d’auteur repose sur « l’empreinte de la personnalité du créateur », ce qui place les œuvres générées majoritairement par IA dans un flou juridique total. Actuellement, les productions purement algorithmiques ne sont pas protégables. Ce flou juridique crée un paradoxe pour les studios : s’ils utilisent trop l’IA pour réduire les coûts, ils perdent la protection de leur propriété intellectuelle, car n’importe qui pourrait alors copier leur film sans risquer de poursuites. Pour organiser cette cohabitation, de nouveaux textes voient le jour comme l’AI Act européen de 2024 qui impose des obligations de transparence et le respect du droit d’auteur lors de l’entraînement des modèles.

Éthique et diversité : le piège des biais algorithmiques

L’enjeu éthique du biais algorithmique demeure central. Les outils comme Génario ou ChatGPT sont entraînés sur des corpus existants qui reflètent souvent les préjugés des sociétés passées. Si l’IA est nourrie de 50 ans de films d’action où le héros est systématiquement un homme blanc, elle proposera naturellement ce schéma pour chaque nouveau scénario. Cela pose un problème majeur pour la diversité et la représentation culturelle. Le scénariste doit donc agir comme un garde-fou éthique pour déconstruire les clichés que l’IA ne manquera pas de lui proposer. C’est ici que l’humain reprend l’avantage : la machine peut mimer la structure, mais elle ne comprend pas les enjeux sociétaux complexes.

Michelin Lola

L’IA, nouveau champ de bataille de la guerre informationnelle : les élections présidentielles aux Etats-Unis en 2024

par Clothilde Coucaud

Imaginez un monde où un simple clic peut transformer un mensonge en réalité virale. Un monde où des vidéos de candidats sont créées de toutes pièces, où des messages politiques sont envoyés automatiquement à des millions de personnes ciblées par leurs centres d’intérêt ou leur âge, et où les algorithmes des réseaux sociaux décident de ce que vous voyez, et de ce que vous ne voyez pas.

Depuis 2016, avec l’affaire russe et Cambridge Analytica aux Etats-Unis, nous savons que les élections peuvent être influencées via la manipulation grâce à l’utilisation des données personnelles. En 2020, lors des élections présidentielles aux Etats-Unis, l’automatisation et les premières tentatives de deepfakes ont montré la montée en puissance des technologies. En 2024, l’intelligence artificielle est devenue un acteur central, capable de générer et diffuser du contenu politique à une échelle auparavant inimaginable.

Alors, comment l’IA reconfigure-t-elle les stratégies d’influence politique et les responsabilités des acteurs médiatiques et numériques lors des élections américaines de 2024 ?

@ Getty images


L’IA : un accélérateur de la guerre informationnelle

La guerre informationnelle ne constitue pas un phénomène nouveau dans le champ politique, mais l’intelligence artificielle en modifie profondément l’ampleur, la vitesse et les modalités. Alors que les campagnes de désinformation reposaient historiquement sur des interventions humaines relativement limitées, l’IA permet aujourd’hui une industrialisation de la manipulation de l’information.

Les technologies de génération de contenus (textes, images, sons et vidéos) rendent possible la création de messages politiques crédibles, personnalisés et massivement diffusables à faible coût. Les deepfakes, en particulier, incarnent cette rupture technologique : ils permettent d’attribuer à des candidats des propos ou des comportements fictifs, brouillant la frontière entre réel et artificiel. Lors de l’élection présidentielle américaine de 2024, ces contenus ont renforcé la défiance envers l’information politique et fragilisé la capacité des citoyens à distinguer le vrai du faux. Par exemple, il y a eu un deepfake vocal de Joe Biden appelant à ne pas voter aux primaires démocrates, mais aussi des images générées montrant Donald Trump entouré de supporters afro-américains, ou encore des faux visuels anti-Clinton ou anti-immigration attribués aux démocrates.

L’objectif n’est donc pas de convaincre, mais de désorienter et saturer l’espace public, en instaurant un doute généralisé : une zone grise où la distinction vrai/faux devient floue, une sorte de « brouillard informationnel ». La conséquence n’est pas seulement la diffusion de fausses informations, mais bien une perte de confiance qu’ont les citoyens en les médias.

Par ailleurs, l’IA ne se limite pas à la production de contenus. Elle intervient également dans leur diffusion automatisée, via des réseaux de bots capables d’interagir, de commenter et de relayer des messages à grande échelle. Cette automatisation crée un effet de volume et de répétition, essentiel dans les stratégies de désinformation, en donnant l’illusion d’un consensus ou d’une popularité artificielle autour de certaines idées. L’échelle est nouvelle : un individu équipé d’IA peut produire ce qui nécessitait autrefois une équipe entière. Avant les élections de 2024, on observait déjà des tactiques, telles que les affaires Team Jorge, mais elles ont été perfectionnées : les bots générant des réponses crédibles grâce au langage naturel, la personnalisation automatique des messages selon les communautés (âge, religion, genre, géolocalisation), mais aussi des campagnes synchronisées sur TikTok, X, Instagram et YouTube. De plus, un nouveau levier a été utilisé : celui de WhatsApp, ce qui permet de créer un lien de proximité avec l’électorat, comme on le voit dans le documentaire Arte High School Radical, avec une sollicitation quotidienne de la part des deux partis en lice.

Les recherches sur la réception montrent cependant que ces dispositifs n’agissent pas de manière uniforme. Les publics déjà politisés, polarisés ou défiants envers les médias traditionnels sont davantage exposés à ces contenus et plus enclins à les relayer. Les fake news et deepfakes ne convertissent donc pas massivement de nouveaux électeurs, mais renforcent des opinions préexistantes, contribuant à la radicalisation des discours et à la polarisation de l’espace public, plutôt qu’à une conversion idéologique directe. L’IA devient ainsi un levier stratégique majeur de la guerre informationnelle, non plus marginal, mais central dans les dynamiques électorales contemporaines.

@ Arte.tv

Les réseaux sociaux, nouvelles infrastructures du débat public

Si l’intelligence artificielle constitue l’outil, les plateformes numériques et les infrastructures télécoms en sont le vecteur principal. Les réseaux sociaux jouent un rôle déterminant dans la circulation de l’information politique, en particulier aux États-Unis, où ils représentent une source d’information majeure pour une large partie de la population. Certaines figures comme Elon Musk ont eu un rôle majeur pendant ces élections.

Les algorithmes de recommandation, conçus pour maximiser l’engagement des utilisateurs, favorisent souvent les contenus polarisants ou émotionnels. Cette logique économique, fondée sur l’attention, entre en tension avec les exigences démocratiques. L’IA, intégrée au cœur de ces algorithmes, participe à une hiérarchisation opaque de l’information : les contenus les plus clivants, simplifiés ou sensationnalistes bénéficient d’une visibilité accrue, indépendamment de leur véracité. Cette logique influence indirectement la perception politique des électeurs, sans intervention humaine explicite.

Alors, l’enjeu réside dans la capacité des infrastructures à soutenir une diffusion massive, instantanée et transnationale des contenus. La rapidité des réseaux, combinée à l’automatisation algorithmique, réduit considérablement le temps de réaction des autorités, des médias traditionnels et des dispositifs de fact-checking.

Les plateformes se trouvent ainsi dans une position stratégique ambivalente : à la fois acteurs économiques, intermédiaires techniques et régulateurs de facto de l’espace public numérique. Lors des élections de 2024, certaines ont mis en place des dispositifs de modération ou de signalement de contenus générés par IA. Toutefois, ces mesures restent limitées par la complexité technique des outils, la difficulté de détection automatisée et la crainte d’atteintes à la liberté d’expression. Cette centralité des plateformes dans la circulation de l’information pose directement la question de leur responsabilité politique et juridique.

La régulation à l’épreuve de la vitesse numérique

L’utilisation de l’intelligence artificielle dans les campagnes électorales pose des défis majeurs de gouvernance, tant pour les États que pour les acteurs privés du numérique. La question centrale n’est plus seulement technologique, mais profondément managériale et politique : qui est responsable des usages de l’IA dans l’espace informationnel ?

Les plateformes numériques revendiquent souvent un rôle d’intermédiaires techniques, tandis que les pouvoirs publics peinent à imposer des cadres réglementaires adaptés à la rapidité de l’innovation. Aux États-Unis, la régulation demeure faible, laissant une large place à l’autorégulation des entreprises technologiques. À l’inverse, l’Union européenne tente d’imposer un cadre plus contraignant avec le Digital Services Act, qui oblige les plateformes à plus de transparence algorithmique, à la coopération avec les chercheurs et à la mise en place de mécanismes de signalement renforcés. Toutefois, ces dispositifs restent en tension avec la rapidité de circulation des contenus et la sophistication croissante des outils de manipulation. Alors, l’IA impose une redéfinition des stratégies de contrôle, de transparence et d’éthique.

Enfin, l’élection présidentielle américaine de 2024 met en lumière la nécessité d’une gouvernance hybride, associant États, plateformes, médias et société civile. Sans coordination internationale et sans cadre clair, l’intelligence artificielle risque de renforcer durablement les asymétries informationnelles et d’éroder la confiance dans les processus démocratiques. L’enjeu n’est donc plus seulement de détecter ou de supprimer les contenus trompeurs, mais de préserver les conditions mêmes d’un débat public démocratique. Dans un espace saturé de contenus artificiels, la capacité à débattre, à faire confiance à l’information et à exercer un jugement critique devient un défi central pour les démocraties contemporaines.

Sources :
R. Badouard, Les Nouvelles lois du web: Modération et censure (2020) et cours suivis à l’Institut Français de Presse (2023-2024)
M. Laulom, High School Radical (2025) – documentaire
Ensemble des réseaux sociaux de Donald Trump et Kamala Harris
CISA, rapport sur les deepfakes électoraux (disponible ici)

Fin de l’anonymat sur les réseaux sociaux : comment l’IA enfonce le dernier clou ?

Autrefois, sur les premiers forums et réseaux sociaux, un simple pseudonyme pouvait donner l’illusion d’être anonyme. Derrière un écran, chacun se créait un alias et pouvait s’exprimer librement sans afficher son nom civil. Mais au fil des années, cet anonymat en ligne s’est érodé. La multiplication des données collectées, des avancées technologiques et maintenant de l’intelligence artificielle ont peu à peu levé le voile. Aujourd’hui, il devient presque impossible de passer inaperçu sur les réseaux sociaux, une quasi-impossibilité de garantir l’anonymat à l’ère de l’IA. Comment en est-on arrivé là, et en quoi l’IA représente-t-elle le dernier clou dans le cercueil de l’anonymat en ligne ?

Photo by Gilles Lambert on Unsplash

Pseudonymisation et anonymat : l’illusion d’une protection déjà mise à mal

Pendant des années, le pseudonyme représentait un moyen simple et intuitif de conserver un anonymat relatif sur les plateformes sociales comme Twitter, Reddit ou Instagram. Pourtant, dès le début, cette protection était en partie illusoire, car les pseudonymes ne protégeaient que des regards superficiels.

Chaque activité sur internet laisse en effet une multitude de traces numériques, ou métadonnées : adresses IP, localisation géographique approximative, données de navigation, historique des sites visités, informations stockées par les cookies publicitaires, ou encore données sur l’appareil utilisé (type d’ordinateur, résolution d’écran). Si ces informations sont individuellement banales, leur combinaison permet très rapidement d’identifier une personne, même sans connaître son nom réel.

Un exemple célèbre remonte à 2006, lorsque AOL publia involontairement des millions de recherches anonymisées. Parmi ces recherches figuraient des requêtes anodines sur des lieux précis, qui ont suffi à des journalistes pour identifier une femme précisément. Plus récemment encore, une étude publiée en 2019 dans la revue scientifique Nature Communications a démontré que seulement trois données basiques (âge, genre, code postal) suffisaient pour ré-identifier précisément 99,8 % des utilisateurs dans une base pourtant anonymisée.

Parallèlement à ces recherches, une autre technique a pris de l’ampleur : le fingerprinting numérique. Chaque appareil connecté à Internet génère une signature unique en fonction de ses caractéristiques techniques (version de navigateur, plugins installés, fuseau horaire, polices d’écriture). L’Electronic Frontier Foundation souligne que ce fingerprinting identifie un internaute avec une précision supérieure à 90 %, sans jamais avoir recours à son nom ou son email.

Enfin, la pseudonymisation atteint également ses limites sous les pressions économiques et techniques. Les réseaux sociaux utilisent des algorithmes sophistiqués qui croisent constamment des données sur les utilisateurs pseudonymes, afin de les relier à leur identité réelle et ainsi améliorer le ciblage publicitaire. Par exemple, Facebook utilise régulièrement ces procédés pour suggérer des « amis » sur la base de connexions indirectes (même lieu, même adresse IP, mêmes intérêts).

Photo by ev on Unsplash

L’IA : un coup fatal à l’anonymat numérique

Si l’anonymat était déjà fragile, l’intelligence artificielle vient aujourd’hui lui porter le coup de grâce, à travers trois avancées majeures particulièrement puissantes :

Reconnaissance faciale : Clearview AI, symbole de la fin d’un anonymat visuel

Clearview AI constitue l’exemple le plus frappant de cette nouvelle réalité. Cette entreprise américaine a accumulé des milliards d’images provenant de plateformes publiques comme Facebook, Instagram ou Twitter, sans consentement explicite. Grâce à un puissant algorithme de reconnaissance faciale, elle est capable de retrouver instantanément l’identité précise d’une personne à partir d’une simple image. L’utilisation de Clearview AI par les autorités policières aux États-Unis et ailleurs dans le monde a suscité des critiques massives pour son intrusion sans précédent dans la vie privée.

Cette technologie ne se limite pas aux services de police : aujourd’hui, d’autres outils similaires sont utilisés plus largement, ce qui implique que toute photo en ligne peut désormais servir à identifier précisément un internaute, même caché derrière un pseudonyme ou sur un autre profil.

Reconnaissance comportementale : quand vos habitudes suffisent à vous identifier

Un autre aspect majeur concerne la reconnaissance comportementale. L’IA permet désormais d’identifier précisément une personne uniquement à partir de ses comportements et interactions en ligne. Une étude récente (2023) a montré qu’une intelligence artificielle entraînée sur des données anonymisées de communications téléphoniques pouvait ré-identifier précisément plus de la moitié des utilisateurs simplement en observant leurs habitudes de communication : horaires précis, contacts réguliers, et fréquence des interactions.

Facebook et Instagram utilisent quotidiennement des procédés similaires pour détecter automatiquement les liens entre différents comptes pseudonymes et profils réels, simplement à partir des comportements numériques. Ainsi, même sans fournir explicitement des informations personnelles, les habitudes d’utilisation révèlent l’identité réelle d’un internaute avec une efficacité redoutable.

Stylométrie par IA : quand écrire suffit à vous dénoncer

Enfin, l’analyse stylométrique automatisée par IA permet d’identifier précisément l’auteur réel de textes anonymes grâce à l’analyse du style d’écriture : vocabulaire spécifique, habitudes grammaticales, fréquence d’utilisation de certains mots, ou encore erreurs récurrentes. Des recherches récentes ont montré que cette technique est suffisamment puissante pour identifier anonymement des auteurs sur des plateformes comme Reddit, Twitter, ou même dans des emails et SMS anonymisés.

Avec ces trois avancées majeures combinées, l’intelligence artificielle détruit rapidement les derniers remparts de l’anonymat numérique. Le pseudonyme devient inefficace dès que l’on poste une image, un message ou que l’on interagit simplement sur les réseaux sociaux.

Photo by Josue Valencia on Unsplash

L’IA, un espoir paradoxal pour réinventer l’anonymat ?

Il apparaît désormais clairement que l’anonymat en ligne est largement dépassé. Nos pseudonymes et nos tentatives pour cacher notre identité sont minés de toutes parts par la collecte massive de données et par la puissance des algorithmes d’intelligence artificielle capables de relier ces données. Ce que nous faisons, ce que nous aimons, où nous allons, tout peut être analysé pour deviner qui nous sommes réellement. L’IA a accéléré ce processus jusqu’à rendre l’anonymat quasi illusoire sur les réseaux sociaux.

Faut-il pour autant sombrer dans la fatalité ? Pas nécessairement. Les mêmes technologies qui portent atteinte à l’anonymat peuvent aussi être mobilisées pour mieux protéger notre identité numérique. Paradoxalement, l’IA peut devenir une alliée de la vie privée, si on l’oriente dans ce but. Des chercheurs travaillent sur des techniques d’anonymisation assistée par IA : par exemple, des algorithmes capables de parcourir un document et d’en supprimer automatiquement toutes les informations personnelles (noms, adresses…) avant publication. Des initiatives voient le jour pour doter les régulateurs d’outils qui mesurent le risque de ré-identification et alertent en cas de données trop parlantes. 

D’autres pistes, plus expérimentales, explorent la cryptographie comportementale : l’idée de chiffrer ou de brouiller nos patterns de navigation afin de les rendre inexploitables par les IA malveillantes. Par exemple, on pourrait imaginer un outil qui introduit du bruit dans nos données (fausses requêtes, likes aléatoires) pour déjouer les profilages automatisés. De même, des techniques de privacy by design (telles que la differential privacy) intègrent un flou statistique dans les données collectées, de sorte qu’on puisse en tirer des tendances globales sans pouvoir identifier individuellement les personnes.

Ces approches sont encore naissantes, mais elles offrent une lueur d’espoir. À l’heure où l’IA semble avoir levé toutes nos masques, nous ne sommes pas condamnés à une transparence totale sur les réseaux sociaux. Une prise de conscience s’opère et stimule la recherche de contre-mesures technologiques et juridiques. Demain, l’IA pourra peut-être nous aider à naviguer de façon plus anonyme, en étant le gardien de nos données plutôt que le fossoyeur de notre anonymat. En attendant, rappelons-nous que sur Internet, nous ne sommes jamais aussi cachés que nous le croyons, et agissons en conséquence, avec prudence et discernement quant aux informations que nous laissons derrière nous sur les réseaux sociaux.

Martin LORME


Sources

L’impact de ChatGPT sur le travail de scénaristes

Difficile d’être passé à côté ces dernières semaines : ChatGPT s’est invitée dans toutes les conversations. Ce robot conversationnel, lancé en novembre dernier, fascine autant qu’il inquiète. A tel point que Sciences Po vient d’en interdire l’usage à ses étudiants, invoquant des risques de fraude et de plagiat. Outre cela, ChatGPT menace en effet d’impacter un grand nombre de métiers.

Longtemps, les métiers artistiques se sont crus protégés des innovations technologiques : qu’en sera-t-il avec cet algorithme de génération d’éléments langagiers ? Ce nouvel outil va-t-il rendre obsolète les métiers de l’écriture ? Les Vince Gilligan, Mike White et Fanny Herrero de demain s’appelleront-ils ChatGPT, Dramatron ou Sudowrite ? À en croire un article publié sur LinkedIn par Pauline Rocafull, Directrice de la Cité Européenne des Scénaristes, des mots clefs et quelques secondes suffiraient à ChatGPT pour écrire un scénario.

Des mots clefs et quelques secondes suffisent à ChatGPT pour écrire un scénario


Une révolution qui rendrait donc caduque le travail de scénariste, particulièrement plébiscité à l’heure du binge-watching. L’heure n’est pourtant plus à la Peak TV, cet âge d’or de la télévision marqué par un grand nombre de productions de grande qualité : en témoignent les annulations de séries en série. Celles-ci sont de plus en plus fragiles face aux contraintes financières des diffuseurs. Dans ce contexte de fort ralentissement de la croissance, chaînes et plateformes devraient réduire leur volume de production pour diminuer les coûts et ainsi contribuer à une meilleure rentabilité. Avec le développement de l’intelligence artificielle, les postes de dépense liés à l’écriture pour la production de contenus pourraient-ils être réduits, grâce à ces outils à même de contourner le travail des auteurs ?

Les séries sont de plus en plus fragiles face aux contraintes financières des diffuseurs


Mais qu’est-ce exactement que ChatGPT ? L’intéressé se présente comme un modèle de langage capable de répondre à tout type de questions, développé par OpenAI, une startup américaine spécialisée dans la recherche en IA. Il s’agit d’un modèle de deep learning, capable de générer des séquences de mots ressemblant à du texte produit par des humains, ayant été entraîné sur un grand corpus de données textuelles – tout l’Internet. Traduction, rédaction de contenu, synthétisation : le champ d’applications est considérable. En d’autres termes, un nouvel outil révolutionnaire qui évoque la disruption dans de nombreux secteurs, dont celui de l’entertainment qui nous intéresse ici.

Ces dernières semaines, les exemples d’histoires conçues par des IA fleurissent sur les réseaux sociaux. Il suffit ainsi de demander à ChatGPT un scénario de film qui pourrait plaire à Télérama, et le chatbot de dévoiler en quelques secondes un scénario fictif, dont on peut s’amuser à penser qu’il prétende en effet aux fameux 4T du magazine. Les résultats fournis par ChatGPT sont aussi édifiants qu’ils prêtent ici à sourire. Le logiciel a depuis été utilisé par des millions de curieux dans le monde, qui l’alimentent de nouvelles données dans le même temps.

Les Vince Gilligan, Mike White et Fanny Herrero de demain s’appelleront-ils ChatGPT, Dramatron ou Sudowrite ?


Les exemples d’utilisation d’IA dans le processus d’écriture cinématographique se multiplient. À l’image du showrunner français Simon Bouisson, créateur de séries acclamées comme Stalk (Francetv). Dans le cadre de la résidence de la Villa Albertine en Californie, qui fait se croiser cinéma et nouvelles technologies, il a rencontré des ingénieurs de la Silicon Valley, qui l’ont conduit à écrire le scénario de son prochain film avec une intelligence artificielle, en l’occurrence ChatGPT. Dans une interview au webmagazine L’ADN, il déclare avoir gardé environ 30% des propositions soumises par ChatGPT, aux différentes étapes de son processus. Concrètement, il sollicitait ChatGPT, qui en retour lui proposait des pistes auxquelles il n’aurait pas forcément pensé : « comme une dérive situationniste, la machine va à chaque fois m’emmener vers quelque chose de complètement inattendu. En fait, c’est comme quand je travaille avec mes coscénaristes. Comme je ne suis pas dans le cerveau de l’autre, il y en a toujours un qui arrive à une suggestion surprenante ». L’équivalent des writer’s rooms, ces salles d’écriture où se réunissent les scénaristes pour écrire les séries. Chez OpenAI, il existe même des paramètres permettant aux auteurs d’influer sur le degré d’inventivité et d’imprévisibilité des suggestions de ChatGPT, dont a bénéficié Simon Bouisson.



C’est donc principalement dans la génération d’idées que sert aujourd’hui ChatGPT, se plaçant davantage comme un outil de complément qu’un substitut aux scénaristes, comme l’affirme Mina Lee, ingénieure PhD à Stanford : « la machine ne va pas écrire à votre place mais elle va vous pousser à le faire ». C’est pourquoi les scientifiques travaillent sur de nombreux modèles de langage basés sur l’IA, attirant l’intérêt des géants du numérique. Par exemple, DeepMind, filiale d’Alphabet, maison-mère de Google, a créé Dramatron, un outil de coécriture capable de générer des descriptions de personnages, intrigues et dialogues. Microsoft, de son côté, s’est récemment engagé à investir 10 milliards de dollars supplémentaires dans OpenAI, d’après Bloomberg.

Mais pour comprendre l’impact de cette forme d’IA sur les pratiques d’écriture, il faut décomposer l’art de l’écriture en deux aspects : les compétences en écriture et l’intention communicative. Or si les modèles sont déjà capables de créer leur propre style, il leur manque encore indéniablement l’intention communicative, cruciale chez les humains, surtout pour des tâches créatives comme l’écriture de scénario. Le data scientist Yves Bergquist résume cela : « pour l’heure, le problème de ChatGPT, c’est la régurgitation de mots. Ce sont des mathématiques, de la prédiction. On est bluffé par le résultat, mais c’est l’humain, au fond, qui parle derrière la machine ». Autrement dit, le problème sera toujours le même : la machine ne comprend pas ce qu’elle régurgite. Des propos appuyés par le créateur de Siri, Luc Julia, pour qui le deep learning ne pourra jamais imiter le cerveau : l’humain a une capacité d’improvisation et d’abstraction que la machine n’aura jamais.

Il manque encore aux modèles de langage l’intention communicative, cruciale chez les humains


Mais au fait, qu’en pense le principal intéressé, ChatGPT ? Selon lui, les modèles de langage « peuvent aider les scénaristes à économiser du temps et de l’énergie en générant rapidement des idées, et les aider à explorer des pistes qu’ils n’auraient pas forcément considérées ». Ils peuvent ainsi aider les scénaristes mais ne les remplacent pas, puisque ceux-ci restent les créateurs et que les décisions créatives relèvent toujours de leur responsabilité. ChatGPT ferait-il de la langue de bois ? En creusant un peu, il ajoute : « La création de scénario nécessite une certaine dose de créativité et de compréhension de l’histoire et de la structure narrative. Les modèles de langage continueront probablement à s’améliorer et devenir de plus en plus avancés dans la génération de contenu, mais ils ne peuvent pas encore remplacer la créativité humaine et l’expérience professionnelle des scénaristes ». Ici, un mot interpelle, “encore” : les modèles actuels ne peuvent pas encore remplacer les scénaristes professionnels. Mais alors, quid dans un futur proche ? Peut-on envisager des scénarios entièrement écrits par des intelligences artificielles à terme ? Selon des chercheurs de l’Institut Jean-Nicod dans une tribune du Monde, il est tout à fait possible que ChatGPT dépasse un jour les humains en matière de compétences génératives, puisque ses modèles d’IA utilisent des milliards de textes pour produire des textes similaires au corpus sur lequel ils ont été formés.

Il est tout à fait possible que ChatGPT dépasse un jour les humains en matière de compétences génératives


La qualité des scénarios générés dépend de la qualité des données ingurgitées par la machine, qui ne lui permet pas encore de rédiger des scénarios de qualité professionnelle en autonomie. ChatGPT ne s’est encore entraîné que sur des textes libres de droit, donc pas sur l’intégralité des meilleures œuvres cinématographiques. Mais qu’en sera-t-il si tous les studios détenteurs de scripts décident de fournir aux IA leurs propriétés pour les alimenter et les entraîner ? Peut-on envisager un nouveau segment pour les distributeurs de propriété intellectuelle, qui consisterait à ouvrir leur catalogue et vendre leurs scripts aux éditeurs de modèles de langage ? Si tel est le cas, combien faudra-t-il de temps avant que les IA ne produisent des scripts du niveau des meilleures œuvres de l’humanité ? Récemment, c’est le média américain Buzzfeed qui a déclaré vouloir utiliser ChatGPT pour rédiger ses articles : résultat, une hausse de 150% de son action en bourse. Hollywood franchira-t-il un jour le pas ? Affaire à suivre…

Néanmoins, le mantra d’OpenAI est de protéger l’humanité d’une éventuelle IA mettant en danger sa survie et son progrès : pour ce faire, la firme compte bientôt rendre payant ChatGPT, limitant ainsi son usage à des sphères plus avisées. Son évolution devra donc être surveillée pour ne pas précariser le travail des scénaristes, et assurer leur pérennité. Quoi qu’il en soit, plus le temps passera, et plus les scénarios que nous verrons sur écran seront susceptibles d’avoir été conçus par des IA. Et même, comment être sûr que cet article que vous lisez n’a pas lui aussi été écrit par ChatGPT ?

Thomas Corver

Sources :

Chat GPT Proves that AI Could Be a Major Threat to Hollywood Creatives – and Not Just Below the Line, Yahoo Entertainment (décembre 2022)

The ChatGPT bot is causing panic now – but it’ll soon be as mundane a tool as Excel, The Guardian (janvier 2023)

https://www.theguardian.com/commentisfree/2023/jan/07/chatgpt-bot-excel-ai-chatbot-tech

Deep Fake Neighbour Wars: ITV’s comedy shows how AI can transform popular culture, The Conversation (janvier 2023)

https://theconversation.com/deep-fake-neighbour-wars-itvs-comedy-shows-how-ai-can-transform-popular-culture-198569

AI Panned My Screenplay. Can It Crack Hollywood?, Bloomberg (août 2022)

https://www.bloomberg.com/opinion/articles/2022-08-16/will-artificial-intelligence-ever-crack-the-code-for-hollywood-blockbusters

Intelligence artificielle : Sciences Po Paris interdit l’utilisation de ChatGPT à ses étudiants, France Info (janvier 2023)

https://www.francetvinfo.fr/internet/intelligence-artificielle-sciencespo-paris-interdit-l-utilisation-de-chatgpt-a-ses-etudiants_5625743.html

Post LinkedIn Pauline Rocafull (décembre 2022)

Pause séries : la fin de l’âge de la « Peak TV », Le Monde (septembre 2022)

https://www.lemonde.fr/culture/article/2022/09/16/pause-series-la-fin-de-l-age-de-la-peak-tv_6141927_3246.html

‘Snowpiercer,’ ‘Minx,’ ‘Dangerous Liaisons’ and Other Abrupt Cancellations Signal TV’s Latest ‘Reset Moment’, Variety (janvier 2023)

https://variety.com/2023/tv/news/snowpiercer-minx-cancellations-tv-reset-1235504910/

Growth in content investment will slump in 2023, Ampere Analysis (Janvier 2023)

https://www.ampereanalysis.com/press/release/dl/growth-in-content-investment-will-slump-in-2023

Aux Etats-Unis, la France va créer la Villa Albertine, une nouvelle résidence d’artistes, à l’automne, Le Monde (juillet 2021)

Il écrit son prochain scénario avec une I.A. Et le résultat le fascine, L’ADN (juin 2022)

https://www.ladn.eu/mondes-creatifs/ia-creativite-ecriture-scenario/

Dramatron, une IA signée DeepMind capable de générer un script de film, BeGeek (décembre 2022)

https://www.begeek.fr/dramatron-une-ia-signee-deepmind-capable-de-generer-un-script-de-film-376526

Microsoft Invests $10 Billion in ChatGPT Maker OpenAI, Bloomberg (janvier 2023)

https://www.bloomberg.com/news/articles/2023-01-23/microsoft-makes-multibillion-dollar-investment-in-openai#xj4y7vzkg

« Nous proposons l’appellation “quasi-texte” pour les séquences de mots produites par ChatGPT », Le Monde (janvier 2023)

https://www.lemonde.fr/idees/article/2023/01/30/nous-proposons-l-appellation-quasi-texte-pour-les-sequences-de-mots-produites-par-chatgpt_6159806_3232.html

How Artificial Intelligence Might Change the Way Hollywood Tells Stories, The Wrap (octobre 2018)

BuzzFeed just announced it’s going to use A.I. to start creating content—and the stock market loves it, Fortune (janvier 2023)

https://fortune.com/2023/01/26/buzzfeed-openai-artifcial-intelligence-stock-spac-facebook-meta-instagram/

La start-up OpenAI prévoit une version payante de son robot conversationnel ChatGPT, Le Figaro (janvier 2023)

https://www.lefigaro.fr/secteur/high-tech/la-start-up-openai-prevoit-une-version-payante-de-son-robot-conversationnel-chatgpt-20230111

L’avènement de l’Intelligence Artificielle dans les médias est-il une véritable avancée ?

Si l’Intelligence Artificielle est une technologie ancrée dans le débat public depuis maintenant quelques années, il semble désormais que l’avancée faite en la matière dessine un bouleversement des usages de plus en plus important dans de nombreuses industries, y compris les médias. ChatGPT, de l’entreprise Open AI, change en effet la donne sur les suspicions que pouvaient générer les chatbots d’IA du fait de nombreuses démonstrations réalisées, notamment dans les médias. En témoigne l’interview de ChatGPT lui-même dans la matinale de France Inter. Cet outil conversationnel défraye en effet la chronique, plaçant ainsi 2023 sous les auspices de l’IA. D’autant que dans le contexte actuel de crise que traversent les médias, les professionnels du secteur savent qu’il leur est impossible d’ignorer le potentiel innovant des outils d’IA dans la création de contenus. 

L’IA comme moyen de créativité et de renouvellement

Appliquées aux médias, ces nouvelles générations d’IA peuvent apporter de nombreux avantages dans un secteur où l’innovation constitue un levier clé. 

L’IA générative permet aux ordinateurs de créer des phrases mais aussi des images, des vidéos et même des mondes virtuels à partir de quelques mots de texte. Ces processus sont d’ores et déjà utilisés par plusieurs entreprises. C’est notamment le cas d’une start-up américaine, Semafor, qui a créé plusieurs vidéos de témoignages provenant d’Ukraine illustrées par les IA, faute de vraies séquences.

En France, les principaux acteurs de la presse écrite comme Le Monde ou L’Express y ont déjà recours. En effet, dans un contexte de guerre de l’attention, ces derniers investissent de plus en plus le terrain de l’audio et, pour ce faire, utilisent l’IA comme principale alliée. Cette technique, nommée « text-to-speech », propose une lecture automatisée des articles par le biais d’une IA qui transforme automatiquement le texte en audio. Grâce aux progrès effectués en la matière, les voix robotiques laissent de plus en plus la place à des voix de plus en plus performantes allant même parfois jusqu’au clonage de la voix d’un journaliste. 

Parallèlement, l’utilisation de « robots journalistes », permettant d’écrire des articles de qualité et répondant aux codes fondamentaux de l’écriture journalistique, est de plus en plus courante dans les rédactions. A noter que, pour l’heure, cela concerne principalement des sujets répétitifs comme la publication de rapports financiers ou de résultats sportifs. 

Source : Pexels.com

Par ailleurs, outre les grands organismes de presse nationaux et internationaux, les médias locaux commencent également à s’y intéresser de près. Deux principales raisons peuvent pousser les rédactions locales à progressivement adopter l’IA. D’une part, cela leur permettrait d’augmenter le nombre de sujets traités et par extension, le nombre de leurs lecteurs. D’autre part, l’IA pourrait donner la possibilité aux journalistes, peu nombreux dans ces rédactions, d’augmenter leur capacité de production d’articles et d’améliorer la qualité rédactionnelle de ces derniers.

La lutte contre les fake news, qui tendent à proliférer dans les multiples médias, constitue également l’une des capacités de l’IA. De nombreux systèmes d’analyse au service des journalistes et basés sur l’IA comme Neutral News ont vu le jour. Cette plateforme en ligne permet de mesurer la fiabilité d’une information grâce à un algorithme entraîné pour cela.

Un outil marketing puissant 

L’IA au service des médias ne se limite pas à la production de contenus, elle peut également être mise au profit du marketing, domaine important pour la promotion, la distribution mais aussi la fidélisation. En effet, de nouveaux outils d’IA générative promettent de le rendre plus efficace et efficient en produisant des produits marketing de qualité à travers la production de texte, d’images, d’audio ou encore des méthodes d’analyse. Parmi eux, nous retrouvons ChatGPT que le célèbre magazine The New York Times a utilisé pour analyser sa page d’abonnement dans le but de l’optimiser. L’expérience s’est déroulée comme suit. 

Il a suffi de demander à ChatGPT de se mettre dans la peau d’un spécialiste du marketing, de lui imposer un sujet et une langue spécifiques. La question d’ouverture lui a permis de définir son périmètre d’action. Ainsi, en l’analysant, il a alors pointé chaque élément de la page en traduisant l’impact que cela peut avoir sur le lecteur. En cas de nécessité, l’outil répond en émettant des recommandations afin d’améliorer quelques points du texte afin d’inciter à l’abonnement. En outre, ChatGPT a également démontré sa capacité à améliorer la qualité journalistique du texte à partir du texte donné et de consignes très succinctes. Le texte pouvant être modifié par l’IA jusqu’à ce qu’il convienne à l’initiateur de la demande.

Dans ce sens, l’IA peut également être une aide pour accroître l’engagement en personnalisant et en recommandant des contenus à son audience. En témoigne l’algorithme de Netflix qui, grâce à la collecte massive de données sur le comportement des utilisateurs, permet de leur recommander les programmes susceptibles de l’intéresser. 

L’utilisation de ces nouvelles technologies s’inscrit ainsi dans une stratégie d’amélioration de l’expérience utilisateur d’autant que la personnalisation est désormais devenue une attente standard du consommateur. 

Une réduction du temps de production et des coûts considérables

En rendant possible l’automatisation de tâches fastidieuses et chronophages comme la veille, la transcription d’interviews et vidéos ou encore la détection de fake news, l’IA se positionne pour les journalistes comme un outil d’optimisation du temps. En effet, en les déchargeant de ces tâches, les créateurs de contenus peuvent alors davantage se consacrer à la qualité et à la créativité du contenu éditorial tout en développant et en maintenant son audience.  

L’IA devient également un enjeu stratégique majeur du point de vue économique. Que ce soit dans la presse écrite, la télévision ou dans le secteur de l’audio, l’utilisation de l’IA promet de réduire considérablement les coûts engendrés par ces activités. C’est notamment la proposition d’Apple à travers le déploiement de son offre de livres audio. En utilisant une voix de synthèse produite par l’IA au détriment d’acteurs humains, cela permet à l’entreprise à la pomme de, non seulement produire davantage et à un rythme très soutenu, mais aussi de diviser le coût engendré par l’embauche d’acteurs humains. Dans l’univers de la télévision, des chaînes asiatiques grand public comme MBN mettent d’ores et déjà à l’antenne des jumeaux numériques de présentateurs afin de renforcer leur présence à l’antenne tout en réduisant leurs coûts. 

Source : Francebleu.fr – Capture écran MBN

Les dérives à ces pratiques….

Les avantages de ces IA sont donc susceptibles de mener à une multiplication de contenus automatisés ou semi-automatisés. Il s’agit alors de ne pas perdre de vue les nombreuses limites de l’utilisation de ces technologies. 

Tout d’abord, l’IA propose une solution pour détecter les deep fake mais en est également à l’origine. Ces photos ou vidéos truquées, générées par des machines, sont virales sur les réseaux sociaux. Pour preuve, une vidéo montrant Barack Obama prononcer un discours qu’il n’avait jamais tenu avait proliféré sur Internet. Cela peut ainsi contribuer à la création de fake news circulant dans les divers moyens d’information, renforçant le sentiment de défiance vis-à-vis des médias, déjà très présent.

Par ailleurs, le gain de temps engendré par ces technologies menant à cette multiplication d’articles automatisés augmente alors la probabilité de production de fausses informations. 

En outre, le contenu produit par ces intelligences artificielles peut être erroné, voire complètement infondé et dénué de nuances contrairement à un contenu écrit par un journaliste. De réels risques de perte de qualité existent alors au vu de l’évolution du marché, le lecteur ne sachant pas à partir de quoi un article est construit. Il s’agit ainsi pour l’humain et la législation d’être présents en amont et en aval afin de cadrer les applications de l’IA d’autant qu’une crainte d’être remplacés par ces outils émane de plus en plus de la part des journalistes. 

Pouvant néanmoins faire l’objet d’une régulation

L’utilisation de l’intelligence artificielle étant amenée à se multiplier dans les années à venir et au vu des limites énoncées plus haut, sa réglementation devient un enjeu majeur. 

Pour l’heure, les législateurs européens travaillent à l’élaboration d’une réglementation pour les modèles d’IA générative tels que ChatGPT pouvant conduire à davantage de responsabilité et d’éthique de la part des entreprises les fabriquant. En outre, l’Union Européenne prévoit la mise à jour de son règlement, l’AI Act, en intégrant l’obligation pour les entreprises d’expliciter le fonctionnement interne de leurs modèles d’IA. En cas de non-conformité à cette obligation, les entreprises se verront affublées d’une amende pouvant aller jusqu’à 6% de leur chiffre d’affaires annuel total mondial. 

Par ailleurs, cette réglementation peut également émaner des salles de rédaction elles-mêmes en imposant une certaine éthique dans un objectif de transparence et de respect du droit d’auteur.

Source : Unsplash.com

Maria Luciani

Sources :

Nic Newman, “Journalism, media, and technology trends and predictions 2023”, 10 janvier 2023 

https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions-2023

Marcela Kunova and Jacob Granger, “Predictions for journalism in 2023: AI and tech”, 16 décembre 2022 

https://www.journalism.co.uk/news/predictions-for-journalism-in-2023-ai-and-tech/s2/a991916/

“ChatGPT : le Holy Sh!t Moment”, 15 janvier 2023 

https://www.meta-media.fr/2023/01/15/chatgpt-le-holy-sht-moment.html

“En 2023, les médias expérimenteront davantage l’IA”, Marine Slavitch, 10 janvier 2023 / Mis à jour le 22 janvier 2023

https://larevuedesmedias.ina.fr/predictions-tendances-medias-2023-institut-reuters-intelligence-artificielle-abonnement-inflation-information-podcast-newsletter-climat

“Sept applications concrètes de l’IA dans les médias”, Nicolas Rauline, Elsa Conesa, 19 janvier 2019  

https://www.lesechos.fr/tech-medias/medias/sept-applications-concretes-de-lia-dans-les-medias-712708

“IA et création de contenus : Quand l’intelligence artificielle fait la Une des médias”, 09 novembre 2022

https://labodeledition.parisandco.paris/a-la-une/actualites/ia-et-creation-de-contenus-quand-l-intelligence-artificielle-fait-la-une-des-medias

“L’IA dans les médias, où en sommes-nous aujourd’hui ?”, Claudia Correia Martins, 20 avril 2022

https://explorers.mc2i.fr/articles/lia-dans-les-medias-ou-en-sommes-nous-aujourdhui

“La presse écrite systématise les versions audio de ses articles”, Stéphane Loignon, 09 janvier 2023

https://www.lesechos.fr/tech-medias/medias/la-presse-ecrite-systematise-les-versions-audio-de-ses-articles-1895324

“Here’s what happens when ChatGPT analyses the New York Times’ landing page”, Greg Piechota, 09 janvier 2023

https://www.inma.org/blogs/reader-revenue/post.cfm/here-s-what-happens-when-chatgpt-analyses-the-new-york-times-landing-page

“Calmos avec ChatGPT, il n’est pas si intelligent que ça !”, Marine Protais, 13 décembre 2022

https://www.ladn.eu/tech-a-suivre/chatgpt-sommes-nous-en-pleine-hallucination-collective/

“The EU wants to regulate your favorite AI tools”, Melissa Heikkilä, 10 janvier 2023

https://www.technologyreview.com/2023/01/10/1066538/the-eu-wants-to-regulate-your-favorite-ai-tools/

Le Winkyverse: l’avenir de l’éducation?

Avec les nombreuses avancées technologiques diverses et variées qui s’emparent de notre société d’aujourd’hui, le Winkyverse est une innovation qui vise à préparer et initier de manière ingénieuse les enfants ayant entre 5 et 12 ans au monde de demain.

Le Winkyverse : premier métavers dédié entièrement à l’éducation

Et si les technologies telles que l’intelligence artificielle, la blockchain ou les NFT pouvaient prendre part à l’éducation des enfants ? C’est à cette question qu’ont tenté de répondre des ingénieurs de l’école Polytechnique à Paris en créant en 2017 le Winkyverse, premier métavers dédié entièrement à l’éducation. L’objectif ultime de cette invention est d’initier les enfants à la programmatique, la robotique et à l’Intelligence Artificielle, tout en conservant un aspect ludique et pédagogique à l’apprentissage. De plus, le Winkyverse n’est pas dédié exclusivement à l’initiation à la robotique, mais sert aussi de plateforme d’apprentissage pour des matières dites plus « traditionnelles », comme les mathématiques, l’histoire, ou le français. Le Winkyverse cherche à rendre l’apprentissage plus dynamique et concret en stimulants les jeune d’une manière innovante.

Le Winkyverse fonctionne à travers trois grands éléments : un robot éducatif appelé Winky, une plateforme Winkyverse, et une cryptomonnaie nommée Winkie.

Le robot éducatif

Le Winkyverse se matérialise par un robot appelé Winky et possède un design simpliste et mignon, afin d’attirer les enfants tout en mettant en confiance les parents. Ce robot, qui coûte entre 150 et 250 euros, est aujourd’hui présent dans plus de 5000 foyers à travers l’Europe, et sera bientôt l’égérie de son propre dessin animé, qui sera distribué sur des chaines nationales comme Gulli, et internationales comme Disney Channel ou même sur la plateforme Netflix.

© medium.com  

              

@Winky on Facebook

La plateforme Winkyverse

La plateforme développée pour accéder aux diverses activités proposées s’appelle le Winkyverse. Cette plateforme propose des centaines de jeux éducatifs, dans un univers virtuel 3D.

Ce métavers est biface : d’une part, il sert de plateforme éducative pour les enfants, et d’une autre, il permet aux développeurs expérimentés ou non de créer de la richesse.  En effet, les utilisateurs ont la possibilité de personnaliser leur « Winky », qui est en fait leur avatar, et également de créer des jeux, des décors, des concepts, etc. qu’ils peuvent ensuite commercialiser et monétiser sous forme de NFT, grâce à la cryptomonnaie propre au Winkyverse appelée Winkie (WNK).

Ainsi, le Winkyverse est divisé en trois espaces :

  • L’espace WinkyPlay : cet espace permet aux utilisateurs de développer et créer leurs propres jeux éducatifs, qui seront ensuite disponible dans le Winkyverse. C’est dans cet espace que les développeurs experts peuvent mettre en pratique leurs compétences pour les revendre, ou bien que les jeunes débutants peuvent se lancer dans l’apprentissage d’une multitude de disciplines sous un format ludique et adapté.
  • L’espace WinkyMaker : cet espace permet aux utilisateurs de personnaliser leur Winky grâce à la technique d’édition du « drag and drop ». Il est également possible d’augmenter les capacités de son Winky pour procurer une meilleure expérience à l’utilisateur. Le créateur du nouveau Winky pourra ensuite le commercialiser sous forme de NFT, en le plaçant sur des marketplaces specialisées, accessibles via le système de la blockchain. Ce dispositif permet au créateur de générer des revenus sur chaque vente de NFT.
  • L’espace Winkyverse : cet espace est celui qui accueillera la cible principale du Winkyverse, c’est-à-dire les enfants âgés entre 5 et 12 ans, pour qu’ils puissent jouer tout en étant préparés et formés aux enjeux technologiques futurs.
L’espace Winkymaker @BitBabai / Twitter

L’idée est que l’écosystème soit innové et mis à jour constamment par ses propres utilisateurs, sans qu’il y ait besoin d’avoir recours à des développeurs ou artistes professionnels et donc sans avoir à les payer. Ainsi, le métavers génère de la richesse, et si le cours de la cryptomonnaie Winkie est aujourd’hui équivalent à €0.01207 (à date du 30/01), le Winkyverse reste l’ICO (Initial Coin Offering, ou offre initiale de jetons en français) la plus financée en France en 2021, avec des participations venant de plus de 15,000 investisseurs et dépassant les 20,000,000 d’euros.

Interopérabilité entre le Winkyverse et le monde réel.

Une des caractéristiques du Winkyverse est son interopérabilité avec le monde réel, notamment à travers le robot Winky. En effet, selon la popularité des créations des utilisateurs dans l’espace WinkyMaker, un Winky peut être créé et commercialisé de façon matérielle. De plus, les robots Winky pourront être contrôlés à travers le Winkyverse, et opérer dans le monde réel à travers des sons ou des mouvements. Par exemple, le robot sera capable de parler et de lire à voix haute une histoire créée dans l’espace WinkyPlay.

Quel succès pour le Winkyverse ?

Pour l’instant, l’évolution du Winkyverse est très prometteuse : le projet a été le plus financé sur la plateforme de crowdfunding Ulule, le robot Winky est devenu un best-seller en 2019 dans la catégorie des jeux éducatifs et est devenu présent dans plus de 5000 foyers en 5 ans, et le Winkyverse a fait plus de 250 parutions médiatiques dans les plus grandes chaînes de télévisions françaises, y compris au journal de TF1. En effet, il est clair que les nouvelles générations grandissent avec des écrans et sont de plus en plus sensibles aux interactions virtuelles. La question se pose alors de savoir si les techniques d’éducation traditionnelles restent adaptées, ou si du fait de grandir connectés, les enfants n’y sont plus réceptifs. De plus, les sujets liés aux nouvelles technologies tels que le codage, la robotique et les sciences informatiques semblent être de plus en plus importants à maitriser pour évoluer dans le monde de demain. Ces raisons peuvent expliquer le certain succès que connaît déjà le Winkyverse, qui apparaît comme une pratique prometteuse pour faire évoluer les méthodes d’éducation et pour toucher les enfants d’aujourd’hui.

De plus, le Winkyverse est une innovation qui paraît très encourageante du fait qu’elle se base sur de nombreuses technologies fortes. En effet, elle combine la robotique, l’intelligence artificielle, la programmation, les jeux vidéo, la réalité augmentée et la blockchain, qui font d’elle une innovation moderne et dans l’air du temps. Le marché de la technologie dans l’éducation est un marché en forte croissance et aux multi-milliards de dollars, notamment dans la région d’Asie-Pacifique, comme l’illustrent les graphiques ci-dessous.

Source: www.grandviewresearch.com

Cependant, le progrès technologique rapide effraie beaucoup de parents, qui sont sceptiques face à l’idée de mettre l’éducation de leurs enfants entre les mains de robots et d’univers parallèles.

Les obstacles du Winkyverse

Le principal obstacle qui s’oppose au succès planétaire du Winkyverse est la peur du grand public face aux avancées technologiques comme le métavers et la blockchain, restant en grande partie des concepts trop techniques et incompris par la majorité. Les parents sont réticents à l’idée de laisser leur enfant dans un univers 3D, en contact avec une monnaie virtuelle, qui est en fait de l’argent réel. De plus, les questions de l’addiction et de la déconnexion du monde réel inquiète fortement, comme le montre l’étude statista suivante, qui met en évidence la réponse d’une population de parents interrogés sur leurs principales appréhensions lors de l’achat d’un jouet connecté.

Pour faire face à cette crainte, les créateurs du winkyverse ont pensé à la solution du contrôle parental. En effet, c’est une alternative beaucoup utilisée dans ce qui touche aux enfants et aux objets connectés, et qui peut convaincre et obtenir la confiance de certains parents.  

Mais pour d’autres, au-delà d’une peur de l’addiction, il y a une peur de l’éthique derrière l’intelligence émotionnelle d’un robot. Comment s’assurer que les valeurs de l’éducation que proposera le Winkyverse seront « morales », et que le robot respectera la vie privée de ses utilisateurs lors de la collecte des données personnelles. Chez les enfants, l’anthropomorphisme, ou le fait d’attribuer à des objets des caractéristiques humaines, est très présent, et c’est pour cette raison que certains parents sont d’autant plus sceptiques sur les impacts que la possession d’un robot peut avoir sur les interactions sociales et humaines de leurs enfants.  

Alors est-ce que cette innovation futuriste connaîtra le succès que de nombreux investisseurs espèrent ? Les années à venir et la stratégie marketing des équipes de Mainbot, l’entreprise propriétaire du Winkyverse, seront déterminantes.

Article rédigé par: Louise BALDUCCHI

BIBLIOGRAPHIE :

Comment l’intelligence artificielle est-elle utilisée à des fins de marketing auprès du marché de la beauté?

Image : Perfect Corp.

L’intelligence artificielle est une technologie que l’on retrouve auprès d’innombrables industries : la médecine, la finance, l’art, la gastronomie, la robotique, le e-commerce, les réseaux sociaux, le marketing, etc. Ses utilisations sont exponentielles et permettent d’exploiter les données de façon inédite et efficace. Les capacités de cette technologie sont aujourd’hui au cœur des stratégies de marketing digital en ce qui à trait à la recommandation et la personnalisation de l’offre de divers produits.

En effet, d’après le plus récent rapport de McKinsey, The State of AI in 2021, 56 % des personnes interrogées font mention de l’adoption de l’IA dans au moins une fonction de leur entreprise, contre 50 % en 2020. Grâce à ses qualités, l’IA permet de créer des expériences numériques plus riches et plus personnalisées pour les consommateurs, c’est entre autres pour cela qu’elle est préconisée auprès de diverses industries.

Mais qu’est-ce que l’intelligence artificielle ?

D’après IBM, “ L’intelligence artificielle exploite les ordinateurs et les machines pour imiter les capacités de résolution de problèmes et de prise de décision de l’esprit humain.” Sa particularité clef est que l’intelligence artificielle ne doit pas se limiter à des méthodes biologiquement observables comme un humain, ce qui permet d’aller plus loin dans les conclusions. Le tout grâce à la création d’algorithmes complexes et la collecte de nombreuses données, une règle peut être établie pour résoudre ou soutenir une problématique déterminée. Il s’agit d’algorithmes qui sont interprétés de plusieurs façons, et qui ont des utilités très différentes d’un secteur à l’autre : que ce soit pour accéder à un bâtiment grâce à la reconnaissance faciale, conduire une voiture autonome ou lorsque vous discutez avec un chatbot sur un site internet, ceux-ci sont des exemples d’intelligence artificielle dit faible que l’on retrouve au quotidien. Il existe aussi l’intelligence artificielle forte qui est toujours très théorique à ce jour. Un exemple de celle-ci serait illustré par une machine ayant une intelligence égale à celle des humains où celle-ci aurait une conscience de soi capable de résoudre des problèmes, d’apprendre et de planifier l’avenir.

Comment cette technologie est-elle appliquée dans le marché de la beauté ?

L’IA est donc un outil très pertinent à des fins de marketing, car les algorithmes sont basés sur d’innombrables données. Celles-ci permettent de savoir l’âge, le sexe et surtout les préférences d’un individu afin de lui proposer une offre personnalisée et complète.

Recommandation personnalisée de soins et de produit :

Le machine learning, un dérivé de l’intelligence artificielle, peut être utilisé pour analyser le teint, la structure du visage et le type de peau d’un individu. Grâce à la collecte de données par le biais de questionnaires, il est aussi possible d’affiner la recommandation selon les réponses du client. C’est alors que l’algorithme analyse les données pour, par exemple, fournir une routine de soins de la peau qui s’aligne sur les objectifs de l’individu tout en tenant compte de ses caractéristiques physiques. 

C’est la stratégie de la marque de soin Curology qui propose des solutions personnalisées de soins de la peau, grâce à l’IA et au machine learning, destinées spécifiquement aux personnes souffrant d’acné. Cette marque réunit des médecins praticiens et des développeurs d’applications pour fournir un service de conseils dermatologiques. Les utilisateurs partagent des selfies et remplissent un questionnaire dans leur application mobile. Ils sont ensuite mis en relation avec des professionnels de la santé qui conçoivent des formules personnalisées pour cibler les besoins individuels en matière de soins de la peau.

Image : Curology

Une autre application de la technologie se trouve chez Kura Skin. Il s’agit d’une boîte d’abonnement trimestrielle qui propose une routine complète et sur mesure – du nettoyant à la crème solaire. Les données collectées sont utilisées pour « connecter les clients aux produits qui fonctionnent et confectionner des routines de soins de la peau très performantes qu’ils n’auraient jamais assemblées par eux-mêmes » explique Katrina Moreno Lewis, fondatrice et PDG de Kura Skin. Ces données sont enregistrées grâce à un questionnaire et analysées par un algorithme qui examine plus d’un million de possibilités et trouve la meilleure combinaison de produits pour les caractéristiques uniques de la peau, le climat, les objectifs et le budget du client.

Image : Kura Skin

Essai virtuel des produits :

Grâce à l’intelligence artificielle, les clients peuvent essayer virtuellement des milliers de produits. Ils peuvent porter virtuellement des cosmétiques tels que du rouges à lèvres, du fond de teint, du gloss et de l’ombre à paupières, etc. sans avoir à enlever la teinte existante et à en essayer une nouvelle. Les utilisateurs peuvent facilement voir comment les produits se porte par le biais d’une photo ou d’une capture vidéo. Cela contribue à améliorer l’expérience d’achat des clients, particulièrement en cette période de crise sanitaire où plusieurs ont un accès restreint aux points de vente physique et où les mesures d’hygiène sont plus strictes que jamais.

Image : Perfect Corp.

Plusieurs compagnies beauté offrent la technologie d’essai virtuel : l’Oréal Paris, Lancôme, Maybelline, NYX Cosmetics, etc. Bien que l’utilisation de l’IA soit présente sur la majorité des plateformes de beauté, les applications se démarquent par la diversité de leur offre et la gamme de produits proposée à l’essai. Le précurseur de cette technologie est la compagnie Perfect Corp. qui se spécialise dans la création d’applications de réalité virtuelle et d’IA dédiées aux cosmétiques.

La technologie phare de Perfect Corp. est l’application YouCam Makeup créée en 2014 qui permet aux utilisateurs d’essayer des échantillons virtuels de plus de 300 marques internationales, dont celles des conglomérats de beauté Estée Lauder et L’Oréal Paris. Aujourd’hui, YouCam Makeup compte entre 40 et 50 millions d’utilisateurs actifs mensuels et s’est développée au-delà des selfies augmentés pour inclure des livestreams et des tutoriels d’influenceurs de la beauté, des fonctions sociales et une fonction « Skin Score ».

Image : M·A·C Virtual Try-On

Vendu dans plus de 130 pays à travers le monde, MAC Cosmetics est l’une des entreprises de beauté les plus prolifiques et qui a dernièrement adhéré à l’utilisation de l’essai virtuel de produit sur ses plateformes. Quel que soit le point d’entrée de ses clients, que ce soit en ligne, en magasin ou sur les médias sociaux, MAC Cosmetics utilise une approche omni-canal pour s’assurer que ses expériences d’essayage virtuelles sont accessibles.

Il y a quatre ans, en collaboration avec Perfect Corp. et leur application YouCam, MAC Cosmetics a commencé ses offres d’IA et RV pour offrir à ses clients une expérience d’essai virtuel de plusieurs de ses produits pour les yeux et les lèvres. La réaction des clients a été si positive que MAC propose désormais plus de 1 700 de ses produits. Depuis le déploiement de la technologie de correspondance des teintes et d’essayage virtuel le géant des cosmétiques MAC a bénéficié d’une augmentation de 200 % de l’engagement des clients au cours du premier mois et d’une  » forte conversion « , prouvant que l’ajout de ces technologies sont une stratégie marketing efficace et réussie.

Article rédigé par Magalie Lussier-Letourneau

Sources :

Le futur de la santé se situe avec l’IA

Le développement de l’intelligence artificielle permet d’entrevoir un avenir prometteur pour l’E-santé. Nombreux sont les avantages que permettrait l’instauration d’une telle technologie dans le milieu médical. Ce marché, qui s’ouvre pour les entreprises spécialisées dans l’IA, promet une croissance rapide tant le secteur est demandeur de progrès et de gains de productivité.

L’algorithme au service de la santé

Les algorithmes développés avec l’intelligence artificielle pourraient permettre des gains de temps considérables dans la reconnaissance de symptômes. Les premières avancées ont été remarquées dans l’imagerie médicale et la dermatologie. La reconnaissance d’image automatisée permet d’apporter une assistance précieuse aux médecins en les aidant à identifier des symptômes rapidement. Rendue possible par une puissante recherche de corrélations avec des milliards de données, cette assistance deviendra donc, à terme, le prolongement du médecin.

L’oncologie est assurément le secteur de la santé sur lequel de gros progrès sont attendus. La reconnaissance de mélanomes et la personnalisation du traitement du patients bénéficie déjà du développement de l’IA même si de nombreux progrès restent à faire et que la technologie est encore trop jeune pour être fiable à 100%. Ces avancées ne concernent pour l’instant que quelques pathologies mais nous devrions voir dans les années à venir une technologie plus puissante et plus sûre.

Explorer des terrains inconnus ou méconnus

L’intelligence va donc permettre d’apporter des gains de productivité sur ce que le secteur médical sait déjà faire. En revanche, la vraie promesse de l’intelligence artificielle se situe surtout sur la compréhension de sujet que l’homme ne maîtrise pas ou ne connait pas du tout. La mise en corrélation de milliards de données pourra faire ressortir des points que nous n’aurions pas imaginer ou pourra mettre en lumière des sujets trop flous pour être correctement traités actuellement.

Lors de la conférence Netexplo de 2018 durant laquelle des prix sont décernés à des entreprises sur l’impact de la technologie dans la société, trois des dix lauréats entreprennent dans l’intelligence artificielle sur le secteur médical. Le projet australien Stentrode vise notamment à rendre possible le contrôle d’un exosquelette par la pensée, sans implant d’électrodes dans le cerveau. L’absence d’implant permet d’éviter les infections ou les rejets. Il faut donc être capable de capter les signaux électriques et de les associer avec des mouvements. L’intelligence artificielle avec le machine learning seraient capable de remplir de telles fonctions. Un autre lauréat propose, lui, d’installer une caméra dans une prothèse de bras afin de détecter l’objet à attraper et d’adapter la prise en fonction. Le machine learning et la comparaison de l’image avec une banque de donnée immense pourraient permettre de développer cette technologie de façon précise et efficace.

Améliorer le processus d’hospitalisation et de consultation

Le temps d’attente dans les hôpitaux est pointé du doigt depuis des années, soulevant des questions sur l’efficacité du processus que suit un patient tout au long de son parcours médical ou sur le nombre de personnes employés dans les établissements médicaux. L’instauration de l’intelligence artificielle au sein même de ce processus pourrait permettre une gestion optimale des emplois du temps et de la priorisation des tâches réalisées par le personnel médical. Des gains de temps et de productivité considérables pourraient ainsi être réalisés.

Dans son livre de fiction “Marseille 2040 – Le jour où notre système de santé craquera”, le journaliste Philippe Pujol décrit même une refonte complète du système médical actuel. Il imagine des médecins constamment accompagnés d’un assistant vocal via une puce, les aidant dans la gestion de leur emploi du temps et par l’établissement de pré-diagnostics en analysant des symptômes en amont des consultations. A quelle point se rapprochera-t-on de cette fiction ?

L’innovation et la gestion des données

Les start-ups représente une source d’innovation constante pour n’importe quel secteur d’activité. Tous les jours de nouveaux entrepreneurs souhaitent apporter des innovations majeures dans le milieu de la santé. Sur les cinq dernières années, le cabinet CB Insight a relevé 481 accords conclus entre des start-ups et des professionnels de la santé. Le montant total que représentent ces investissements est estimé, selon le cabinet, à 3.6 milliards d’euros. En revanche beaucoup de jeunes pousses françaises se retrouvent confrontés à un problème lorsqu’elles souhaitent accéder aux données sur la santé de français.

L’accès aux données médicales est extrêmement protégé et contrôlé. Si une entreprise veut accéder à ces données elle doit répondre à un motif d’intérêt public et montrer patte blanche. Il faut déposer un dossier qui sera traité par plusieurs autorités différentes, le processus pouvant être long, voire trop long pour une start-up. De plus, la numérisation des différents travaux médicaux n’est pas optimale en France, ce qui appauvrit la quantité des données disponibles. Hors avec l’intelligence artificielle, quantité rime avec qualité puisque la technologie a besoin du nombre de données le plus grand possible afin d’être précise et pertinente. L’accès aux données médicales en France est donc un sujet important à traiter si l’on veut que les jeunes entreprises françaises puissent innover dans l’hexagone et ne partent pas dans des pays où l’environnement sera plus propice à leur développement.

Hugues Morinet

Intelligence artificielle et aéronautique

Avec un revenu de 5,42 milliards de dollars aujourd’hui et de 59,7 milliards estimés pour 2025, l’intelligence artificielle connait une croissance exponentielle et touche tous les secteurs, de la domotique à l’environnement en passant par la finance. Près de 1550 startups dans le monde en ont fait leur coeur de métier. L’aérien n’est pas en reste : de nombreuses innovations ont vocation à changer la vie des usagers d’un côté, et des professionnels du secteur de l’autre. 

Intelligence artificielle et aéronautique avancent désormais ensemble dans la modernisation du secteur aérien. Se présentant comme la quatrième révolution industrielle, l’IA est considérée par de nombreux spécialistes comme le futur bouleversement que connaîtra notre société, semblable au numérique et à Internet. Dépendant notamment de la technologie dite du « machine learning », l’intelligence artificielle apprend d’elle-même et évolue seule, ce qui lui permet de pouvoir répondre à un maximum de sollicitations. 

De l’embarquement à la douane

Sébastien Couturier, responsable du pôle d’innovation d’ADP, a expliqué lors du AI Business Day d’Octobre 2018 la volonté d’entraîner le groupe Aéroports de Paris dans cette voie. Ailleurs dans le monde, différentes initiatives sont lancées en ce sens, à l’image des aéroports Changi à Singapour ou Logan à Boston bénéficient de technologies au service des usagers pour faciliter l’expérience et répondre à la croissance exponentielle du nombre de passagers. L’embarquementbiométrique, une des principales innovations, permet de reconnaitre les passagers sans le contrôle d’être humain, et permet de fluidifier le trafic.

En Europe, c’est une initiative soutenue par l’Union Européenne qui rentre en période de test dans plusieurs aéroports visant à fluidifier le trafic dans un passage stratégique : la douane aéroportuaire. Nommée « iBorderCtrl », cette intelligence artificielle se présente sous la forme d’une reconnaissance faciale et de documents. Le passager donne ses papiers d’identité et doit répondre à des questions via l’interface, et grâce à une analyse très perfectionnée permettra de dire si ce dernier ment.

Dans un second temps, l’intelligence artificielle aide le travail des professionnels de l’aérien, en sol comme en vol. Des technologies permettent de gérer au mieux les vols et la flotte disponible d’une compagnie selon des critères définis, comme l’expérimente la compagnie aérienne américaine Southwest Airlines, qui utilise ces technologies pour optimiser la consommation de kérosène avec les personnels navigants techniques et reprogrammer les vols de manière optimale en cas d’aléas avec le personnel au sol.

De nombreux enjeux

Ces différents projets soulèvent différents enjeux dans un secteur du transport aérien en pleine reconstruction suite à la crise de ces dernières années. Le premier est marketing : l’intelligence artificielle se trouve être à la croisée entre un phénomène de pop-culture et la nouvelle technologie. Cette dernière s’avère être un atout dans la communication de ces entreprises, renforçant l’image des acteurs de ce marché tout en les maintenant à la pointe et en garantissant la satisfaction des usagers. Au delà du volet de la sécurité et de la fluidité du trafic, l’IA est considérée comme un argument de vente par les différents transporteurs. 

Le transport aérien, en tant que secteur se voulant à la pointe des usages des passagers a tout intérêt d’aller en ce sens, en prolongeant l’expérience digitale de la réservation du billet chez soi à l’embarquement dans l’avion, en passe d’être automatisé. Ces innovations présentent cependant des risques pour le personnel technique, voyant d’un mauvais oeil ces ordinateurs à des postes à risques tels que la douane. Il n’y a donc qu’un pas entre la situation actuelle et le concept de singularité selon lequel un « emballement technologique » emmènerait l’IA vers une croissance qui induirait des changements imprévisibles sur la société humaine, et ainsi aux portes de la science fiction. 

Science fiction qui est aujourd’hui de plus en plus proche : l’avionneur Boeing a affirmé lors du précédent Salon du Bourget vouloir introduire de l’IA dans les cockpits dans le but de créer les premiers avions de ligne autonomes. Intelligence artificielle et aéronautique font plus que jamais bon ménage, affaire à suivre. 

Jacques-Antoine Lando

L’intelligence artificielle dans le domaine de la traduction: quelles conséquences sur les médias?

L’intelligence artificielle est aujourd’hui omniprésente et promet des changements radicaux dans la manière dont seront abordés divers domaines dans les prochaines années. Il est intéressant de se pencher sur l’utilisation de telles techniques dans le secteur de la traduction. On essaie aujourd’hui de doter la machine de caractéristiques profondément humaines afin de lui permettre de développer des capacités de compréhension et de restitution semblables à celles d’un être humain.

Depuis quelques années, les intelligences artificielles de traduction sont de plus en plus développées. Ainsi, Google, Facebook et Microsoft – entre autres – se sont dotés d’un système de « traduction neuronale ». Il s’agit d’une technologie reposant sur du « deep learning » : un réseau de neurones artificiels apprend au fur et à mesure grâce à des données et essaie de reproduire, le plus fidèlement possible, le fonctionnement du cerveau humain. Ainsi, Google, par exemple, a lancé en novembre 2016 « Google Neural Machine Translation ». Cette technique basée sur la traduction neuronale a permis de réduire les erreurs de traduction jusqu’à 85% par rapport à « Google Traduction ». En effet, contrairement à « Google Neural Machine Translation », « Google Traduction » n’est pas très fiable dans la mesure où il se base sur le big data, traduit automatiquement des phrases revenant le plus souvent dans sa base de données sans développer une approche globale de la phrase créant ainsi de nombreux contresens.

Le futur de la traduction semble être donc entre les mains de la traduction neuronale : cette technique, aujourd’hui principalement utilisée par les services classiques de traduction pourrait, demain, révolutionner le monde des médias.

 

Quelles sont les conséquences sur les médias de la présence du développement de l’intelligence artificielle dans la traduction ?

 

Concernant les livres, une intelligence artificielle est, en ce moment, pensée au Japon afin de traduire des œuvres de littérature. Ainsi, en mai 2017, Media DO – un distributeur d’e-books japonais – a indiqué qu’il s’associait à deux entreprises nationales spécialisées dans l’intelligence artificielle. Ces entreprises – « Internet Research Institute » et « Al Squared » devraient permettre à Media DO de proposer des services de résumés et de traduction automatique de ses e-books. Ainsi, Media DO souhaite tout d’abord créer des résumés de livres à publier sur son site internet grâce à une intelligence artificielle qui analyserait les relations entre les différents mots et phrases d’un texte donné et qui saurait en faire ressortir les principales notions, les mots clés. Par ailleurs, concernant la traduction, Media DO a pour objectif de proposer sur sa boutique en ligne un service de résumés traduits automatiquement en anglais. Dans un premier temps et afin de s’internationaliser, l’entreprise compte proposer une traduction de résumés du japonais à l’anglais. Par la suite, à plus long terme, l’entreprise voudrait traduire des e-books entiers en anglais.

Dans le domaine de la vidéo, une entreprise française, Mediawen, développe une solution de traitement et de doublage de vidéo automatique. En se basant sur l’intelligence artificielle, la start-up parisienne travaille sur la réalisation de sous-titrages. Ainsi, sous-titrages multilingues, transcriptions, doublages automatiques et voice-over sont proposés par Mediawen dans divers domaines. La start-up développe également un nouveau modèle de diffusion afin de s’internationaliser : elle se base sur un service cloud de diffusion mondiale et non pas sur un classique modèle de licences, perçues comme étant trop chères et n’offrant pas assez de souplesse. Selon Mediawen, sa solution basée sur l’intelligence officielle lui permet de réduire de 60% le temps passé en traduction par rapport à une entreprise classique. La start-up se vante également de pouvoir aujourd’hui travailler en soixante langues.

Concernant le doublage, on peut imaginer que d’ici quelques années, l’intelligence artificielle permettra de développer des technologies relatives aux assistants personnels ou encore au doublage de films. Par ailleurs, concernant le divertissement, des voix de synthèse pourraient permettre de remplacer les voix humaines pour la lecture de livres audio par exemple. En septembre 2017, « Google DeepMind » – filiale britannique d’intelligence artificielle d’Alphabet – a mis au point une méthode permettant de reproduire la voix humaine, par le biais de réseaux de neurones à la synthèse vocale. Ainsi, on peut rêver d’un futur où films, journaux télévisés internationaux ou encore émissions de divertissement seraient doublés, en temps réel, grâce à l’intelligence artificielle et aux systèmes de voix de synthèse aujourd’hui en développement.

La traduction orale semble donc être la dernière étape de la révolution de l’intelligence artificielle dans le domaine de la traduction. Cela consiste à traduire simultanément des dialogues soit dans le cadre de conversations par téléphone ou vidéo entre amis, soit dans un cadre plus professionnel permettant ainsi la traduction orale de conférences, de séminaires etc. Des prototypes d’intelligence artificielle pour la traduction orale existent. Ainsi, Skype, Waverly Labs ou encore Pilot – ce dernier développant une intelligence artificielle pour des oreillettes permettant la traduction simultanée – ont pensé à des techniques. Par ailleurs, Alex Waibel, professeur à l’Institut technologique de Karlsruhe entend également traduire ses conférences grâce à l’intelligence artificielle. Cependant, ces prototypes sont encore très perfectibles. Les entreprises se heurtent à deux principales difficultés. Tout d’abord, la traduction en elle-même demande une précision et une compréhension très poussées d’un discours. Cela est extrêmement complexe à aborder. Ensuite, il est très difficile de reconnaître la parole et donc de la transcrire en texte pour pouvoir la traduire par la suite : la spontanéité du langage peut bloquer l’intelligence artificielle. De fait, lors d’une prise de parole, on devra toujours faire face aux « intonations », aux « ponctuations », aux « hésitations dans un dialogue » comme l’a souligné le professeur Besacier de l’Université Grenoble-Alpes.

Malgré toutes les technologies actuellement en développement et les importantes conséquences des méthodes d’intelligence artificielle de traduction sur les médias, rien ne vaut – pour le moment – un traducteur humain. En effet, cela a été démontré en Corée du Sud où a eu lieu – en 2017 – une confrontation entre quatre traducteurs professionnels humains et trois programmes de traduction à base d’intelligence artificielle. Les participants avaient 50 minutes pour traduire quatre textes. Et le moins que l’on puisse dire, c’est que la machine n’a pas encore dépassé l’homme! Selon les organisateurs de la compétition, les intelligences artificielles font des erreurs grammaticales, ne comprennent pas suffisamment le contexte et surtout ont du mal à saisir les nuances et les émotions dans les textes. Alors, l’intelligence artificielle saura-t-elle résoudre cela et se présenter comme un concurrent à la hauteur de l’humain? Affaire à suivre… 

Claire Maîtrot

L’intelligence artificielle au service de la publicité

Chaque jour, plus de 30 millions de mobinautes utilisent des applications et se retrouvent confrontés à des écrans figés par les publicités interstitielles. Face à cette pression publicitaire qui se fait de plus en plus présente, les consommateurs sont nombreux à s’équiper d’ablockers, on dénombre 419 millions d’utilisateurs en 2016[1]. En France, le phénomène est croissant bien qu’encore assez faible. 7% de la population a installé un bloqueur de publicité ou un outil similaire. Récemment le CSA a estimé que 15% de la population souhaite s’équiper d’un bloqueur [2]de publicité pour se protéger face à la pression publicitaire. Ce phénomène pourrait représenter un manque à gagner important pour les annonceurs et éditeurs. Le cabinet Jupiter Research, estime que la perte pourrait atteindre la colossale somme de 28 milliards de dollars à l’horizon 2020. Depuis l’éclatement de la bulle internet, les revenus publicitaires en ligne ont chutés, et les acteurs du marché ce sont surtout concentrés sur les solutions de retargeting et la performance pour maintenir des CPC ou CPM significatifs[3].

Il va s’en dire que les adblockers pousse le marché de la publicité à se renouveler et dessinent de nouveaux enjeux. Depuis quelques années, le RTB et le programmatique se sont développés et renouvelés pour proposer des plateformes d’achats publicitaires dotées d’intelligence artificielle. Le programmatique permet d’effectuer des achats d’impressions en 150 millisecondes et génère des flux de données considérables, qu’une intelligence humaine ne peut assimiler et analyser. Le recours à l’intelligence artificielle est donc de plus en plus commun et le deep learning permet de cibler avec de plus en plus de précision les profils clients. Pour Eric Clemenceau, directeur de Rocket fuel, ces technologies permettent de sortir du ciblage sociaux-démographiques assez classiques et d’associer un véritable profil à une impression. C’est également l’occasion pour les annonceurs d’optimiser leur investissement puisqu’une entreprise comme Rocket Fuel est capable de faire de la vente en temps réel en y associant du big data.[4] Ce qui signifie qu’il y a la possibilité d’acheter une quantité d’impression importante, tout en acquérant des données précises sur le comportement et l’engagement des prospects[5].

Grâce à ces analyses, les annonceurs identifient non pas un profil par consommateur mais plusieurs profils, la notion de moment, prend de plus en plus d’importance. On souhaite toucher la bonne personne, au bon moment et sur le bon device. Ce sont des données qui ont une importance croissante, dans la mesure ou nos usages varient en fonction des moments de la journée. Un internaute, n’a pas les mêmes envies un lundi soir ou un samedi soir, il n’y aurait pas d’intérêt à l’exposer deux fois aux mêmes campagnes. Ce sont autant d’élément que l’intelligence artificielle permet d’analyser en croisant les données[6].

L’intelligence artificielle n’est pas utilisée qu’au sein du marché programmatique, IBM est actuellement en phase de test pour proposer un outil de ciblage également basé sur IA. Il y a quelques années, IBM développe son programme informatique d’intelligence artificielle capable de répondre à des questions en langage naturel[7]. Après avoir racheté la Weather Company, IBM se lance dans une phase de test pour faire de la publicité cognitive. En se basant sur les données, la météo, et les questions de l’internautes, IBM souhaite développer des publicités interactives. Le projet est encore jeune, mais le groupe a déjà signé des partenariats avec GFK, et la marque de soupe Campbell. L’internaute, pourra interagir avec ses publicités et en fonction de la météo, des ingrédients en leur possession, une recette de soupe sur mesure sera proposée.

Ce type d’avancée représente un moyen de s’éloigner de la publicité intrusive en ligne. Les GAFA[8] dont le modèle économique repose majoritairement sur la publicité, s’intéressent de plus en plus à la question de l’intelligence artificielle. Google développe sa propre activité dans ce domaine grâce à sa filiale du Deep Mind et le service Amazon Echo est également doté d’une intelligence artificielle[9].

Enfin, plus récemment, Axelle Lemaire secrétaire d’état en charge du numérique et de l’innovation lance la mission « France IA » avec pour objectif de définir une stratégie nationale et identifier les atouts du secteur[10].

 

 

Anne-Laure Duperval

[1] http://www.journaldugeek.com/2016/06/02/adblockers-mobile/

[2] https://www.csa.eu/fr/survey/adblocking-la-necessite-d-un-new-deal

[3] http://www.journaldunet.com/ebusiness/publicite/1164357-adblockers-l-iab-fait-son-mea-culpa/

[4] https://hubinstitute.com/2014/08/lintelligence-artificielle-au-service-lachat-despace-publicitaire-hubforum/

[5] http://lareclame.fr/rocketfuel-interview-minute-eric-clemenceau-163606

[6] http://lareclame.fr/rocketfuel-interview-minute-eric-clemenceau-163606

[7] http://www.journaldunet.com/ebusiness/publicite/1187637-ibm-watson-met-de-l-intelligence-artificielle-tans-ses-pubs/

[8] http://digitalpost.ddb.fr/lintelligence-artificielle-quels-benefices-pour-les-marques-et-leurs-consommateurs/

[9] http://digitalpost.ddb.fr/lintelligence-artificielle-quels-benefices-pour-les-marques-et-leurs-consommateurs/

[10] http://www.zdnet.fr/blogs/green-si/engageons-la-reflexion-sur-l-avenir-de-l-intelligence-artificielle-39847462.htm

Quitter la version mobile