La consolidation du secteur des télécommunications en Europe, est-elle inévitable ? 

« Trop d’acteurs sur un marché pèsent sur les investissements dans les infrastructures de demain ». La directrice générale d’Orange, Christel Heydemann, souligne par cette phrase, la volonté de recomposer le secteur des télécoms en Europe. Nous allons à travers cet article explorer la situation actuelle, examiner les défis et solutions, tout en mettant en lumière la question de la consolidation du secteur comme option privilégiée.

Un marché des télécommunications soumis à d’importantes forces concurrentielles.

Un marché atomisé dans toute l’Europe.

Premièrement, le marché des télécommunications en Europe est caractérisé par une fragmentation notable, avec une intensité concurrentielle extrêmement élevée. Cette situation se manifeste par la présence de nombreux acteurs à travers les différents pays du continent, où l’on observe fréquemment plus de trois opérateurs par pays. En Europe, on compte ainsi une centaine d’opérateurs pour une population totale de 447 millions de citoyens, tandis que les États-Unis ne comptent que trois opérateurs pour 331 millions d’habitants, et la Chine présente un chiffre similaire pour une population de 1,4 milliard de personnes.

Des perspectives de croissances limitées.

Deuxièmement, les opérateurs évoluent dans des secteurs de plus en plus matures, comme le démontre le graphique de l’ARCEP ci-dessous, où la croissance des revenus des opérateurs français sur le marché de détail n’a augmenté que de 1,6 % en un an, au deuxième trimestre 2023. Les opérateurs européens et notamment français n’évoluent pas sur des secteurs en hypercroissance.

Evolution annuelle des revenus des opérateurs en France (en %)

Source : Observatoire des marches des communications électroniques – Les services de communications électroniques en France – 2e trimestre 2023 (05 octobre 2023) (arcep.fr)

Une intensité concurrentielle qui entraine une guerre de prix féroce.

Troisièmement, les prix pratiqués en Europe par les opérateurs restent très compétitifs et significativement inférieurs à ceux proposés outre-Atlantique, comme le démontre le graphique ci-dessous :

Comparaison des offres fixe et mobile d’opérateurs leaders Sélection de pays, septembre 2023, € TTC/mois, ajustements PPA via coefficients de l’OCDE

Source : Fédération Française des Télécoms Plaquette-FFTelecoms-Etude-economique-Telecoms-2023.pdf

Cette concurrence intense oblige les opérateurs à comprimer leurs marges, ce qui limite leur rentabilité et leur capacité d’investissement. Ces tensions sur les prix entraînent des répercussions directes sur la rentabilité des acteurs et donc de facto sur la capitalisation boursière des opérateurs télécoms.

Des investissements futur conséquent dû à la croissance exponentielle du trafic et des usages.

Quatrièmement, les telcos auront dans les années à venir une demande croissante en investissement en raison du déploiement des futures technologies et de l’explosion attendue du trafic. Selon une étude récente de la Fédération Française des Télécoms, le trafic Internet en France pourrait quintupler d’ici à 2030, ce qui nécessiterait d’importants investissements futurs.

Haut Débit fixe – Consommation de données par foyer Go/mois/foyer – France

Fédération Française des Télécoms  Plaquette-FFTelecoms-Etude-economique-Telecoms-2023.pdf

Cependant, cette hausse des investissements entraîne une augmentation de la taille critique à atteindre pour les opérateurs. Jacques Barrot, ministre délégué chargé de la transition numérique et des télécommunications, estime qu’environ 200 milliards d’euros d’investissements seront nécessaires d’ici à 2030 pour que le continent bénéficie d’infrastructures de télécommunications au plus haut niveau. Actuellement, peu d’acteurs sur le marché ont la capacité financière nécessaire pour supporter de tels investissements.

Un morcellement des réglementations entre pays de l’Union européenne.

Enfin, déjà dès 2015, le PDG d’Orange de l’époque, Stéphane Richard, soulignait une fragmentation dans la réglementation des télécommunications en Europe, déclarant que « l’Europe des télécoms n’existe pas » en raison des 28 marchés, 28 régulateurs et 28 autorités de concurrence différents. Pour rappel, à la fin de 2020, la plupart des États membres n’avaient pas encore transposé la directive du code des communications électroniques européen.

En conclusion, l’état actuel du marché européen des télécommunications présente des défis significatifs, notamment une intensité concurrentielle extrêmement forte due au nombre élevé d’opérateurs dans chaque pays européen. Cette dispersion entrave la coordination nécessaire pour créer des acteurs de premier plan capables de rivaliser à l’échelle mondiale. De plus, les investissements nécessaires dans les années à venir semblent constituer un obstacle insurmontable pour de nombreux opérateurs, à moins qu’une solution de financement ne soit trouvée.

Les solutions envisagées pour répondre aux enjeux de financement et d’investissement des télécoms.

Face aux défis financiers et d’investissement dans le secteur des télécommunications, plusieurs solutions sont envisagées par les opérateurs :

La première réponse des telcos est une approche conjoncturelle axée sur la résilience plutôt que la croissance. Au cours des deux dernières années, les acteurs du marché ont pris des mesures visant à optimiser leurs structures de coûts et à réduire leurs dépenses. Par exemple, le groupe britannique BT a annoncé la suppression de près de 55 000 emplois d’ici 2030, reflétant une tendance générale à l’optimisation des ressources.

La deuxième solution préconisée par les acteurs des télécommunications consiste à rééquilibrer la chaîne de valeur en imposant aux GAFAs de financer les infrastructures dont ils bénéficient. Les géants du net captent une part importante de la valeur créée par ces infrastructures sans en payer le prix. Ainsi, des opérateurs télécoms pressent l’UE pour obtenir une contribution financière juste des Big Tech au financement des réseaux télécoms, citant Netflix, Google, Meta, Amazon et TikTok comme responsables de l’augmentation du trafic internet.

Enfin, la troisième solution privilégiée par les acteurs des télécoms est la consolidation du secteur à l’échelle européenne. Une intégration horizontale des opérateurs permettrait de mutualiser les coûts, d’augmenter les capacités et d’améliorer la couverture géographique, atteignant ainsi une taille critique plus facilement. Cependant, cette approche n’est pas nouvelle et a déjà été confrontée à des obstacles, comme en témoigne la fusion avortée entre Telefónica UK (O2) et Hutchison 3G UK (Three) en 2020 au Royaume-Uni, refusée pour préserver la concurrence.

Sommes-nous à l’aube d’une consolidation du secteur ?

Le secteur des télécoms subit une recomposition majeure depuis quelques années, confronté à des transformations inédites et à des pressions concurrentielles accrues. De nombreux opérateurs, ont recours à des fusions et acquisitions pour renforcer leurs capacités, à l’image de l’acquisition de VOO en Belgique en juin 2023 par Orange. De la même manière, Xavier Niel, fondateur d’Iliad, a étendu également son empreinte en Pologne avec des investissements dans les opérateurs Play et UPC. Enfin, on peut également citer la prise de participation d’Altice, dans l’opérateur britannique BT en mai 2023.

Prenons le cas d’Orange et Masmovil en Espagne, où la fusion visant à créer le deuxième opérateur du marché est en stand-by depuis 18 mois. La Commission européenne exige des concessions d’Orange pour éviter des augmentations tarifaires impactant les consommateurs et entravant la concurrence. En 2015 déjà, Bruxelles redoutait la fusion entre deux opérateurs dans un pays comptant 4 opérateurs : « Les études montrent qu’une réduction du nombre d’acteurs de quatre à trois dans un pays européen peuvent causer une hausse des prix pour le consommateur… mais pas forcément une augmentation des investissements ». Reste à voir si la position de Bruxelles évoluera dans l’année à venir concernant la fusion d’Orange et Masmovil, ce qui pourrait déclencher une vague de mouvements et ouvrir la voie à une consolidation potentielle du secteur en Europe.

Enfin, concernant la position de la France vis-à-vis de la consolidation, le Pays s’engage activement en faveur d’une consolidation du secteur des télécoms en Europe, rejoignant la Commission européenne dans la création d’un marché unique visant à réduire le nombre d’opérateurs majeurs. L’objectif est de renforcer la compétitivité face aux grandes puissances mondiales ayant trois opérateurs nationaux. La diversité actuelle, avec près d’une centaine d’opérateurs en Europe, entrave les investissements nécessaires pour adopter les dernières technologies. La fragmentation du marché européen complique également le déploiement de nouveaux services en raison des réglementations nationales disparates. Les ministres européens, dont Jean-Noël Barrot, expriment leur soutien à cette initiative, soulignant ses avantages en termes de financements et d’harmonisation réglementaire. Le commissaire européen au marché intérieur, Thierry Breton, prévoit d’ailleurs un livre blanc sur l’avenir des télécommunications au premier trimestre 2024. Enfin, Jean-Noël Barrot est convaincu qu’un marché européen des télécoms attirerait plus facilement les investisseurs nécessaires aux 200 milliards d’euros d’investissements prévus d’ici 2030 pour les infrastructures de télécommunications.

Pour conclure, au vu de la situation actuelle marquée par une intensité concurrentielle forte et une atomisation du marché, le secteur des télécoms en Europe est confronté à des menaces telles que des investissements massifs requis dans les années à venir. Dans ce contexte, la consolidation du secteur émerge comme une solution cruciale pour les opérateurs, offrant la possibilité de réaliser des effets de synergie, de mutualiser les coûts, et de faciliter l’accès aux financements nécessaires. C’est la voie privilégiée par les acteurs des télécoms, soutenue activement par la France qui plaide pour une harmonisation des règles européennes. Tous les regards sont tournés vers Bruxelles, en attente du feu vert concernant la fusion entre Orange et MasMovil en Espagne, une décision qui s’annonce déterminante pour le futur du secteur dans les mois à venir.

ADRIEN CLAVERO

Sources :

Delphine Cuny, (23/01/2015). Télécoms : dans 10 ans, plus que 3 ou 4 gros opérateurs en Europe ? Télécoms : dans 10 ans, plus que 3 ou 4 gros opérateurs en Europe ? (latribune.fr)

Romain Gueugneau, (05/10/2015). Consolidation dans les télécoms : les réticences de Bruxelles. Consolidation dans les télécoms : les réticences de Bruxelles | Les Echos

Tribunal de l’Union européenne, (28/05/2020). Le Tribunal de l’Union européenne annule la décision de la Commission refusant le projet de rachat de Telefónica UK par Hutchison 3G UK dans le secteur du marché de la téléphonie mobile. Le Tribunal de l’Union européenne annule la décision de la Commission refusant le projet de rachat de Telefónica UK par Hutchison 3G UK dans le secteur du marché de la téléphonie mobile (europa.eu)

Cours des comptes européennes, (28/01/2022). Déploiement des réseaux 5G au sein de l’UE: des retards et des questions de sécurité encore sans réponse. Rapport spécial – Sécurité des réseaux 5G (europa.eu)

Alexandre Piquard, (05/05/2022). L’idée de faire financer les réseaux télécoms par les GAFA progresse à Bruxelles. Réseaux télécoms : l’idée de les faire financer par les GAFA progresse à Bruxelles (lemonde.fr)

Paul Louis, (22/05/2022). POUR LA PATRONNE D’ORANGE, IL Y A UN « TROP-PLEIN D’ACTEURS » DANS LES TÉLÉCOMS EN EUROPE. Pour la patronne d’Orange, il y a un « trop-plein d’acteurs » dans les télécoms en Europe (bfmtv.com)

Pierre Manière, (03/10/2022). Consolidation des télécoms : les opérateurs espèrent un changement de doctrine de Bruxelles. Consolidation des télécoms : les opérateurs espèrent un changement de doctrine de Bruxelles (latribune.fr)

Fabienne Schmitt, (20/10/2022). Fusion O2-Three : la justice à nouveau appelée à trancher. Fusion O2-Three : la justice à nouveau appelée à trancher | Les Echos

Alexandre Joux, (10/2022). Télécoms : la concentration relancée en Europe, la souveraineté en question. Télécoms : la concentration relancée en Europe, la souveraineté en question (la-rem.eu)

Olivier Pinaud, (26/03/2023). Télécoms : vers une nouvelle saison des mariages entre opérateurs en Europe ? Télécoms : vers une nouvelle saison des mariages entre opérateurs en Europe ? (lemonde.fr)

Alice Drout, (13/04/2023). Non, l’Europe ne doit pas taxer les entreprises du numérique pour financer les télécoms. Non, l’Europe ne doit pas taxer les entreprises du numérique pour financer les télécoms (entreprendre.fr)

Le Figaro ; AFP, (18/05/2023). Téléphonie : le groupe britannique BT compte supprimer jusqu’à 55.000 emplois d’ici 2030. Téléphonie : le groupe britannique BT compte supprimer jusqu’à 55.000 emplois d’ici 2030 (lefigaro.fr)

Julien Lepoix, (07/08/2023). Opérateurs télécoms : des fusions au sein de l’UE sont-elles envisageables ? Opérateurs télécoms : des fusions au sein de l’UE sont-elles envisageables ? (selectra.info)

Lucas Mediavilla, (02/10/2023). À Bruxelles, les télécoms veulent faire payer les Gafa. À Bruxelles, les télécoms veulent faire payer les Gafa (lefigaro.fr)

ARCEP, (05/10/2023). LES SERVICES DE COMMUNICATIONS ELECTRONIQUES EN FRANCE 2 E TRIMESTRE 2023. Observatoire des marches des communications électroniques – Les services de communications électroniques en France – 2e trimestre 2023 (05 octobre 2023) (arcep.fr)

Pierre Manière, (11/10/2023). L’Union européenne veut réviser la réglementation des télécoms. L’Union européenne veut réviser la réglementation des télécoms (latribune.fr)

Pierre Manière, (24/10/2023). Fusion d’Orange et MasMovil : Christel Heydemann espère un feu vert en fin d’année. Fusion d’Orange et MasMovil : Christel Heydemann espère un feu vert en fin d’année (latribune.fr)

Raphaël Balenieri ; Fabienne Schmitt, (24/10/2023). Télécoms : la fusion Orange-MasMovil vire au bras de fer avec Bruxelles. Télécoms : la fusion Orange-MasMovil vire au bras de fer avec Bruxelles | Les Echos

Olivier Pinaud, (06/12/2023). Télécoms : la France pousse pour une consolidation européenne. Télécoms : la France pousse pour une consolidation européenne (lemonde.fr)

Arnaud, (08/12/2023). Télécoms : la France pousse pour une consolidation européenne. Télécoms : la France pousse pour une consolidation européenne – alloforfait.fr

Lucas Mediavilla, (17/12/2023). Concurrence féroce, réglementations obsolètes… La grande déprime des télécoms européens. Concurrence féroce, réglementations obsolètes… La grande déprime des télécoms européens (lefigaro.fr)

Fédération Française des Télécoms, (18/12/2023). LES TÉLÉCOMS : ACTEURS DU NUMÉRIQUE EN PREMIÈRE LIGNE Étude économique 2023. Plaquette-FFTelecoms-Etude-economique-Telecoms-2023.pdf

Olivier Pinaud, (11/01/2024). Les télécoms européennes en pleine recomposition. Les télécoms européennes en pleine recomposition (lemonde.fr)

Comment les deepfakes peuvent impacter la santé sur les réseaux sociaux ?

Vous avez déjà pu tomber sur la fameuse vidéo de Barack Obama insultant Donald Trump ou encore sur celle de Zelensky diffusée sur une chaîne d’information officielle ukrainienne. Certains adeptes du deepfake, s’amusent à inventer des visages qui n’existent pas, à parler à la place de personnalités publiques…

Cependant, l’usage du deepfake souligne des risques en termes de droits à l’image et désinformation de masse.

https://youtu.be/cQ54GDm1eL0?t=23

Le deepfake consiste en la création de photos, d’audios ou de vidéos utilisant le visage d’une personne existante ou non, rendus crédibles grâce à l’intelligence artificielle. Contraction de Deep Learning et fake, cette technologie repose sur les GANs (Generative Adversarial Networks), produisant un contenu très réaliste.

Le champ des possibles du deepfake s’élargit. Du visage d’une personne sur le corps d’un autre, à la création d’une personne qui n’existe pas ou encore à la possibilité de prendre l’apparence d’une personne sur une vidéo et de « cloner » sa voix, le Deepfake ne cesse de gagner en réalisme.

Cependant, nous pouvons nous interroger quant aux dangers auxquels les internautes sont exposés via l’utilisation de cette technologie. Rappelons que le premier Deepfake a été publié sur Reddit, plateforme sur laquelle un utilisateur mettait en scène des célébrités comme Natalie Portman ou Jessica Alba dans de fausses vidéos pornographiques. Une entrée plutôt fracassante…

Cette technologie est d’autant plus répandue par l’usage des réseaux sociaux et pourrait fortement nuire à la santé de tous.

De ludique à politique, comment peuvent-ils impacter la santé via les réseaux sociaux ?

L’impact sur le secteur de la santé

Commençons par l’aspect négatif :

L’influence des deepfakes sur la santé commence à préoccuper les experts.

Certains deepfakes sont utilisés pour compromettre la confidentialité des données de santé des patients. Les cybercriminels peuvent ainsi publier sur les réseaux des enregistrements vocaux ou des vidéos semblant provenir de professionnels de la santé ou autorité comme l’OMS mais qui sont en réalité des pièges à clics. Les risques sont qu’ils y fassent fuiter les données personnelles des malades.

D’un point de vue purement médical, une vidéo peut, par exemple, être diffusée et faire croire que quelqu’un a été guéri d’une maladie via un traitement spécifique. Un politique peut sembler dire ou agir à l’opposé des recommandations de santé publique…

Ces pratiques peuvent pousser à adopter des comportements préjudiciables, conduisant, qui plus est, à des fraudes à l’assurance maladie et des perturbations des soins de santé.

Par conséquent, il est important que les utilisateurs des réseaux sociaux soient conscients de la possibilité de deepfakes médicaux et qu’ils vérifient toujours l’authenticité des informations avant de les partager.

De surcroît, l’augmentation de deepfakes aux visages « parfaits » sur les réseaux va de pair avec l’accroissement du taux de chirurgie esthétique.

« En moyenne, sur cette tranche d’âge (18-34 ans), la proportion de femmes qui poussent les portes des cabinets de chirurgie esthétique est de l’ordre de 80%. »

Chirurgie esthétique : favorisée par les réseaux sociaux, la tendance explose chez les jeunes (rtl.fr)

Heureusement il n’y a pas que du mauvais au deepfake :

Parfois le trucage de voix peut être utilisée à des fins positives. La voix pouvant être trafiquée, certaines communications du secteur de la santé pourrait mieux « passer » aux yeux des utilisateurs.

« Si l’on prend l’exemple d’une campagne de santé publique, avec 2-3 % de personnes convaincues en plus, les Deepfake peuvent sauver des vies. »

Deepfake, entre réel progrès et enjeux éthiques (bpifrance.fr)

Par ailleurs, la langue des signes n’étant encore que très peu répandue, en particulier sur les réseaux sociaux, les deepfakes pourraient améliorer le quotidien de personnes atteinte de mutisme. Leur message pourrait avoir plus d’impact et entraîner plus d’engagement.

De plus, les deepfakes pourraient contribuer aux progrès de la science. Un des exemples relevés serait leur capacité à repérer des organes malades au travers de la radiographie, aidant ainsi les médecins à effectuer un diagnostic. Les réseaux sociaux pourraient alors y développer la diffusion de ces savoirs (pour les étudiants en médecine par exemple).

Images d’IRN générées grâce aux GANs

L’impact sur la santé mentale

Commençons à nouveau par le négatif :

Les deepfakes peuvent également avoir un impact sur la santé mentale des gens sur les réseaux sociaux.

Une personne peut être victime de cyberharcèlement et voir sa réputation salie par du deepfake utilisant son visage dans un contexte faux et défavorable. Ces risques touchent principalement les femmes pouvant être victimes de Revenge porn. Cependant, certaines victimes doutent de leur statut avançant qu’elles n’étaient pas réellement présentes sur ces vidéos et guérissent difficilement de ce traumatisme.

Par ailleurs, les deepfakes peuvent conduire à une usurpation d’identité de la part de cybercriminels se faisant passer pour d’autres via des notes vocales crédibles. Cette situation provoque une perte de confiance et instaure un climat de « paranoïa » .

D’autre part, il est désormais facile pour les utilisateurs de se créer une « fausse vie » et de « faux attributs physiques », qu’ils partageraient sur les réseaux sociaux. Des biais raciaux, sexistes et des critères de beauté « standards » inatteignables y sont, d’ailleurs, cachés sous la table. En effet, les deepfakes ont souvent tendance à blanchir, rajeunir ou vieillir les utilisateurs, à donner des traits plus fins pour une femme et inversement pour les hommes. Cette théologie de la perfection physique prônant le transhumanisme enferme les users dans un carcan de mensonges, complexes et de frustrations.

Le feed d’un jeune se voit donc de plus en plus lisse : une jeune femme magnifique dans un paysage de rêve alors que tout s’avère souvent truqué (fond vert). Cette surexposition constante au « parfait » pousse certains utilisateurs à ne plus se reconnaitre et à accepter leur faux visage à mesure que leur taux de likes augmente. Ce qui induit des troubles en termes de définition et limites de soi avec la question suivante : « Où s’arrête le vrai Moi, où commence mon faux personnage ». Pas étonnant que le taux de chirurgie esthétique augmente….

« Chaque fois que j’obtenais un “j’aime” sur une photo, je sentais ces endorphines comme si c’était moi, comme si quelqu’un que je connais aimait une photo de moi »

https://leclaireur.fnac.com/article/220141-apres-les-vraies-fausses-vies-sur-les-reseaux-sociaux-place-aux-vies-truquees-grace-a-lia/

Mais l’aspect positif donne un brin d’espoir :

Avez-vous déjà entendu parler de la Deepfake Therapie ? Une étude publiée dans la revue Frontiers in Psychiatry a mis en avant deux victimes d’agressions sexuelles dialoguant sur la plateforme Zoom avec leur faux agresseur, en présence de leur thérapeute. Elle s’est avérée fructueuse puisque l’une des victimes a vu ses stress post-traumatiques diminuer en une semaine. Précisons que l’agresseur s’exprime « avec empathie sans chercher à revictimiser le patient » . Ce type de plateforme existe déjà notamment DeepTherapy.ai, dans laquelle certains endeuillés parlent avec un défunt. Il faut cependant savoir limiter son utilisation car en faussant le vrai, certaines séquelles peuvent subsister. Cette pratique pourrait s’étendre de la médiation pour le divorce au harcèlement des enfants.

Certaines personnes n’arrivent pas à tourner la page concernant une personne étant donnée la visibilité que donnent les réseaux sociaux et cette pratique pourrait fortement les aider.

Conclusions et résolutions qui en découlent

Les deepfakes constituent donc le sujet emblématique des réseaux sociaux et de l’intelligence artificielle. Nous devons ainsi tenir compte de la portée de cette IA afin de protéger la santé de tous.

Heureusement, une réglementation vient encadrer les dérives des deepfakes.

Ainsi, l’utilisation de deepfakes pour tromper les internautes sur l’identité d’une personne peut être punie par la loi.

Aux États-Unis, par exemple, le Congrès a adopté la loi de lutte contre la cybercriminalité (Cybercrime Enforcement Act) en 2019, qui criminalise la production et la distribution de deepfakes dans le but de tromper ou de nuire à une personne. La loi impose des peines allant jusqu’à 10 ans de prison.

En France, les deepfakes peuvent être considérés comme de l’escroquerie ou de l’usurpation d’identité, voire de la diffamation, selon la loi sur la liberté de la presse. Ainsi, un deepfake non mentionné comme tel est illégal. La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information permet de stopper la diffusion massive de désinformation.

Au niveau européen, le projet de règlement sur les services numériques (« Digital Services Act ») prévoit des mesures pour lutter contre les risques systémiques découlant des plateformes en ligne et moteurs de recherche, en particulier contre tout effet négatif sur le discours civique.

D’autre part, la Commission européenne a publié un code de conduite européen renforcé pour lutter contre la désinformation. Le Conseil de l’Union européenne a adopté une résolution en 2021 appelant à une réglementation renforcée des deepfakes pour lutter contre la désinformation et les menaces pour la sécurité.

Enfin, plusieurs solutions ont été développées par les grands acteurs du numérique pour détecter et lutter contre les deepfakes, comme le Deepfake Detection Challenge de Facebook, AWS, Microsoft et Partnership in AI, ainsi que la plateforme InVID pour aider les journalistes à détecter les vidéos truquées.

Désormais, il est obligatoire de préciser si un contenu est Deepfake ou non.

Cependant, cette réglementation pose également des défis en matière de liberté d’expression et de droits de la personne, la ligne entre manipulation de contenu malveillant et parodie étant souvent floue.

Ce qui importe donc le plus est d’être conscient que les réseaux sociaux ne sont pas la vraie vie…

Chirel Darmouni.

Sources

Rachat d’Activision-Blizzard par Microsoft : Les GAFAM à l’attaque des jeux vidéo ?

Dans un communiqué de presse du 18 janvier 2022, Microsoft a annoncé son rachat du développeur de jeu vidéo Activision-Blizzard pour un montant de 68,7 milliards de dollars. Cette annonce d’acquisition est historique dans le monde du jeu vidéo et a provoqué de vives réactions, surtout en termes de concurrence.

Microsoft, un acteur historique de l’industrie des jeux vidéo.

Microsoft est le GAFAM qui a très tôt démontré une stratégie d’expansion vers l’industrie du gaming. Pour rappel, dès 1994, le géant américain de la tech crée Microsoft Game Studios, aujourd’hui connu sous le nom de Xbox Game Studios. Au début des années 2000, l’entreprise franchit une étape. Grâce à ses qualités de constructeur d’appareils électroniques, il vient concurrencer Sony et Nintendo sur le marché des consoles avec sa Xbox. En parallèle, Microsoft va, pendant plus de vingt ans, acquérir studio de jeux par studio de jeux. Il commence en 2001 par Turn 10, développeur de la licence Forza Motorsport, puis continuera avec des studios comme Rare, 343 industries ou encore Mojang studios, jusqu’à sa dernière acquisition en 2021 avec Bethesda.

Aujourd’hui, la firme vise le studio Activision-Blizzard, créateur de jeux vidéo sur téléphone, PC et console. Elle est la maison mère de franchises fortes comme Candy Crush, Call of Duty ou encore World of Warcraft, ce qui en fait un rachat particulièrement stratégique. Rien que le jeu Call of Duty est l’une des plus grosses licences de l’histoire du jeu vidéo ; ses ventes atteignent les 400 millions dans le monde.

Source : Unsplash. Photo de Sam Pak

Ce projet de fusion entre deux acteurs aussi massifs pose donc des questions d’équilibre des forces dans l’industrie du jeu vidéo. Pour justifier ce rachat, trois arguments sont avancés par Microsoft pour convaincre les autorités de régulation :

  • Les consommateurs y gagneraient. Microsoft renforcerait la valeur ajoutée de son Game Pass grâce à de nouvelles franchises fortes.
  • Les employés bénéficieraient d’un changement de culture d’entreprise. Depuis quelque temps, Activision-Blizzard subit des scandales liés au management interne.
  • Le secteur observerait un rééquilibrage des forces sur le marché des jeux mobiles. Pour rappel, les géants Google et Apple écrasent aujourd’hui toute concurrence sur cette verticale.

Les principaux opposants au rachat sont la FTC et Sony. L’organisme responsable de la défense de la concurrence aux Etats-Unis a porté plainte contre Microsoft malgré ses arguments préliminaires. La dernière fois que Microsoft s’était confronté à la FTC, il en était sorti perdant. C’est notamment de ce procès qu’ont découlé toutes les grandes confrontations juridiques sur les sujets d’anti-trust et de monopole. Leur argument principal vise la licence Call of Duty au vu de sa force de frappe en termes de vente et d’attractivité pour les consommateurs. L’un des dangers serait que Microsoft rende le jeu Call of Duty exclusif à sa plateforme, fragilisant Sony. La FTC a décidé d’évaluer la concurrence uniquement sur le marché des consoles à haute performance, un marché où les consoles Nintendo ne sont pas présentes. L’organisme évaluera aussi les conséquences sur le marché des abonnements (Game Pass, Playstation Plus, EA Play, etc). D’autres autorités homonymes vont également devoir rendre un verdict : la CMA au Royaume-Uni, les autorités de l’UE et celles de la Chine.

Source : Unsplash. Photo de Nikita Kostrykin

Vers une concentration de cette industrie ?

Ce rapprochement de deux entreprises majeures du secteur n’est pourtant pas un cas isolé. Le concurrent direct de Microsoft sur le marché, Sony, a notamment racheté pour 3,6 milliards Bungie, une entreprise de développement et d’édition de jeux vidéo, qui détient les franchises Destiny ou encore Halo. Nous avons également le cas du distributeur de jeu Take-Two, acteur puissant du secteur, qui s’est acheté pour 12 milliards de dollars la plateforme de jeu en ligne Zynga.

Le marché des jeux vidéo semble donc subir une concentration de ses acteurs. Comment l’expliquer ?

Le secteur a d’abord connu une multiplication d’acteurs dans les métiers de développeur, éditeur et distributeur de jeux. Cette prolifération a favorisé la diversité dans les jeux et les plateformes.  Aujourd’hui, les consommateurs peuvent trouver toutes les qualités de jeux, à tous les prix. Néanmoins, pour continuer à accroître le nombre de joueurs, l’industrie doit combattre sur un marché plus grand encore : celui de l’attention. Toutes les formes de divertissement (réseaux sociaux, musique, audiovisuel, jeux, etc.) se vouent une guerre pour capter le temps des consommateurs. Les entreprises de gaming doivent maintenant être capables de proposer de plus en plus de jeux de qualité, d’offres à prix attractifs, et redoubler d’innovation. Cependant, pour produire des jeux de qualité AAA, les organismes doivent débourser de gros budgets, ce qui n’est pas à la portée de tous les studios. De même, les distributeurs ont développé des services d’abonnement regroupant l’accès à de nombreux jeux comme le Game Pass ou le Playstation Plus, afin de proposer des offres toujours plus attractives. Ces pass doivent être nourris de franchises fortes pour attirer les joueurs. Ainsi, les entreprises de jeux vidéo doivent avoir une force financière suffisante pour se faire une place durable dans la vie des consommateurs, d’où le besoin de concentration entre les acteurs.

Source : Unsplash. Photo de Alexander Shatov

Les tentatives des autres GAFAM dans le secteur. Pourquoi l’industrie attire les géants du numérique ?

Ce besoin de concentration des acteurs et le potentiel de cette industrie a également été compris par les GAFAM. Bien que Microsoft soit le plus investi dans le secteur, les jeux vidéo semblent être dans le viseur des autres mastodontes américains.

  • Google

C’est le deuxième GAFAM à avoir tenté une entrée sur le marché. En 2019, il avait ouvert Stadia Games and Entertainment, son studio de jeux vidéo. Google a également mis en service un cloud gaming nommé Stadia. Ce Netflix du jeu vidéo permettait à ses utilisateurs d’avoir accès à une banque de jeux uniquement avec une manette connectée, sans consoles ni PC. Cependant, cette conquête de l’industrie se solde par un échec. L’entreprise a décidé de fermer les portes de ses studios en février 2021 puis d’arrêter ce service en janvier 2023 par manque d’audience.

  • Amazon

En plus du rachat de la plateforme de streaming Twitch, Amazon s’est parallèlement lancé du côté du développement de jeux vidéo de haute qualité via sa filiale Amazon Game Studio. Son ambition est de créer des licences fortes qui s’inscrivent dans la durée, comme avec le jeu AAA « New World ». La firme y a mis les grands moyens en dépensant plus de 100 millions de dollars seulement pour cette franchise. Le géant du e-commerce propose également un service de cloud gaming avec sa plateforme Luna, qui se différencie de la concurrence en offrant un abonnement à des lots de jeux.

  • Facebook

Nous retrouvons aussi une stratégie de diversification chez Facebook. L’entreprise de Marc Zuckerberg s’est intéressée au hardware en s’offrant Oculus, un constructeur de casques de réalité virtuelle. Toujours sur cette verticale, le groupe a développé Oculus Store, une marketplace de vente de jeux VR. La firme s’est également lancée dans les jeux mobiles en streaming, directement accessible via le réseau social Facebook. Enfin, il vient faire concurrence au Twitch d’Amazon avec son offre Facebook streaming, pour visionner des joueurs en direct. Cependant, le réel enjeu du géant des réseaux sociaux reste le métavers. Sa stratégie se concentre davantage sur les devises que sur le développement de jeux.

  • Apple

La marque à la pomme a également mis un pied dans cette industrie, sur la verticale des jeux mobiles, grâce à Arcade, leur plateforme de gaming par abonnement. Pour l’instant, Apple semble davantage utiliser cet angle dans une stratégie d’ajout de valeur à son offre de hardware, plutôt qu’une volonté de conquête du marché des jeux.

Source : Unsplash. Photo de Jessica Lewis

Pour conclure, malgré quelques échecs de ces géants, l’industrie observe un léger glissement de la concurrence vers les GAFAM. Mais qu’est-ce qui attirent ces mastodontes de la tech ?

Le secteur apparaît déjà comme un marché juteux. Selon le Global Games Market Report de novembre 2022, l’industrie a généré 184 milliards de dollars de revenus en 2022 et attiré 3,198 milliards de joueurs à travers le monde. Le secteur est aussi en pleine croissance, il enregistrait une progression de +19.6% en 2020 et de +1.4% en 2021. Enfin, dans la conférence de presse de Microsoft et Activision-Blizzard, les deux groupes estimaient même à 4,5 milliards le nombre de joueurs d’ici 2030.

De plus, les jeux vidéo peuvent devenir un moyen pour réunir toutes les consommations : c’est à la fois un lieu d’interactions sociales entre les joueurs, un lieu d’achat et un lieu de divertissement. Nous observons déjà la diminution des frontières des consommations avec l’apparition de concerts dans certains univers de jeu comme Roblox ou Fortnite. Ainsi, l’industrie laisse entrevoir une possible fusion des divertissements en son sein. Enfin, le secteur peut apparaître comme une première porte d’entrée vers la construction des métavers. C’est l’un des arguments avancés par Satya Nadella, PDG de Microsoft, et Bobby Kotick, CEO d’Activision-Blizzard, pour expliquer la stratégie de rachat du studio et la vision de Microsoft à long terme.

Charline Barbé

Sources :

Articles internet :

Conférence de presse :

Rapport de groupes d’études :

Régulation des réseaux sociaux : étude comparative France / États-Unis / Chine

Les tentatives internationales de régulation des mastodontes que sont les réseaux sociaux ont été nombreuses. Ces géants sont régulièrement au coeur des débats, suscitant la peur face à tant d’hégémonie et souvent qualifiés de « plus puissants que les États ».

L’heure est au bilan sur l’état actuel de cette régulation, avec une étude comparative de 3 visions : européenne, américaine et chinoise.

© Source : https://www.lebigdata.fr/dsa-digital-services-act-ue-censure

Digital Service Act (DSA) : l’Europe se met d’accord

Le 23 avril dernier a été marqué par la conclusion tant attendue d’un accord provisoire entre la Commission, le Conseil et le Parlement européen sur le projet de loi Digital Service Act (DSA). Emboitant le pas au Digital Market Act (DMA) dont l’accord provisoire a été obtenu en mars 2022, ce texte européen cible la régulation des contenus illicites en ligne et la modernisation du cadre légal déjà en vigueur. En complément de la régulation économique des plateforme « gatekeepers » proposée par le DMA, cette règlementation a pour but de rendre « ce qui est illégal hors ligne (…) illégal en ligne dans l’UE« , comme l’a déclaré Ursula von der Leyen, présidente de la Commission européenne. Il vise de nombreuses entreprises et plateformes, telles que les opérateurs, les marketplaces, les services de cloud et les réseaux sociaux, et instaure des obligations spécifiques aux plateformes dites « very large » (NDLR : les plateformes comptant plus de 45 millions d’utilisateurs actifs ) dans une optique de responsabilisation de ces dernières.

Au-delà des enjeux de traçabilité liés aux marketplaces et l’interdiction de la publicité ciblée à destination d’enfants auxquels s’attaque le DSA, de nombreuses obligations visent directement les réseaux sociaux et les pratiques en ligne telles que les discours haineux, la discrimination, le revenge porn et la publication de contenu illicite dans son ensemble. En pratique, ces mesures devraient permettrede lutter contre ces agissements et de signaler plus facilement lesdits contenus. On peut notamment noter l’obligation de retrait immédiat dans le cas de partage de contenus intimes non consentis par les victimes de cyber-violence. Les algorithmes, ingrédient secret des plateformes les plus performantes, ne sont pas épargnés : le texte exige plus de transparence quant à leur fonctionnement, obligeant les géants de la tech à fournir un accès à leur algorithme à la Commission européenne et aux États membres. Dès le 1 janvier 2024, date provisoire d’entrée en vigueur du texte, les entreprises en faute pourront risquer des amendes allant jusqu’à 6% de leur chiffre d’affaires mondial ainsi qu’une exclusion du marché européen.

Les États-unis tentent de rattraper leur retard

À travers ces initiatives de régulation, les lois européenne pourraient bien s’établir comme un modèle à l’international, comme s’en ai notamment réjouit la lanceuse d’alerte Francis Haugens « Allez les Etats-Unis, maintenant c’est notre tour » en faisant référence au projet du DSA.

En effet, bien que les travaux de parlementaires américains aient contribué à l’inspiration du projet DMA (NDLR : rapport de la sous-commission du droit antitrust, commercial et administratif de la commission judiciaire de la Chambre des représentants des États-Unis sur la concurrence sur les marchés numériques), le droit sur internet aux Etats-Unis est assez pauvre. Il se résume grossièrement à deux lois adoptées à la fin des années 90 : la section 230 du Communications Decency Act (CDA) qui garantit la liberté d’expression en ligne et le Children’s Online Privacy Protection Act (COPPA), qui vise la protection en ligne des enfants de moins de 13 ans. Cependant, les Etats-Unis semblent vouloir rattraper leur retard dans ce domaine. Joe Biden a déjà exprimé la nécessité de reformer la section 230 du CDA et plusieurs projets de loi ont récemment été introduits. Parmi eux, on retrouve le Kids Online Safety Act (KOSA) datant de février 2022, qui imposerait de nouvelles garanties, de nouveaux outils et de nouvelles exigences de transparence pour les mineurs en ligne de moins de 17 ans. Enfin, on peut également noter le Earn It Act (EIA), réintroduit en février dernier puis adopté, qui met en avant la lutte contre la diffusion de contenus pédopornographiques sur Internet.

En ce qui concerne spécifiquement les réseaux sociaux, la sénatrice Amy Klobuchar a introduit à la Commission fédérale du commerce le 10 février 2022 le projet de loi Social Media NUDGE Act (Nudging Users to Drive Good Experiences on Social Media). Ce projet doit permettre à la National Science Foundation (NSF) et à la National Academy of Sciences, Engineering, and Medicine (NASEM) de réaliser une étude sur les plateformes de médias sociaux et les questions d’addiction, de désinformation et de mise en avant de contenus dangereux en lien avec les algorithmes existants. Les enjeux de transparence sont également au cœur du projet, avec par exemple un rapport de transparence public requis tous les 6 mois pour les grandes entreprises des médias sociaux, tout comme les informations concernant la finalité des contenus signalés. Des enjeux sensiblement similaires à ceux portés par le DSA

En Chine, une régulation gouvernementale unique en son genre

Passé relativement inaperçu en Europe, le Règlement sur l’administration de la recommandation sur les algorithmes des services d’information sur Internet a été mis en application en Chine le 1er mars 2022.

© Source : https://ruedesconfines.com/pendant-la-crise-les-chinois-jouent-avec-les-reseaux-sociaux/

Cet ensemble de recommandations vise très spécifiquement les algorithmes, leur transparence et leur utilisation avec des mesures telles que la possibilité pour les utilisateurs de désactiver leur profil ou qu’il soit pas pris en compte, la conservation par les entreprises des traces du fonctionnement de leur algorithme pendant six mois ou encore la nécessité pour les entreprise capables de mobiliser l’opinion publique de s’enregistrer auprès des autorités. 

Bien que la transparence liée aux algorithmes soit là aussi le noyau du projet, l’esprit général du règlement s’éloigne des projets européen et américain. En effet, les projets occidentaux se distinguent à moindre échelle par des mesures visant la protection des droits humains (Europe) et des droits consommateurs (États-Unis). De son côté, le projet chinois met avant tout l’accent sur la protection du pays, de sa sécurité et de ses valeurs (celles promues par le régime) et ne masque pas la volonté du parti d’incarner le monopole étatique du contrôle, s’accaparant les nouvelles richesses générées par les géants de la tech : les données.

Le danger d’un contrôle d’état sous couvert de régulation

Dans une logique similaire, l’administration du cyberespace de Chine (CAC) a également annoncé début avril le lancement de la campagne QingLang d’ici la fin de l’année 2022, poursuivant l’objectif de création d’un espace en ligne sain. Déjà évoquées l’année passée, ces opérations se définissent littéralement comme « nettoyé et non contaminé ». Ce qui s’illustre notamment à travers les suppressions et les fermetures engendrées par les régulateurs chinois. En 2021, plus de 22 millions d’informations illégales ont été supprimés et plus d’un milliard de comptes illégaux ont été fermé afin de lutter contre le « chaos ». Ce grand nettoyage de l’internet chinois s’est notamment déroulé avant les JO de Pékin. Cette tendance à la censure s’est également confirmée fin 2021 avec l’interdiction de LinkedIn en Chine, la dernière plateforme américaine encore présente dans le pays.

Si la  critique officielle n’est pas monnaie courante en Chine, la situation est différente aux États-Unis où les projets de régulation ne font pas toujours l’unanimité. Le NUDGE Act est notamment critiqué comme un projet remettant en cause la liberté d’expression promue par la section 230 et si chère à la culture américaine. Certains projet sont également critiqué pour leur contenu, comme le Earn It Act. Ici, bien que la lutte contre la diffusion de contenu pédopornographique ne soit pas remise en cause en soit, c’est les moyens proposés (suppression du chiffrement de bout en bout) et leurs conséquences sur les données privées qui sont questionnés. En effet, si les États-Unis semblent aspirer à égaler le cadre législatif européen en matière de numérique, les enjeux relatifs à la protection des données semblent encore pêcher, comme l’illustrait déjà l’arrêt Schrems II quelques années auparavant.

Ce décalage entre projet théorique et application technique s’illustre avec des questionnements similaires en Europe. On peut noter par exemple les débats autour de l’obligation d’inter-opérabilité imposée aux médias sociaux et les limites technologiques s’y afférant.

L’intelligence artificielle, prochaine course à la règlementation ?

L’intelligence artificielle est devenue le fer de lance des algorithmes qui font fonctionner les réseaux sociaux. En Europe, la Commission Européenne a proposée l’Artificial Intelligence Act en avril 2021, avec une dynamique similaire aux projets de DMA, DSA et Data Governance Act (DGA).  Des initiatives fédérales similaires ont également émergé depuis aux Etats-Unis, notamment en Alabama, au Colorado, dans l’Illinois et dans le Mississippi avec des lois comme l’Artificial Intelligence Interview Act et l’Alabama Council on Advanced Technology and Artificial Intelligence. Plus spécifiquement un projet de régulation des algorithmes d’IA à l’échelle fédérale a même été introduit au Sénat américain en février dernier. Cet Algorithmic Accountability Act témoigne de l’influence de l’Europe sur les États-Unis en matière de régulation numérique ainsi que de la volonté de convergence de ces deux modèles.

La percée de l’IA dans tous les secteurs, des réseaux sociaux au transport ou à la santé est déjà prémonitoire sur la complexité de la création d’un cadre juridique réglementaire approprié.

 

Par Hannah Roux-Brion


SOURCES

DSA

DSA : l’Europe trouve un accord « historique », France Culture, Baptiste Muckensturm, 26 avril 2022
https://www.franceculture.fr/emissions/les-enjeux-des-reseaux-sociaux/dsa-l-europe-trouve-un-accord-historique

DSA : les institutions européennes ont trouvé un accord !, Siècle digital,  Grégoire Levy, 25 avril 2022
https://siecledigital.fr/2022/04/25/dsa-les-institutions-europeennes-ont-trouve-un-accord/

L’Europe valide le DSA : les 10 mesures clés pour réguler les géants de la tech, Le blog du modérateur, Appoline Reisacher, 25 avril 2022
https://www.blogdumoderateur.com/europe-valide-dsa-mesures-reguler-geants-tech/

USA

Un projet de loi vise à obliger les réseaux sociaux à modifier le fonctionnement du fil d’actualité, Siècle digital, Valentin Cimino ,14 février 2022
https://siecledigital.fr/2022/02/14/un-projet-de-loi-pourrait-obliger-les-reseaux-sociaux-a-modifier-le-fonctionnement-des-algorithmes/

Senator Klobuchar “nudges” social media companies to improve content moderation, Brookings, Mark MacCarthy Wednesday, February 23, 2022
https://www.brookings.edu/blog/techtank/2022/02/23/senator-klobuchar-nudges-social-media-companies-to-improve-content-moderation/

Tech Trojan Horse: How the Senate is poised to codify censorship of social media, The Hill, JONATHAN TURLEY, 03/05/22
https://thehill.com/opinion/technology/596913-tech-trojan-horse-how-the-senate-is-poised-to-codify-censorship-of-social/

New bill would force social media giants to embrace friction — or else. Protocol Issie Lapowsky, February 10, 2022
https://www.protocol.com/bulletins/social-media-nudge-act

U.S. Congress Introduces Kids Online Safety Act. Covington, Lindsey Tonsager & Madeline Salinas, February 23, 2022
https://www.insideprivacy.com/childrens-privacy/u-s-congress-introduces-kids-online-safety-act/

Quel est l’état des droits sur internet aux États-Unis ? Siècle digital,  Clémence Maquet, 19 avril 2021
https://siecledigital.fr/2021/04/19/quel-est-letat-des-droits-sur-internet-aux-etats-unis/

CHINE

Les autorités chinoises veulent réguler les algorithmes de recommandation, qui font le quotidien d’Internet, Le Monde, 8 février 2022
https://www.lemonde.fr/idees/article/2022/02/08/les-autorites-chinoises-veulent-reguler-les-algorithmes-de-recommandation-qui-font-le-quotidien-d-internet_6112738_3232

La Chine recadre les algorithmes des agrégateurs d’actualités, Siècle digital, Antoine Messina , 13 avril 2022
https://siecledigital.fr/2022/04/13/la-chine-recadre-les-algorithmes-des-agregateurs-dactualites/

QingLang Regulations, More of Them—and More Control on Chinese Social Media, Bitterwinter, Tan Liwei, 03/23/2022
https://bitterwinter.org/qinglang-regulations-more-control-on-social-media/

INTELLIGENCE ARTIFICIELLE

Quelles limites donner à l’IA pour protéger les droits fondamentaux ? Siècle digital, r Maxime Mohr, 25 avril 2022
https://siecledigital.fr/2022/04/25/quelles-limites-donner-a-lia-pour-proteger-les-droits-fondamentaux/

Quelle réglementation pour l’intelligence artificielle en Europe ? Siècle digital, Clémence Maquet, 23 avril 2021
https://siecledigital.fr/2021/04/23/cadre-juridique-intelligence-artificielle-europe/

Introduction d’un projet de régulation des algorithmes d’IA à l’échelle fédérale, Jean-Baptiste Bordes & Margherita Ceccagnoli, mars 3, 2022
https://france-science.com/introduction-dun-projet-de-regulation-des-algorithmes-dia-a-lechelle-federale/

Modération : à quand la fin de l’impunité sur les réseaux sociaux ?

Le phénomène d’émiettement identitaire, en corrélation avec l’utilisation grandissante des réseaux sociaux, s’aggrave ces dernières années entre l’espace physique et l’espace numérique. L’idée commune selon laquelle l’identité définie dans l’espace public disparaît au profit d’une autre identité sur Internet favorise le sentiment d’impunité et l’augmentation des contenus toxiques sur les espaces d’expression en ligne. Les tentatives de régulation ont été nombreuses, tant par les autorités publiques que par les plateformes elles-mêmes.

L’heure est au bilan sur l’état actuel de la modération des contenus en ligne.

Responsabilisation progressive des plateformes

Le 20 janvier 2022, le Parlement européen procédait à un vote sur la législation des services numériques, plus connue sous le nom de Digital Services Act (DSA). Ce texte vise notamment à obliger les géants du numérique à s’attaquer aux contenus illicites en ligne, tels que ceux favorisant l’incitation à la haine ou la désinformation. En effet, l’expression sur l’espace public numérique est structurée autour d’un marché oligopolistique (Facebook, Twitter, Google). C’est donc naturellement que l’attention politique et juridique s’est concentrée sur cette poignée d’acteurs en mettant en lumière leurs dérives et en alertant sur la présence grandissante des contenus haineux. Ces plateformes ont été contraintes d’accepter que leur rôle dépassait celui de simple hébergeur de contenus et ont pris leurs responsabilités en termes de modération et de régulation sur leurs interfaces.

Pour respecter ces nouveaux engagements, de nombreux outils ont été développés par les plateformes afin d’identifier les contenus toxiques. Une modération algorithmique automatisée et des équipes très conséquentes de modérateurs sont devenus deux piliers quasi-indispensables pour traiter une quantité aussi importante de contenus. Ces outils technologiques permettent notamment une modération ex ante, c’est-à-dire avant même que le contenu soit publié et donc visible par les utilisateurs. On parle alors d’une modération « industrielle », qui se différencie d’une modération dite « artisanale » effectuée par des équipes plus restreintes, avec une approche plus manuelle et une importance forte donnée à la contextualisation du contenu. La modération 100% automatisée n’est pas la solution parfaite puisqu’elle comprend son lot de risques, notamment en identifiant des contenus dits « faux positifs », c’est-à-dire modérés alors qu’ils n’auraient pas dû l’être, ou en incitant à une modération excessive, dite « modération préventive » des plateformes pour éviter des sanctions.

La modération ne se limite pas à l’identification des contenus problématiques, il faut ensuite savoir réagir au mieux pour limiter leur propagation ce qui ne passe pas nécessairement par la suppression. En effet, la modération par retrait du contenu peut avoir des effets néfastes comme l’augmentation des réactions toxiques en réponse à la suppression ou la légitimation du contenu supprimé aux yeux de certaines communautés. Les plateformes ont donc développé des méthodes alternatives, dites « graduelles », afin de limiter la visibilité du contenu sans avoir à le supprimer, tels que le déclassement ou le déréférencement du contenu ou sa mise en quarantaine. La propagation de ces contenus toxiques est en constante évolution, forçant les modérateurs à se renouveler et à innover régulièrement dans ce domaine.

Mythe de l’anonymat sur Internet

Malheureusement, la modération ne suffit pas toujours. Si les algorithmes des plateformes leurs permettent d’identifier la quasi-totalité des contenus à caractère illégal (Facebook déclare que « 99,5% des contenus terroristes ou pédopornographiques sont bloqués a priori, et automatiquement, avant même qu’un utilisateur ne puisse le voir. »), il leur est plus difficile de repérer d’autres comportements tels que le harcèlement en meute ou la diffusion de désinformations. 

Dans les cas où des enquêtes de police sont ouvertes, notamment lorsqu’une victime porte plainte, l’une des premières étapes consiste à identifier les responsables potentiels, généralement cachés derrière des pseudonymes qui sont à distinguer de l’anonymat. En effet, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 impose aux hébergeurs et opérateurs de conserver toutes les données de connexion (adresse postale, coordonnées bancaires, n° de téléphone, adresse IP, etc.) afin de pouvoir identifier la personne cachée derrière un pseudo. Ces données sont soumises au secret professionnel mais peuvent être communiquées à la justice en cas de demande. Ainsi, la levée d’un pseudonyme n’est jamais impossible en soi, au contraire, mais elle demande parfois énormément de temps et de moyens à la justice pour y parvenir.

Collaboration avec les services policiers et judiciaires

Lors d’une investigation sur les réseaux sociaux, les services de police tentent de corroborer les pistes en récupérant des traces numériques. Dans certains cas, les contenus en question sont partagés publiquement ce qui permet de répertorier rapidement des preuves. Cependant, lorsque les comptes sont cadenassés, cela doit passer par une réquisition invitant la plateforme à transmettre les données d’identification des comptes concernés. De nombreuses affaires de cyber-harcèlement, telles que l’affaire Mila ou la récente condamnation du Youtubeur Marvel Fitness, ont pu être portées en justice et aboutir à des condamnations grâce à cette collaboration entre les plateformes et les autorités publiques. 

Cependant, d’après Matthieu Audibert, commandement de la gendarmerie dans le cyber-espace, alors que les opérateurs français sont très réactifs et répondent en moyenne à ces demandes en 15 min, les hébergeurs américains s’avèrent généralement moins collaboratifs. Pour leurs exiger le transfert des données, il faut envoyer une réquisition directement à la société mère. Cela peut parfois nécessiter préalablement une demande d’enquête pénale internationale, suivi de l’envoi de la réquisition via le ministère de la justice français auprès d’un magistrat de liaison à Washington, qui transmettra ensuite au procureur de l’État américain de domiciliation de la plateforme. Cela va sans dire, ces cas de figure correspondent à des délais d’action de plusieurs mois, voir n’aboutissent parfois à aucun retour de la part de la plateforme concernée.

Le réseau Twitter est connu pour être le mauvais élève des réseaux sociaux en matière de collaboration avec la justice. L’avocat Éric Morain rappelle : « c’est une obligation dans le code de procédure pénale de déférer à ces réquisitions, et il ne viendrait pas à l’idée de la BNP, Orange ou Free de ne pas le faire. Les autorités adressent de la même façon régulièrement des réquisitions à Facebook ou à Twitter. […] Sauf que, si Facebook collabore depuis deux ou trois ans, en ce qui concerne Twitter, on reçoit des classements sans suite du parquet faute de collaboration. ». En janvier 2022, Twitter France et son DG Damien Viel ont été jugés pour « refus de répondre à une réquisition » et la Cour d’appel de Paris a confirmé une décision de juillet ordonnant à Twitter de détailler ses moyens de lutte contre la haine en ligne, jugés insuffisants.

Moins de lois, plus de moyens !

Une impunité importante persiste sur les réseaux sociaux et l’une des causes principales réside dans le manque de moyens accordés aux services de police et aux régulateurs. Avec plus de moyens, la justice pourrait réagir et condamner rapidement, ce qui refroidirait progressivement l’essor des contenus toxiques et ferait office de modération par incitation. La lenteur actuelle des décisions de condamnations est responsable du sentiment d’impunité récurrent sur Internet. Le mal français voudrait créer de nouvelles lois, épuiser les plateformes sous de nouvelles obligations, alors que la vraie solution serait de donner à la justice (l’un des ministères les moins bien financé) les moyens humains et financiers d’agir efficacement.

Actuellement, la plateforme Pharos en charge de la surveillance des contenus illicites sur Internet est sous-financée et sous-équipée, avec une vingtaine de cyber-gendarmes quand Facebook a plus de 15 000 personnes en charge de sa modération. Les missions sont éparpillées, les cyber-gendarmes n’ont accès qu’à ce qui est visible au public sur les plateformes et c’est les commissariats qui ont la charge d’examiner les conversations et groupes privés.

Par ailleurs, pour forcer ces super plateformes à respecter leurs obligations, l’échelle nationale ne semble pas la plus efficace puisque nos régulateurs semblent aujourd’hui incapables de faire respecter leurs propres mesures. Il est nécessaire d’engager les régulateurs à échelle européenne et de simplifier la définition des infractions en ligne afin de condamner régulièrement et jusqu’à l’épuisement les plateformes, plutôt que de sanctionner une fois par an ces géants du numérique, impassibles face aux montants de leurs condamnations précédentes.

Par Estelle Berdah


Sources

Lois et approches de la régulation

Modération des contenus : renouveler l’approche de la régulation, Renaissance numérique, Juin 2020

La haine en ligne, de nouvelles lois, pour quoi faire ?, Jean-Marie Portal, Mars 2021

Règlement européen : les plateformes en ligne ont désormais une heure pour retirer le contenu terroriste, Mathieu Pollet, Avril 2021

Haine en ligne : le Conseil constitutionnel censure le dispositif-clé de la loi Avia, Raphaël Balenieri, Juin 2020

Anonymat en ligne

« Renforcement de l’anonymat sur Internet », Arnaud Dimeglio, Août 2021

Il est temps d’arrêter de nous bassiner avec l’anonymat en ligne, Julien Lausson, Juillet 2020

Tout comprendre au débat sur l’anonymat sur Internet, Cécile Bertrand, Juillet 2020

Collaboration des plateformes

Twitter France et son directeur jugés pour ne pas avoir aidé la justice, Le Figaro, Janvier 2022

Twitter loses appeal in French case over online hate speech, Business Standard, Janvier 2022

Haine en ligne : Twitter, mauvais élève des réseaux sociaux, Raphaël Balenieri, Juillet 2020

VIDÉO – PODCAST

Tremblez les trolls : la fin de l’impunité sur les réseaux sociaux ?, Médias en Seine 2021

Le numérique, une zone de non-droit ? avec Simon Puech & Alexandre Archambault, Juin 2021

Facebook se lance dans le métavers : quel avenir pour nos données personnelles ?

Le 28 octobre dernier, Mark Zuckerberg – le fondateur et PDG de Facebook – a annoncé dans une vidéo que le groupe, qui comprend aussi les réseaux sociaux Instagram et WhatsApp, changeait de nom pour devenir Meta. Une façon pour le géant numérique d’introduire son intention de se diriger ces prochaines années vers un nouveau monde, celui du métavers.

Qu’est-ce que le métavers ?

Le métavers est un univers virtuel, parallèle au monde réel.

Ce concept a été théorisé pour la première fois par Neal Stephenson dans son ouvrage Snow Crash, publié en 1992. Le mot métavers est une contraction des mots « meta » et « univers ».

Ce terme est également utilisé pour décrire un internet 3.0 dans lequel les espaces virtuels, persistants et partagés seront accessibles via interaction 3D.

Pour l’instant, les métavers s’appliquent principalement aux jeux vidéo, le plus connu étant Fortnite, mais les champs d’applications se diversifient.
Fortnite a par exemple organisé plusieurs événements culturels sur sa plateforme. En avril 2020, 12,3 millions de personnes ont ainsi assisté virtuellement à un concert de Travis Scott.
Au vu de l’ampleur que prend cette nouvelle réalité virtuelle et les opportunités qu’elle offre, le PDG du jeu – Tim Sweeney – avait d’ailleurs déclaré en 2019 que Fortnite allait progressivement évoluer pour devenir une plateforme et non plus seulement un jeu vidéo.

La rebaptisation de Facebook en Meta s’inscrit dans la lignée de sa stratégie de conquête de ce nouveau monde. Le groupe avait déjà acquis en 2014 la marque de casques de réalité virtuelle Oculus. Son prochain objectif est de développer des métavers dédiés aux entreprises, appelés « Workrooms », pour recréer l’expérience d’une salle de réunion virtuelle. Le groupe a annoncé son intention d’embaucher 10 000 personnes dans l’Union Européenne pour construire son métavers, une version de l’internet en réalité virtuelle que le géant technologique considère comme l’avenir.

(c) Facebook Technologies

Facebook : un passif compliqué en matière de protection des données

L’ambition de Mark Zuckerberg de transformer Facebook en une « entreprise de métavers » dans les cinq prochaines années pose de nombreuses questions concernant la protection de nos données personnelles.

En effet, l’entreprise a beaucoup fait parler d’elle ces dernières années à ce sujet, au travers des nombreux scandales qu’elle a dû essuyer. En 2018, le scandale Cambridge Analytica révélait la fuite des données personnelles de 87 millions d’utilisateurs du réseau social depuis 2014. Ces informations ont servi à influencer les intentions de vote en faveur d’hommes politiques qui ont retenu les services de Cambridge Analytica, par le biais de messages les ciblant spécifiquement, en fonction de leur profil psychologique sur les réseaux sociaux. Selon plusieurs analystes, l’élection de Donald Trump en 2016 et le Brexit sont en partie dû à ces manipulations.

Après trois ans et des milliards de dollars d’amendes pour ne pas avoir protégé les données de ses utilisateurs, Facebook n’a semble-t-il pas retenu la leçon, puisque depuis, plusieurs coups d’éclats ont entaché l’image de marque du groupe et la confiance des utilisateurs en la plateforme. En 2019, plusieurs millions de numéros de téléphone de personnes ont été récupérés sur les serveurs de Facebook, en violation de ses conditions de service. Facebook a déclaré que cette vulnérabilité avait été corrigée en août 2019. Cependant, un nouveau vol de données s’est produit en avril 2021. Cette fois-ci, les données de 533 millions d’utilisateurs comprenaient leur date de naissance, leur numéro de téléphone, leur adresse électronique et leur nom complet. Les pirates ont ensuite mis ces données en ligne pour que les gens puissent les voir et les utiliser gratuitement.

Mark Zuckerberg s’efforce de convaincre les autorités que la data privacy est un enjeu majeur pour le groupe, qui met tout en place pour sécuriser au mieux les données personnelles de ses utilisateurs, mais force est de constater que ce n’est pas le cas. De plus, malgré leurs efforts, les autorités nationales et internationales peinent à condamner ce géant du numérique car les réglementations concernant le monde numérique sont encore ténues.

Ainsi, comment aborder les questions de protection de la vie privée dans le monde virtuel du métavers, alors même que les choses ne sont pas définitivement réglées dans le monde réel ?

Le métavers et les enjeux de data privacy

Lors de l’introduction de Meta, Mark Zuckerberg a abordé ce sujet en insistant sur le fait que la data privacy était au cœur de leurs préoccupations dans la construction du métavers et qu’ils collaboreront avec les régulateurs et des experts afin d’assurer que le métavers « will be built responsibly », en minimisant la quantité de données collectées. Il a également précisé que les données seraient transparentes vis-à-vis des utilisateurs, qui pourront donc y avoir accès et les contrôler.

Cependant, cela pourrait ne pas être aussi évident que ce que le chef d’entreprise laisse entendre. En effet, le métavers donnera un accès privilégié à Facebook/Meta à une quantité de données sans précédent (biométrie, localisation, informations financières…), qui seront également extrêmement qualifiées : notamment les réponses physiologiques, les mouvements du corps, les expressions faciales… Il sera même possible d’interpréter les processus de pensée inconscients, révélés par ces expressions faciales. De plus, le métavers exige l’installation de nombreux capteurs dans les maisons et sur les lieux de travail, Meta souhaitant dans un premier temps s’implanter dans les entreprises. Ce dernier aspect est intéressant du point de vue de la protection de la vie privée : si votre entreprise a décidé qu’elle allait utiliser la solution de métavers de Facebook – par exemple pour des meetings professionnels – vous n’aurez pas d’autre choix que de céder une grande quantité de vos données. Quid du consentement ? Il faudra revoir toutes ces notions.

La grande question qui se pose concernant le métavers et l’utilisation des données est celle de la régulation. Les règles et lois qui régissent notre monde réel seront-elles encore valables dans le monde virtuel ?
Faut-il créer un méta-tribunal pour rendre les décisions de justice ? Ou alors ce nouveau monde sera-t-il modéré par Facebook ?

Plusieurs régulateurs ont déjà fait part de leurs inquiétudes concernant le développement de ces nouvelles technologies. Ainsi, la Commission de protection des données irlandaise (DPC) et le régulateur italien chargé de la protection des données personnelles, craignent que le métavers permettent à Facebook/Meta de violer le Règlement Général de la Protection des Données (RGPD), que Facebook a déjà tenté de contourner à plusieurs reprises.

La collaboration récente du groupe avec la marque Ray-Ban, qui a sorti ses premières lunettes connectées en septembre dernier en est un exemple.

En effet, le RGPD oblige les gadgets de réalité virtuelle à afficher un indicateur de confidentialité pour informer les utilisateurs que leurs actions sont enregistrées. Ainsi, une lumière s’affichait sur les lunettes lorsque l’utilisateur actionnait la caméra afin de prévenir les personnes aux alentours qu’elles étaient filmées. Malgré tout, beaucoup de voix se sont levées pour critiquer cette mesure, considérée comme trop faible. Facebook n’a pas pu prouver que cette lumière suffisait à protéger les données personnelles non seulement de ceux qui portent les lunettes, mais également de ceux dans leur champ de vision, dont les données peuvent être enregistrées sans qu’ils le sachent.

L’enjeu est le même dans le cas du métavers. Il s’agit de savoir précisément quelles données sont prélevées et à quel moment, et comment en informer efficacement les utilisateurs.

Sommes-nous prêts à renoncer à notre vie privée ?

Enfin, une dernière question que pose ce sujet est l’acceptabilité sociale de ce nouveau monde virtuel. Plusieurs études montrent que la confiance des utilisateurs en Facebook concernant la protection de leur vie privée diminue, notamment dû à tous les scandales que nous avons évoqués dans cet article. Ainsi, alors qu’à sa création, Facebook était le réseau social favori des jeunes, aujourd’hui, la moyenne d’âge des utilisateurs est de 41 ans et augmente chaque année. Le métavers est aussi une manière pour le géant numérique d’attirer de nouveau les jeunes générations. Cependant, il n’est pas certain que cela fonctionne au vu des récentes informations révélées par la lanceuse d’alerte Frances Haugen – ancienne salariée du groupe – qui a publié des documents prouvant que le groupe avait connaissance des effets néfastes de ses réseaux sociaux, en particulier Instagram, sur la santé mentale des enfants et adolescents, et qu’il a délibérément choisi de les ignorer.

Des études ont déjà montré que le métavers pouvait également être nocif pour les plus jeunes, premièrement par la rapide addiction qu’il peut engendrer, d’autre part parce que la frontière entre la réalité et le virtuel s’amincit chez certains enfants, qui ne distinguent plus leurs actions dans le monde réel ou dans le jeu.  

Tous ces enjeux sont autant de questions auxquelles le groupe Meta devra répondre s’il espère convaincre les autorités, ainsi que le public de basculer dans son nouveau monde, celui qu’il appelle l’Internet 3.0.

Maël GONNOT

Bibliographie

  • « Why Facebook’s Metaverse Is A Privacy Nightmare », Kate O’Flaherty – Forbes (13/11/2021)
    https://www.forbes.com/sites/kateoflahertyuk/2021/11/13/why-facebooks-metaverse-is-a-privacy-nightmare/?sh=18bf31d26db8&fbclid=IwAR0QuvsIu9FKlGX97oopJlRhKKU5dHDJIpyMRz5NBDhP3pa3HNN84S8sXbE
  • « Facebook’s metaverse aspirations tied to privacy, antitrust regulation », Mike Swift (01/11/2021)
    https://mlexmarketinsight.com/news-hub/editors-picks/area-of-expertise/antitrust/facebooks-metaverse-aspirations-tied-to-privacy-antitrust-regulation?fbclid=IwAR0EbCujuatetpqVYLK3qMf3LqYlMnGRDqbXPDD1etFJmriBHy3JLBKCvFc
  • « Data privacy: A block in the road for Facebook’s metaverse ambitions », GlobalData Thematic Research (28/09/2021)
    https://www.verdict.co.uk/facebook-ray-ban-stories-metaverse/?fbclid=IwAR1czJ_O6uTlCpuhOcEFb_7PBwcF1bVET-oguKb-M95zgwaoz_kliiNa6_U
  • « Introducing Meta », Mark Zuckerberg – Youtube (29/10/2021)
    https://www.youtube.com/watch?v=pjNI9K1D_xo

Les deepfakes joueront-ils les trouble-fêtes dans les élections américaines ?

L’émergence et le perfectionnement des deepfakes suscitent de vives inquiétudes dans les sphères politico-médiatiques sans qu’aucune mesure concrète n’ait encore été prise. La déclaration de Monika Bickert, vice-présidente de la gestion des politiques mondiales chez Facebook, pourrait marquer un tournant décisif dans l’appréhension de ce phénomène, une menace réelle pour le groupe lui-même.

Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Des messages étonnants, suspects et dangereux appelés deepfakes.

Pour la première fois, le géant américain se positionne réellement et annonce des mesures concrètes pour encadrer ce qui pourrait être une réelle bombe à retardement à l’approche des élections présidentielles américaines.

Une technologie demain à la portée de tous

Apparu à l’automne 2017, le terme de deepfake désigne des vidéos truquées grâce à l’intelligence artificielle permettant d’animer des images au bon gré de l’internaute, en appliquant à n’importe quel visage un comportement humain pour le faire parler et bouger selon son souhait. Contraction de « fake » et de « deep learning », ces trucages se développent grâce aux techniques des GAN, comprenez les Generative Adversarial Networks.

Le principe est simple : deux algorithmes s’entrainent mutuellement. Le premier crée des imitations les plus crédibles possibles, le second tente de détecter le faux dans l’exécution du premier. Les répétitions du programme entraînent l’algorithme et permettent d’améliorer la technique pour obtenir des résultats de plus en plus proches de la réalité. La machine se perfectionne toute seule et les résultats obtenus peuvent être stupéfiants : Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Ces vidéos sont rapidement devenues virales, si bien que l’envie de rendre cette technique accessible à tous s’est imposée.

De nombreuses entreprises se lancent alors à l’assaut d’un marché qui pourrait leur rapporter gros. Des acteurs chinois ont très vite pris les devants dans cette course technologique : l’application Zao par exemple propose d’incruster votre visage dans des films célèbres. Doublicat se spécialise dans l’incrustation de visage dans des GIF. Snapchat et TikTok  comptent bien être de la partie et ont déjà annoncé le développement de fonctionnalités similaires. Parallèlement, le nombre de deepfakes explose : de 8 000 à 14 700 entre fin 2018 et automne 2019. Et ce n’est qu’un début. Cette technique devrait être réellement accessible à tous d’ici 6 mois et cela avec une qualité très satisfaisante.

Une menace bien réelle pour les démocraties

Si pour l’instant, on estime à 96% la part de deepfakes relevant du divertissement et de l’humour, la menace pourrait grandir très vite, notamment s’ils sont utilisés à des fins de communication politique.  Alors que l’élection américaine approche à grand pas, l’affaire Cambridge Analytica reste dans tous les esprits et démontre que les réseaux sociaux sont aujourd’hui un nouveau terrain stratégique pour la propagation voire la manipulation d’idées, supportée par l’accès à des données numériques permettant d’identifier des profils d’utilisateurs. Les réseaux sociaux ont révolutionné la diffusion de l’information, dans sa forme et sa vélocité. Ils impactent notre vision de l’actualité et donc parfois nos opinions personnelles. Le sensationnel dépasse bien souvent le rationnel et les algorithmes de ces machines sociales permettent la mise en avant d’informations peu fiables qui alimentent pourtant nos perceptions de la réalité.  

La menace réside dans le fait que les limites actuelles des deepfakes, technologiques, ne pèsent pas lourd face à cette nouvelle forme de diffusion.  En prêtant attention, un internaute n’aurait pas de mal à distinguer un deepfake d’une vidéo non trafiquée. Pourtant, les utilisateurs des réseaux sociaux se caractérisent par une attention souvent courte. Ils sont désireux de trouver des contenus synthétisés, percutants, consommables partout et instantanément. Pour preuve, le deepfake annonçant l’éradication du sida par Trump, pourtant une campagne de prévention contre le sida, n’a majoritairement pas été visionnée jusqu’à la fin, alors que le démenti apparaissait en conclusion de la vidéo. La fausse information est partagée en un clic, commentée, et l’information se propage. Le démenti aura ainsi beaucoup moins de visibilité et d’impact que la première vague de diffusion.

L’enjeu majeur n’est donc pas de détecter ces vidéos pour les signaler, mais bien d’être capable de les stopper ou de les identifier avant qu’elles ne soient publiées.

Ces craintes pourraient paraître trop alarmistes si les deepfakes n’avaient pas déjà été utilisés de manières fallacieuses dans un contexte politique. En effet, durant les élections législatives britanniques  de 2019, et donc dans un contexte politique tendu, deux faux enregistrements vidéos ont été diffusés sur les réseaux sociaux dans le but de déstabiliser les électeurs. Ces vidéos mettaient en scène les candidats vantant les mérites de leurs opposants. Lorsqu’on connaît l’impact qu’ont eu les fake news dans certains suffrages, tels celui du Brexit,  la réelle menace pour nos démocratie ne relève plus de la science-fiction.  

Des niveaux de sanction très variables selon les pays

Alors, nos gouvernements sont-ils parés pour lutter contre ces dérives ? Alors que la Chine applique depuis le 1 janvier 2020 une loi permettant d’appréhender les créateurs de deepfakes au même titre que des criminels, les instances politiques françaises semblent moins enclines à légiférer sur le sujet.

Le 15 octobre 2019, le secrétariat d’État au numérique publie une réponse officielle aux débats sur la nécessité de s’armer contre l’auteur d’un deepfake fallacieux. Il affirme que le droit français possède déjà le recours permettant de lutter efficacement contre cette menace : la loi relative à la lutte contre la manipulation de l’information, en vigueur depuis le 22 décembre 2018. Elle permet la création d’un référé habilité à stopper en urgence la diffusion d’une fausse information, l’obligation d’une plus grande transparence des sites en période électorale sur l’origine des informations, d’accorder des pouvoirs de régulation accrus au CSA. Ces mesures ne semblent cependant pas suffisantes à la CNIL qui recommande en novembre 2019 un cadre législatif et réglementaire spécifique à la reconnaissance faciale, et donc à la conception de deepfakes : « L’informatique doit être au service de chaque citoyen. […] Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».

Les faiblesses du cadre législatif ne sont pas dénoncées uniquement en France. Aux États-Unis, le groupe de réflexion Future Advocacy, qui réunit de nombreux professionnels, pointe du doigt la préoccupation d’ordre public et la désinvolture de la sphère politique face à ces dangers.

Si la piste interventionniste est abandonnée du côté législatif, l’autre voie, cette fois-ci libéraliste, consisterait à laisser aux plateformes le soin de résoudre le problème. Jusqu’à maintenant, Facebook et les autres acteurs sont protégés par leur statut d’hébergeur, et non d’éditeur, qui les déresponsabilise sur leur contenu.

Cependant, Twitter, Pornhub, Gfycat appliquent déjà depuis peu une politique de modération drastique avec la suppression systématique des deepfakes. L’action de ces acteurs, notamment Pornhub, n’est pas anecdotique lorsqu’on connaît la création répétitive des deepfakes calquant le visage d’actrices renommées sur des vidéos pornographiques pour ensuite diffuser ces vidéos.

En revanche de son côté, Facebook a toujours été extrêmement réticent à sortir de sa neutralité et donc de sa non responsabilité légale. Cependant, la stratégie de communication du géant américain pourrait bien changer, pour éviter un nouveau scandale qui finirait de ternir son image.

Enfin des mesures plus concrètes mais pas forcément suffisantes

Les annonces ont débuté en septembre. Avec le lancement du Deepfake Detection Challenge, Facebook jetait un premier pavé dans la mare et proposait à des entreprises du secteur et à des universitaires de se rassembler le temps du challenge afin de stimuler la recherche et la production d’outils en open source. Le projet a notamment réuni Microsoft, Amazon, le MIT et l’Université de Californie.  Le réseau social avait pour cela investi 10 millions de dollars dans le projet et poursuivi ses investissements dans le laboratoire FAIR. Ce dernier a pour mission de travailler à l’avancement du projet de « désidentification » et l’utilisation de l’IA dans le but d’appliquer un filtre vidéo invisible afin d’empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des deepfakes

En décembre 2019, Facebook annonçait avoir supprimé “un réseau utilisant des photos générées par l’IA pour dissimuler leurs faux comptes. Nos équipes continuent à rechercher de manière proactive les faux comptes et autres comportements inauthentiques coordonnés[1].

Lundi 6 janvier 2020, la lutte du géant américain contre les deepfakes prend une tournure plus concrète avec l’annonce de mesures. En plus d’un partenariat avec le média international Reuters, qui aurait pour objectif d’accompagner les rédactions du monde entier en leur apprenant à identifier les deepfakes grâce à des outils et des formations en ligne, Facebook souhaite agir directement sur les publications.

Le géant propose cette fois-ci de sanctionner les contenus en empêchant la monétisation et en labellisant la vidéo comme une fakenews. Les vidéos concernées devront répondre à ces deux conditions :

  • La vidéo a été modifiée sans que le trucage soit facilement détectable par une personne lambda.
  • La vidéo a employé des techniques d’Intelligence artificielle ou du machine learning.

Cette déclaration n’est pas inopportune puisqu’elle arrive juste avant une nouvelle audition par la chambre des représentants des États-Unis, dans laquelle le réseau social, après son premier passage critiqué, devra se montrer plus convaincant s’il veut parvenir à rassurer l’opinion publique.

Mais alors, quels sont les risques à laisser Facebook comme seul modérateur ? Facebook affirme que cette modération ne s’appliquera pas aux contenus parodiques ou satiriques. Le géant américain devra donc juger le caractère humoristique d’un contenu,  un exercice très subjectif et qui, utilisé à mauvais escient, pourrait s’apparenter à de la censure.  Cependant, ces acteurs puissants semblent être les seuls réellement capables aujourd’hui de développer des techniques et des outils permettant de lutter contre les deepfakes, qui constituent une prouesse technologique indéniable, mais qui, sans encadrement pour en limiter les dérives, pourraient nuire à nos démocraties.

Louise DANIEL

https://www.lci.fr/high-tech/video-deepfake-la-menace-devient-reelle-2143709.html

https://www.latribune.fr/technos-medias/internet/deepfake-la-nouvelle-bete-noire-de-facebook-836553.html

https://portail-ie.fr/analysis/2253/intelligence-artificielle-et-deepfakes-la-naissance-de-nouveaux-risques-strategiques

https://www.actuia.com/actualite/comment-facebook-compte-lutter-contre-les-deepfakes/

www.numerama.com/politique/561713-le-gouvernement-considere-que-la-loi-permet-deja-de-lutter-efficacement-contre-les-deepfakes.html

www.journaldugeek.com/2020/01/14/deepfake-application-devenir-meme/



La directive européenne sur le droit d’auteur, chronique d’une réforme controversée

En septembre 2016, la Commission européenne a présenté sa réforme du droit d’auteur, notamment à travers une proposition de directive portant sur le droit d’auteur dans le marché unique numérique. Cette directive, qui vise à actualiser la Copyright Directive de 2001, introduit un droit voisin pour les éditeurs de presse et une obligation pour les plateformes de filtrer les contenus violant le droit d’auteur, afin de résorber le value gap, tout en prévoyant également que les plateformes passent des accords avec les ayants droit.

Cette réforme a suscité une levée de boucliers de toutes part. En effet, d’après la Commission européenne, si le texte a pour objectif de placer les éditeurs de presse « dans une meilleure position pour négocier l’utilisation de leurs contenus avec les services en ligne qui les utilisent ou en permettent l’accès et pour lutter contre le piratage », son application induirait d’importants changements pour les acteurs du numérique.

Droit voisin, value gap, de quoi s’agit-il ?

Dans ce texte long de de 24 articles, deux d’entre eux concentrent les crispations : les articles 11 et 13. Le premier vise à créer un droit voisin pour les plateformes numériques : il s’agit d’étendre le droit d’auteur aux hébergeurs jusqu’ici majoritairement épargnés par la prise en compte des droits moraux et patrimoniaux de l’auteur – ou des ayants droit, le cas échéant – afin de réduire le value gap actuel. Le value gap est l’écart entre les revenus de la publicité touchés par les plateformes grâce aux contenus publiés, et ceux qu’elles versent aux ayants droit. Il est parfois également défini comme l’écart de valeur entre les revenus que les plateformes vivant de la publicité (YouTube, Dailymotion…) versent aux ayants droit et ceux versés par les services d’abonnement (Spotify, Deezer). Ce droit voisin s’appliquerait alors aux “éditeurs de publications de presse (…) pour l’utilisation numérique de leurs publications de presse.

L’article 13, quant à lui, dispose que les hébergeurs ne devraient pas seulement exercer un contrôle a posteriori des contenus, mais a priori, en filtrant de manière automatique les contenus lorsqu’ils tombent sous le coup du droit d’auteur et ne font pas l’objet d’un accord entre l’hébergeur et l’ayant droit. Une façon de renforcer la responsabilité des plateformes, qui sont vent debout face à cette directive.

D’âpres négociations, mais toujours pas de compromis

Après plus de deux ans de négociations, les États ont apporté beaucoup de modifications techniques, mais ont préservé les objectifs généraux du texte. Cependant, chaque institution y est allée de sa version, obligeant à entamer des négociations dans le cadre du trilogue (Parlement européen, Commission européenne et Conseil de l’UE) pour aboutir à un compromis. Pour le moment, les principaux points d’achoppement qui demeurent concernent la durée des droits accordés aux éditeurs de presse, l’application des droits aux snippets (les courts extraits d’articles) ou encore l’exclusion des PME pour les obligations de filtrage.

Si la France s’est dite assez satisfaite des négociations entre les États au niveau du Conseil, elle a toutefois décidé de prendre les devants, en soutenant la proposition de loi du sénateur David Assouline tendant à créer un droit voisin au profit des agences de presse et des éditeurs de presse. Sa rédaction a d’ailleurs fait l’objet d’une concertation avec le gouvernement. L’objectif affiché est d’anticiper toutes les issues possibles des négociations au niveau européen. Ainsi, si le trilogue aboutit dans un délai raisonnable, cette proposition de loi pourra servir de texte de transposition, d’autant qu’elle exclut volontairement des éléments de la directive qui ne sont pas encore tranchés. En cas d’échec des négociations, ce texte pourrait servir à la création d’un droit voisin au niveau français, comme il en est question pour la taxation des géants du numérique.

En attendant, les lobbies des deux camps s’affairent en coulisse pour tenter d’influencer les parties prenantes de la négociation : Europe for Creators, European Innovative Media Publishers, EDRi… Tous essayent de minimiser les effets du texte sur leurs activités. Le dernier en date : Google, qui a menacé de fermer son service Google News en Europe – comme naguère en Espagne – dans l’hypothèse où la réforme du droit voisin était adoptée.

Les négociations, redémarrée en raison de la nouvelle présidence roumaine du Conseil de l’UE, aboutiront-elles avant les élections du mois de mai prochain ? Rien n’est moins sûr.

Paul Lachner-Gaubert

Quitter la version mobile