Comment les deepfakes peuvent impacter la santé sur les réseaux sociaux ?

Vous avez déjà pu tomber sur la fameuse vidéo de Barack Obama insultant Donald Trump ou encore sur celle de Zelensky diffusée sur une chaîne d’information officielle ukrainienne. Certains adeptes du deepfake, s’amusent à inventer des visages qui n’existent pas, à parler à la place de personnalités publiques…

Cependant, l’usage du deepfake souligne des risques en termes de droits à l’image et désinformation de masse.

https://youtu.be/cQ54GDm1eL0?t=23

Le deepfake consiste en la création de photos, d’audios ou de vidéos utilisant le visage d’une personne existante ou non, rendus crédibles grâce à l’intelligence artificielle. Contraction de Deep Learning et fake, cette technologie repose sur les GANs (Generative Adversarial Networks), produisant un contenu très réaliste.

Le champ des possibles du deepfake s’élargit. Du visage d’une personne sur le corps d’un autre, à la création d’une personne qui n’existe pas ou encore à la possibilité de prendre l’apparence d’une personne sur une vidéo et de « cloner » sa voix, le Deepfake ne cesse de gagner en réalisme.

Cependant, nous pouvons nous interroger quant aux dangers auxquels les internautes sont exposés via l’utilisation de cette technologie. Rappelons que le premier Deepfake a été publié sur Reddit, plateforme sur laquelle un utilisateur mettait en scène des célébrités comme Natalie Portman ou Jessica Alba dans de fausses vidéos pornographiques. Une entrée plutôt fracassante…

Cette technologie est d’autant plus répandue par l’usage des réseaux sociaux et pourrait fortement nuire à la santé de tous.

De ludique à politique, comment peuvent-ils impacter la santé via les réseaux sociaux ?

L’impact sur le secteur de la santé

Commençons par l’aspect négatif :

L’influence des deepfakes sur la santé commence à préoccuper les experts.

Certains deepfakes sont utilisés pour compromettre la confidentialité des données de santé des patients. Les cybercriminels peuvent ainsi publier sur les réseaux des enregistrements vocaux ou des vidéos semblant provenir de professionnels de la santé ou autorité comme l’OMS mais qui sont en réalité des pièges à clics. Les risques sont qu’ils y fassent fuiter les données personnelles des malades.

D’un point de vue purement médical, une vidéo peut, par exemple, être diffusée et faire croire que quelqu’un a été guéri d’une maladie via un traitement spécifique. Un politique peut sembler dire ou agir à l’opposé des recommandations de santé publique…

Ces pratiques peuvent pousser à adopter des comportements préjudiciables, conduisant, qui plus est, à des fraudes à l’assurance maladie et des perturbations des soins de santé.

Par conséquent, il est important que les utilisateurs des réseaux sociaux soient conscients de la possibilité de deepfakes médicaux et qu’ils vérifient toujours l’authenticité des informations avant de les partager.

De surcroît, l’augmentation de deepfakes aux visages « parfaits » sur les réseaux va de pair avec l’accroissement du taux de chirurgie esthétique.

« En moyenne, sur cette tranche d’âge (18-34 ans), la proportion de femmes qui poussent les portes des cabinets de chirurgie esthétique est de l’ordre de 80%. »

Chirurgie esthétique : favorisée par les réseaux sociaux, la tendance explose chez les jeunes (rtl.fr)

Heureusement il n’y a pas que du mauvais au deepfake :

Parfois le trucage de voix peut être utilisée à des fins positives. La voix pouvant être trafiquée, certaines communications du secteur de la santé pourrait mieux « passer » aux yeux des utilisateurs.

« Si l’on prend l’exemple d’une campagne de santé publique, avec 2-3 % de personnes convaincues en plus, les Deepfake peuvent sauver des vies. »

Deepfake, entre réel progrès et enjeux éthiques (bpifrance.fr)

Par ailleurs, la langue des signes n’étant encore que très peu répandue, en particulier sur les réseaux sociaux, les deepfakes pourraient améliorer le quotidien de personnes atteinte de mutisme. Leur message pourrait avoir plus d’impact et entraîner plus d’engagement.

De plus, les deepfakes pourraient contribuer aux progrès de la science. Un des exemples relevés serait leur capacité à repérer des organes malades au travers de la radiographie, aidant ainsi les médecins à effectuer un diagnostic. Les réseaux sociaux pourraient alors y développer la diffusion de ces savoirs (pour les étudiants en médecine par exemple).

Images d’IRN générées grâce aux GANs

L’impact sur la santé mentale

Commençons à nouveau par le négatif :

Les deepfakes peuvent également avoir un impact sur la santé mentale des gens sur les réseaux sociaux.

Une personne peut être victime de cyberharcèlement et voir sa réputation salie par du deepfake utilisant son visage dans un contexte faux et défavorable. Ces risques touchent principalement les femmes pouvant être victimes de Revenge porn. Cependant, certaines victimes doutent de leur statut avançant qu’elles n’étaient pas réellement présentes sur ces vidéos et guérissent difficilement de ce traumatisme.

Par ailleurs, les deepfakes peuvent conduire à une usurpation d’identité de la part de cybercriminels se faisant passer pour d’autres via des notes vocales crédibles. Cette situation provoque une perte de confiance et instaure un climat de « paranoïa » .

D’autre part, il est désormais facile pour les utilisateurs de se créer une « fausse vie » et de « faux attributs physiques », qu’ils partageraient sur les réseaux sociaux. Des biais raciaux, sexistes et des critères de beauté « standards » inatteignables y sont, d’ailleurs, cachés sous la table. En effet, les deepfakes ont souvent tendance à blanchir, rajeunir ou vieillir les utilisateurs, à donner des traits plus fins pour une femme et inversement pour les hommes. Cette théologie de la perfection physique prônant le transhumanisme enferme les users dans un carcan de mensonges, complexes et de frustrations.

Le feed d’un jeune se voit donc de plus en plus lisse : une jeune femme magnifique dans un paysage de rêve alors que tout s’avère souvent truqué (fond vert). Cette surexposition constante au « parfait » pousse certains utilisateurs à ne plus se reconnaitre et à accepter leur faux visage à mesure que leur taux de likes augmente. Ce qui induit des troubles en termes de définition et limites de soi avec la question suivante : « Où s’arrête le vrai Moi, où commence mon faux personnage ». Pas étonnant que le taux de chirurgie esthétique augmente….

« Chaque fois que j’obtenais un “j’aime” sur une photo, je sentais ces endorphines comme si c’était moi, comme si quelqu’un que je connais aimait une photo de moi »

https://leclaireur.fnac.com/article/220141-apres-les-vraies-fausses-vies-sur-les-reseaux-sociaux-place-aux-vies-truquees-grace-a-lia/

Mais l’aspect positif donne un brin d’espoir :

Avez-vous déjà entendu parler de la Deepfake Therapie ? Une étude publiée dans la revue Frontiers in Psychiatry a mis en avant deux victimes d’agressions sexuelles dialoguant sur la plateforme Zoom avec leur faux agresseur, en présence de leur thérapeute. Elle s’est avérée fructueuse puisque l’une des victimes a vu ses stress post-traumatiques diminuer en une semaine. Précisons que l’agresseur s’exprime « avec empathie sans chercher à revictimiser le patient » . Ce type de plateforme existe déjà notamment DeepTherapy.ai, dans laquelle certains endeuillés parlent avec un défunt. Il faut cependant savoir limiter son utilisation car en faussant le vrai, certaines séquelles peuvent subsister. Cette pratique pourrait s’étendre de la médiation pour le divorce au harcèlement des enfants.

Certaines personnes n’arrivent pas à tourner la page concernant une personne étant donnée la visibilité que donnent les réseaux sociaux et cette pratique pourrait fortement les aider.

Conclusions et résolutions qui en découlent

Les deepfakes constituent donc le sujet emblématique des réseaux sociaux et de l’intelligence artificielle. Nous devons ainsi tenir compte de la portée de cette IA afin de protéger la santé de tous.

Heureusement, une réglementation vient encadrer les dérives des deepfakes.

Ainsi, l’utilisation de deepfakes pour tromper les internautes sur l’identité d’une personne peut être punie par la loi.

Aux États-Unis, par exemple, le Congrès a adopté la loi de lutte contre la cybercriminalité (Cybercrime Enforcement Act) en 2019, qui criminalise la production et la distribution de deepfakes dans le but de tromper ou de nuire à une personne. La loi impose des peines allant jusqu’à 10 ans de prison.

En France, les deepfakes peuvent être considérés comme de l’escroquerie ou de l’usurpation d’identité, voire de la diffamation, selon la loi sur la liberté de la presse. Ainsi, un deepfake non mentionné comme tel est illégal. La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information permet de stopper la diffusion massive de désinformation.

Au niveau européen, le projet de règlement sur les services numériques (« Digital Services Act ») prévoit des mesures pour lutter contre les risques systémiques découlant des plateformes en ligne et moteurs de recherche, en particulier contre tout effet négatif sur le discours civique.

D’autre part, la Commission européenne a publié un code de conduite européen renforcé pour lutter contre la désinformation. Le Conseil de l’Union européenne a adopté une résolution en 2021 appelant à une réglementation renforcée des deepfakes pour lutter contre la désinformation et les menaces pour la sécurité.

Enfin, plusieurs solutions ont été développées par les grands acteurs du numérique pour détecter et lutter contre les deepfakes, comme le Deepfake Detection Challenge de Facebook, AWS, Microsoft et Partnership in AI, ainsi que la plateforme InVID pour aider les journalistes à détecter les vidéos truquées.

Désormais, il est obligatoire de préciser si un contenu est Deepfake ou non.

Cependant, cette réglementation pose également des défis en matière de liberté d’expression et de droits de la personne, la ligne entre manipulation de contenu malveillant et parodie étant souvent floue.

Ce qui importe donc le plus est d’être conscient que les réseaux sociaux ne sont pas la vraie vie…

Chirel Darmouni.

Sources

Facebook se lance dans le métavers : quel avenir pour nos données personnelles ?

Le 28 octobre dernier, Mark Zuckerberg – le fondateur et PDG de Facebook – a annoncé dans une vidéo que le groupe, qui comprend aussi les réseaux sociaux Instagram et WhatsApp, changeait de nom pour devenir Meta. Une façon pour le géant numérique d’introduire son intention de se diriger ces prochaines années vers un nouveau monde, celui du métavers.

Qu’est-ce que le métavers ?

Le métavers est un univers virtuel, parallèle au monde réel.

Ce concept a été théorisé pour la première fois par Neal Stephenson dans son ouvrage Snow Crash, publié en 1992. Le mot métavers est une contraction des mots « meta » et « univers ».

Ce terme est également utilisé pour décrire un internet 3.0 dans lequel les espaces virtuels, persistants et partagés seront accessibles via interaction 3D.

Pour l’instant, les métavers s’appliquent principalement aux jeux vidéo, le plus connu étant Fortnite, mais les champs d’applications se diversifient.
Fortnite a par exemple organisé plusieurs événements culturels sur sa plateforme. En avril 2020, 12,3 millions de personnes ont ainsi assisté virtuellement à un concert de Travis Scott.
Au vu de l’ampleur que prend cette nouvelle réalité virtuelle et les opportunités qu’elle offre, le PDG du jeu – Tim Sweeney – avait d’ailleurs déclaré en 2019 que Fortnite allait progressivement évoluer pour devenir une plateforme et non plus seulement un jeu vidéo.

La rebaptisation de Facebook en Meta s’inscrit dans la lignée de sa stratégie de conquête de ce nouveau monde. Le groupe avait déjà acquis en 2014 la marque de casques de réalité virtuelle Oculus. Son prochain objectif est de développer des métavers dédiés aux entreprises, appelés « Workrooms », pour recréer l’expérience d’une salle de réunion virtuelle. Le groupe a annoncé son intention d’embaucher 10 000 personnes dans l’Union Européenne pour construire son métavers, une version de l’internet en réalité virtuelle que le géant technologique considère comme l’avenir.

(c) Facebook Technologies

Facebook : un passif compliqué en matière de protection des données

L’ambition de Mark Zuckerberg de transformer Facebook en une « entreprise de métavers » dans les cinq prochaines années pose de nombreuses questions concernant la protection de nos données personnelles.

En effet, l’entreprise a beaucoup fait parler d’elle ces dernières années à ce sujet, au travers des nombreux scandales qu’elle a dû essuyer. En 2018, le scandale Cambridge Analytica révélait la fuite des données personnelles de 87 millions d’utilisateurs du réseau social depuis 2014. Ces informations ont servi à influencer les intentions de vote en faveur d’hommes politiques qui ont retenu les services de Cambridge Analytica, par le biais de messages les ciblant spécifiquement, en fonction de leur profil psychologique sur les réseaux sociaux. Selon plusieurs analystes, l’élection de Donald Trump en 2016 et le Brexit sont en partie dû à ces manipulations.

Après trois ans et des milliards de dollars d’amendes pour ne pas avoir protégé les données de ses utilisateurs, Facebook n’a semble-t-il pas retenu la leçon, puisque depuis, plusieurs coups d’éclats ont entaché l’image de marque du groupe et la confiance des utilisateurs en la plateforme. En 2019, plusieurs millions de numéros de téléphone de personnes ont été récupérés sur les serveurs de Facebook, en violation de ses conditions de service. Facebook a déclaré que cette vulnérabilité avait été corrigée en août 2019. Cependant, un nouveau vol de données s’est produit en avril 2021. Cette fois-ci, les données de 533 millions d’utilisateurs comprenaient leur date de naissance, leur numéro de téléphone, leur adresse électronique et leur nom complet. Les pirates ont ensuite mis ces données en ligne pour que les gens puissent les voir et les utiliser gratuitement.

Mark Zuckerberg s’efforce de convaincre les autorités que la data privacy est un enjeu majeur pour le groupe, qui met tout en place pour sécuriser au mieux les données personnelles de ses utilisateurs, mais force est de constater que ce n’est pas le cas. De plus, malgré leurs efforts, les autorités nationales et internationales peinent à condamner ce géant du numérique car les réglementations concernant le monde numérique sont encore ténues.

Ainsi, comment aborder les questions de protection de la vie privée dans le monde virtuel du métavers, alors même que les choses ne sont pas définitivement réglées dans le monde réel ?

Le métavers et les enjeux de data privacy

Lors de l’introduction de Meta, Mark Zuckerberg a abordé ce sujet en insistant sur le fait que la data privacy était au cœur de leurs préoccupations dans la construction du métavers et qu’ils collaboreront avec les régulateurs et des experts afin d’assurer que le métavers « will be built responsibly », en minimisant la quantité de données collectées. Il a également précisé que les données seraient transparentes vis-à-vis des utilisateurs, qui pourront donc y avoir accès et les contrôler.

Cependant, cela pourrait ne pas être aussi évident que ce que le chef d’entreprise laisse entendre. En effet, le métavers donnera un accès privilégié à Facebook/Meta à une quantité de données sans précédent (biométrie, localisation, informations financières…), qui seront également extrêmement qualifiées : notamment les réponses physiologiques, les mouvements du corps, les expressions faciales… Il sera même possible d’interpréter les processus de pensée inconscients, révélés par ces expressions faciales. De plus, le métavers exige l’installation de nombreux capteurs dans les maisons et sur les lieux de travail, Meta souhaitant dans un premier temps s’implanter dans les entreprises. Ce dernier aspect est intéressant du point de vue de la protection de la vie privée : si votre entreprise a décidé qu’elle allait utiliser la solution de métavers de Facebook – par exemple pour des meetings professionnels – vous n’aurez pas d’autre choix que de céder une grande quantité de vos données. Quid du consentement ? Il faudra revoir toutes ces notions.

La grande question qui se pose concernant le métavers et l’utilisation des données est celle de la régulation. Les règles et lois qui régissent notre monde réel seront-elles encore valables dans le monde virtuel ?
Faut-il créer un méta-tribunal pour rendre les décisions de justice ? Ou alors ce nouveau monde sera-t-il modéré par Facebook ?

Plusieurs régulateurs ont déjà fait part de leurs inquiétudes concernant le développement de ces nouvelles technologies. Ainsi, la Commission de protection des données irlandaise (DPC) et le régulateur italien chargé de la protection des données personnelles, craignent que le métavers permettent à Facebook/Meta de violer le Règlement Général de la Protection des Données (RGPD), que Facebook a déjà tenté de contourner à plusieurs reprises.

La collaboration récente du groupe avec la marque Ray-Ban, qui a sorti ses premières lunettes connectées en septembre dernier en est un exemple.

En effet, le RGPD oblige les gadgets de réalité virtuelle à afficher un indicateur de confidentialité pour informer les utilisateurs que leurs actions sont enregistrées. Ainsi, une lumière s’affichait sur les lunettes lorsque l’utilisateur actionnait la caméra afin de prévenir les personnes aux alentours qu’elles étaient filmées. Malgré tout, beaucoup de voix se sont levées pour critiquer cette mesure, considérée comme trop faible. Facebook n’a pas pu prouver que cette lumière suffisait à protéger les données personnelles non seulement de ceux qui portent les lunettes, mais également de ceux dans leur champ de vision, dont les données peuvent être enregistrées sans qu’ils le sachent.

L’enjeu est le même dans le cas du métavers. Il s’agit de savoir précisément quelles données sont prélevées et à quel moment, et comment en informer efficacement les utilisateurs.

Sommes-nous prêts à renoncer à notre vie privée ?

Enfin, une dernière question que pose ce sujet est l’acceptabilité sociale de ce nouveau monde virtuel. Plusieurs études montrent que la confiance des utilisateurs en Facebook concernant la protection de leur vie privée diminue, notamment dû à tous les scandales que nous avons évoqués dans cet article. Ainsi, alors qu’à sa création, Facebook était le réseau social favori des jeunes, aujourd’hui, la moyenne d’âge des utilisateurs est de 41 ans et augmente chaque année. Le métavers est aussi une manière pour le géant numérique d’attirer de nouveau les jeunes générations. Cependant, il n’est pas certain que cela fonctionne au vu des récentes informations révélées par la lanceuse d’alerte Frances Haugen – ancienne salariée du groupe – qui a publié des documents prouvant que le groupe avait connaissance des effets néfastes de ses réseaux sociaux, en particulier Instagram, sur la santé mentale des enfants et adolescents, et qu’il a délibérément choisi de les ignorer.

Des études ont déjà montré que le métavers pouvait également être nocif pour les plus jeunes, premièrement par la rapide addiction qu’il peut engendrer, d’autre part parce que la frontière entre la réalité et le virtuel s’amincit chez certains enfants, qui ne distinguent plus leurs actions dans le monde réel ou dans le jeu.  

Tous ces enjeux sont autant de questions auxquelles le groupe Meta devra répondre s’il espère convaincre les autorités, ainsi que le public de basculer dans son nouveau monde, celui qu’il appelle l’Internet 3.0.

Maël GONNOT

Bibliographie

  • « Why Facebook’s Metaverse Is A Privacy Nightmare », Kate O’Flaherty – Forbes (13/11/2021)
    https://www.forbes.com/sites/kateoflahertyuk/2021/11/13/why-facebooks-metaverse-is-a-privacy-nightmare/?sh=18bf31d26db8&fbclid=IwAR0QuvsIu9FKlGX97oopJlRhKKU5dHDJIpyMRz5NBDhP3pa3HNN84S8sXbE
  • « Facebook’s metaverse aspirations tied to privacy, antitrust regulation », Mike Swift (01/11/2021)
    https://mlexmarketinsight.com/news-hub/editors-picks/area-of-expertise/antitrust/facebooks-metaverse-aspirations-tied-to-privacy-antitrust-regulation?fbclid=IwAR0EbCujuatetpqVYLK3qMf3LqYlMnGRDqbXPDD1etFJmriBHy3JLBKCvFc
  • « Data privacy: A block in the road for Facebook’s metaverse ambitions », GlobalData Thematic Research (28/09/2021)
    https://www.verdict.co.uk/facebook-ray-ban-stories-metaverse/?fbclid=IwAR1czJ_O6uTlCpuhOcEFb_7PBwcF1bVET-oguKb-M95zgwaoz_kliiNa6_U
  • « Introducing Meta », Mark Zuckerberg – Youtube (29/10/2021)
    https://www.youtube.com/watch?v=pjNI9K1D_xo
Quitter la version mobile