Comment les deepfakes peuvent impacter la santé sur les réseaux sociaux ?

Vous avez déjà pu tomber sur la fameuse vidéo de Barack Obama insultant Donald Trump ou encore sur celle de Zelensky diffusée sur une chaîne d’information officielle ukrainienne. Certains adeptes du deepfake, s’amusent à inventer des visages qui n’existent pas, à parler à la place de personnalités publiques…

Cependant, l’usage du deepfake souligne des risques en termes de droits à l’image et désinformation de masse.

Le deepfake consiste en la création de photos, d’audios ou de vidéos utilisant le visage d’une personne existante ou non, rendus crédibles grâce à l’intelligence artificielle. Contraction de Deep Learning et fake, cette technologie repose sur les GANs (Generative Adversarial Networks), produisant un contenu très réaliste.

Le champ des possibles du deepfake s’élargit. Du visage d’une personne sur le corps d’un autre, à la création d’une personne qui n’existe pas ou encore à la possibilité de prendre l’apparence d’une personne sur une vidéo et de « cloner » sa voix, le Deepfake ne cesse de gagner en réalisme.

Cependant, nous pouvons nous interroger quant aux dangers auxquels les internautes sont exposés via l’utilisation de cette technologie. Rappelons que le premier Deepfake a été publié sur Reddit, plateforme sur laquelle un utilisateur mettait en scène des célébrités comme Natalie Portman ou Jessica Alba dans de fausses vidéos pornographiques. Une entrée plutôt fracassante…

Cette technologie est d’autant plus répandue par l’usage des réseaux sociaux et pourrait fortement nuire à la santé de tous.

De ludique à politique, comment peuvent-ils impacter la santé via les réseaux sociaux ?

L’impact sur le secteur de la santé

Commençons par l’aspect négatif :

L’influence des deepfakes sur la santé commence à préoccuper les experts.

Certains deepfakes sont utilisés pour compromettre la confidentialité des données de santé des patients. Les cybercriminels peuvent ainsi publier sur les réseaux des enregistrements vocaux ou des vidéos semblant provenir de professionnels de la santé ou autorité comme l’OMS mais qui sont en réalité des pièges à clics. Les risques sont qu’ils y fassent fuiter les données personnelles des malades.

D’un point de vue purement médical, une vidéo peut, par exemple, être diffusée et faire croire que quelqu’un a été guéri d’une maladie via un traitement spécifique. Un politique peut sembler dire ou agir à l’opposé des recommandations de santé publique…

Ces pratiques peuvent pousser à adopter des comportements préjudiciables, conduisant, qui plus est, à des fraudes à l’assurance maladie et des perturbations des soins de santé.

Par conséquent, il est important que les utilisateurs des réseaux sociaux soient conscients de la possibilité de deepfakes médicaux et qu’ils vérifient toujours l’authenticité des informations avant de les partager.

De surcroît, l’augmentation de deepfakes aux visages « parfaits » sur les réseaux va de pair avec l’accroissement du taux de chirurgie esthétique.

« En moyenne, sur cette tranche d’âge (18-34 ans), la proportion de femmes qui poussent les portes des cabinets de chirurgie esthétique est de l’ordre de 80%. »

Chirurgie esthétique : favorisée par les réseaux sociaux, la tendance explose chez les jeunes (rtl.fr)

Heureusement il n’y a pas que du mauvais au deepfake :

Parfois le trucage de voix peut être utilisée à des fins positives. La voix pouvant être trafiquée, certaines communications du secteur de la santé pourrait mieux « passer » aux yeux des utilisateurs.

« Si l’on prend l’exemple d’une campagne de santé publique, avec 2-3 % de personnes convaincues en plus, les Deepfake peuvent sauver des vies. »

Deepfake, entre réel progrès et enjeux éthiques (bpifrance.fr)

Par ailleurs, la langue des signes n’étant encore que très peu répandue, en particulier sur les réseaux sociaux, les deepfakes pourraient améliorer le quotidien de personnes atteinte de mutisme. Leur message pourrait avoir plus d’impact et entraîner plus d’engagement.

De plus, les deepfakes pourraient contribuer aux progrès de la science. Un des exemples relevés serait leur capacité à repérer des organes malades au travers de la radiographie, aidant ainsi les médecins à effectuer un diagnostic. Les réseaux sociaux pourraient alors y développer la diffusion de ces savoirs (pour les étudiants en médecine par exemple).

Images d’IRN générées grâce aux GANs

L’impact sur la santé mentale

Commençons à nouveau par le négatif :

Les deepfakes peuvent également avoir un impact sur la santé mentale des gens sur les réseaux sociaux.

Une personne peut être victime de cyberharcèlement et voir sa réputation salie par du deepfake utilisant son visage dans un contexte faux et défavorable. Ces risques touchent principalement les femmes pouvant être victimes de Revenge porn. Cependant, certaines victimes doutent de leur statut avançant qu’elles n’étaient pas réellement présentes sur ces vidéos et guérissent difficilement de ce traumatisme.

Par ailleurs, les deepfakes peuvent conduire à une usurpation d’identité de la part de cybercriminels se faisant passer pour d’autres via des notes vocales crédibles. Cette situation provoque une perte de confiance et instaure un climat de « paranoïa » .

D’autre part, il est désormais facile pour les utilisateurs de se créer une « fausse vie » et de « faux attributs physiques », qu’ils partageraient sur les réseaux sociaux. Des biais raciaux, sexistes et des critères de beauté « standards » inatteignables y sont, d’ailleurs, cachés sous la table. En effet, les deepfakes ont souvent tendance à blanchir, rajeunir ou vieillir les utilisateurs, à donner des traits plus fins pour une femme et inversement pour les hommes. Cette théologie de la perfection physique prônant le transhumanisme enferme les users dans un carcan de mensonges, complexes et de frustrations.

Le feed d’un jeune se voit donc de plus en plus lisse : une jeune femme magnifique dans un paysage de rêve alors que tout s’avère souvent truqué (fond vert). Cette surexposition constante au « parfait » pousse certains utilisateurs à ne plus se reconnaitre et à accepter leur faux visage à mesure que leur taux de likes augmente. Ce qui induit des troubles en termes de définition et limites de soi avec la question suivante : « Où s’arrête le vrai Moi, où commence mon faux personnage ». Pas étonnant que le taux de chirurgie esthétique augmente….

« Chaque fois que j’obtenais un “j’aime” sur une photo, je sentais ces endorphines comme si c’était moi, comme si quelqu’un que je connais aimait une photo de moi »

https://leclaireur.fnac.com/article/220141-apres-les-vraies-fausses-vies-sur-les-reseaux-sociaux-place-aux-vies-truquees-grace-a-lia/

Mais l’aspect positif donne un brin d’espoir :

Avez-vous déjà entendu parler de la Deepfake Therapie ? Une étude publiée dans la revue Frontiers in Psychiatry a mis en avant deux victimes d’agressions sexuelles dialoguant sur la plateforme Zoom avec leur faux agresseur, en présence de leur thérapeute. Elle s’est avérée fructueuse puisque l’une des victimes a vu ses stress post-traumatiques diminuer en une semaine. Précisons que l’agresseur s’exprime « avec empathie sans chercher à revictimiser le patient » . Ce type de plateforme existe déjà notamment DeepTherapy.ai, dans laquelle certains endeuillés parlent avec un défunt. Il faut cependant savoir limiter son utilisation car en faussant le vrai, certaines séquelles peuvent subsister. Cette pratique pourrait s’étendre de la médiation pour le divorce au harcèlement des enfants.

Certaines personnes n’arrivent pas à tourner la page concernant une personne étant donnée la visibilité que donnent les réseaux sociaux et cette pratique pourrait fortement les aider.

Conclusions et résolutions qui en découlent

Les deepfakes constituent donc le sujet emblématique des réseaux sociaux et de l’intelligence artificielle. Nous devons ainsi tenir compte de la portée de cette IA afin de protéger la santé de tous.

Heureusement, une réglementation vient encadrer les dérives des deepfakes.

Ainsi, l’utilisation de deepfakes pour tromper les internautes sur l’identité d’une personne peut être punie par la loi.

Aux États-Unis, par exemple, le Congrès a adopté la loi de lutte contre la cybercriminalité (Cybercrime Enforcement Act) en 2019, qui criminalise la production et la distribution de deepfakes dans le but de tromper ou de nuire à une personne. La loi impose des peines allant jusqu’à 10 ans de prison.

En France, les deepfakes peuvent être considérés comme de l’escroquerie ou de l’usurpation d’identité, voire de la diffamation, selon la loi sur la liberté de la presse. Ainsi, un deepfake non mentionné comme tel est illégal. La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information permet de stopper la diffusion massive de désinformation.

Au niveau européen, le projet de règlement sur les services numériques (« Digital Services Act ») prévoit des mesures pour lutter contre les risques systémiques découlant des plateformes en ligne et moteurs de recherche, en particulier contre tout effet négatif sur le discours civique.

D’autre part, la Commission européenne a publié un code de conduite européen renforcé pour lutter contre la désinformation. Le Conseil de l’Union européenne a adopté une résolution en 2021 appelant à une réglementation renforcée des deepfakes pour lutter contre la désinformation et les menaces pour la sécurité.

Enfin, plusieurs solutions ont été développées par les grands acteurs du numérique pour détecter et lutter contre les deepfakes, comme le Deepfake Detection Challenge de Facebook, AWS, Microsoft et Partnership in AI, ainsi que la plateforme InVID pour aider les journalistes à détecter les vidéos truquées.

Désormais, il est obligatoire de préciser si un contenu est Deepfake ou non.

Cependant, cette réglementation pose également des défis en matière de liberté d’expression et de droits de la personne, la ligne entre manipulation de contenu malveillant et parodie étant souvent floue.

Ce qui importe donc le plus est d’être conscient que les réseaux sociaux ne sont pas la vraie vie…

Chirel Darmouni.

Sources

Comments are closed here.