Comment les deepfakes peuvent impacter la santé sur les réseaux sociaux ?

Vous avez déjà pu tomber sur la fameuse vidéo de Barack Obama insultant Donald Trump ou encore sur celle de Zelensky diffusée sur une chaîne d’information officielle ukrainienne. Certains adeptes du deepfake, s’amusent à inventer des visages qui n’existent pas, à parler à la place de personnalités publiques…

Cependant, l’usage du deepfake souligne des risques en termes de droits à l’image et désinformation de masse.

https://youtu.be/cQ54GDm1eL0?t=23

Le deepfake consiste en la création de photos, d’audios ou de vidéos utilisant le visage d’une personne existante ou non, rendus crédibles grâce à l’intelligence artificielle. Contraction de Deep Learning et fake, cette technologie repose sur les GANs (Generative Adversarial Networks), produisant un contenu très réaliste.

Le champ des possibles du deepfake s’élargit. Du visage d’une personne sur le corps d’un autre, à la création d’une personne qui n’existe pas ou encore à la possibilité de prendre l’apparence d’une personne sur une vidéo et de « cloner » sa voix, le Deepfake ne cesse de gagner en réalisme.

Cependant, nous pouvons nous interroger quant aux dangers auxquels les internautes sont exposés via l’utilisation de cette technologie. Rappelons que le premier Deepfake a été publié sur Reddit, plateforme sur laquelle un utilisateur mettait en scène des célébrités comme Natalie Portman ou Jessica Alba dans de fausses vidéos pornographiques. Une entrée plutôt fracassante…

Cette technologie est d’autant plus répandue par l’usage des réseaux sociaux et pourrait fortement nuire à la santé de tous.

De ludique à politique, comment peuvent-ils impacter la santé via les réseaux sociaux ?

L’impact sur le secteur de la santé

Commençons par l’aspect négatif :

L’influence des deepfakes sur la santé commence à préoccuper les experts.

Certains deepfakes sont utilisés pour compromettre la confidentialité des données de santé des patients. Les cybercriminels peuvent ainsi publier sur les réseaux des enregistrements vocaux ou des vidéos semblant provenir de professionnels de la santé ou autorité comme l’OMS mais qui sont en réalité des pièges à clics. Les risques sont qu’ils y fassent fuiter les données personnelles des malades.

D’un point de vue purement médical, une vidéo peut, par exemple, être diffusée et faire croire que quelqu’un a été guéri d’une maladie via un traitement spécifique. Un politique peut sembler dire ou agir à l’opposé des recommandations de santé publique…

Ces pratiques peuvent pousser à adopter des comportements préjudiciables, conduisant, qui plus est, à des fraudes à l’assurance maladie et des perturbations des soins de santé.

Par conséquent, il est important que les utilisateurs des réseaux sociaux soient conscients de la possibilité de deepfakes médicaux et qu’ils vérifient toujours l’authenticité des informations avant de les partager.

De surcroît, l’augmentation de deepfakes aux visages « parfaits » sur les réseaux va de pair avec l’accroissement du taux de chirurgie esthétique.

« En moyenne, sur cette tranche d’âge (18-34 ans), la proportion de femmes qui poussent les portes des cabinets de chirurgie esthétique est de l’ordre de 80%. »

Chirurgie esthétique : favorisée par les réseaux sociaux, la tendance explose chez les jeunes (rtl.fr)

Heureusement il n’y a pas que du mauvais au deepfake :

Parfois le trucage de voix peut être utilisée à des fins positives. La voix pouvant être trafiquée, certaines communications du secteur de la santé pourrait mieux « passer » aux yeux des utilisateurs.

« Si l’on prend l’exemple d’une campagne de santé publique, avec 2-3 % de personnes convaincues en plus, les Deepfake peuvent sauver des vies. »

Deepfake, entre réel progrès et enjeux éthiques (bpifrance.fr)

Par ailleurs, la langue des signes n’étant encore que très peu répandue, en particulier sur les réseaux sociaux, les deepfakes pourraient améliorer le quotidien de personnes atteinte de mutisme. Leur message pourrait avoir plus d’impact et entraîner plus d’engagement.

De plus, les deepfakes pourraient contribuer aux progrès de la science. Un des exemples relevés serait leur capacité à repérer des organes malades au travers de la radiographie, aidant ainsi les médecins à effectuer un diagnostic. Les réseaux sociaux pourraient alors y développer la diffusion de ces savoirs (pour les étudiants en médecine par exemple).

Images d’IRN générées grâce aux GANs

L’impact sur la santé mentale

Commençons à nouveau par le négatif :

Les deepfakes peuvent également avoir un impact sur la santé mentale des gens sur les réseaux sociaux.

Une personne peut être victime de cyberharcèlement et voir sa réputation salie par du deepfake utilisant son visage dans un contexte faux et défavorable. Ces risques touchent principalement les femmes pouvant être victimes de Revenge porn. Cependant, certaines victimes doutent de leur statut avançant qu’elles n’étaient pas réellement présentes sur ces vidéos et guérissent difficilement de ce traumatisme.

Par ailleurs, les deepfakes peuvent conduire à une usurpation d’identité de la part de cybercriminels se faisant passer pour d’autres via des notes vocales crédibles. Cette situation provoque une perte de confiance et instaure un climat de « paranoïa » .

D’autre part, il est désormais facile pour les utilisateurs de se créer une « fausse vie » et de « faux attributs physiques », qu’ils partageraient sur les réseaux sociaux. Des biais raciaux, sexistes et des critères de beauté « standards » inatteignables y sont, d’ailleurs, cachés sous la table. En effet, les deepfakes ont souvent tendance à blanchir, rajeunir ou vieillir les utilisateurs, à donner des traits plus fins pour une femme et inversement pour les hommes. Cette théologie de la perfection physique prônant le transhumanisme enferme les users dans un carcan de mensonges, complexes et de frustrations.

Le feed d’un jeune se voit donc de plus en plus lisse : une jeune femme magnifique dans un paysage de rêve alors que tout s’avère souvent truqué (fond vert). Cette surexposition constante au « parfait » pousse certains utilisateurs à ne plus se reconnaitre et à accepter leur faux visage à mesure que leur taux de likes augmente. Ce qui induit des troubles en termes de définition et limites de soi avec la question suivante : « Où s’arrête le vrai Moi, où commence mon faux personnage ». Pas étonnant que le taux de chirurgie esthétique augmente….

« Chaque fois que j’obtenais un “j’aime” sur une photo, je sentais ces endorphines comme si c’était moi, comme si quelqu’un que je connais aimait une photo de moi »

https://leclaireur.fnac.com/article/220141-apres-les-vraies-fausses-vies-sur-les-reseaux-sociaux-place-aux-vies-truquees-grace-a-lia/

Mais l’aspect positif donne un brin d’espoir :

Avez-vous déjà entendu parler de la Deepfake Therapie ? Une étude publiée dans la revue Frontiers in Psychiatry a mis en avant deux victimes d’agressions sexuelles dialoguant sur la plateforme Zoom avec leur faux agresseur, en présence de leur thérapeute. Elle s’est avérée fructueuse puisque l’une des victimes a vu ses stress post-traumatiques diminuer en une semaine. Précisons que l’agresseur s’exprime « avec empathie sans chercher à revictimiser le patient » . Ce type de plateforme existe déjà notamment DeepTherapy.ai, dans laquelle certains endeuillés parlent avec un défunt. Il faut cependant savoir limiter son utilisation car en faussant le vrai, certaines séquelles peuvent subsister. Cette pratique pourrait s’étendre de la médiation pour le divorce au harcèlement des enfants.

Certaines personnes n’arrivent pas à tourner la page concernant une personne étant donnée la visibilité que donnent les réseaux sociaux et cette pratique pourrait fortement les aider.

Conclusions et résolutions qui en découlent

Les deepfakes constituent donc le sujet emblématique des réseaux sociaux et de l’intelligence artificielle. Nous devons ainsi tenir compte de la portée de cette IA afin de protéger la santé de tous.

Heureusement, une réglementation vient encadrer les dérives des deepfakes.

Ainsi, l’utilisation de deepfakes pour tromper les internautes sur l’identité d’une personne peut être punie par la loi.

Aux États-Unis, par exemple, le Congrès a adopté la loi de lutte contre la cybercriminalité (Cybercrime Enforcement Act) en 2019, qui criminalise la production et la distribution de deepfakes dans le but de tromper ou de nuire à une personne. La loi impose des peines allant jusqu’à 10 ans de prison.

En France, les deepfakes peuvent être considérés comme de l’escroquerie ou de l’usurpation d’identité, voire de la diffamation, selon la loi sur la liberté de la presse. Ainsi, un deepfake non mentionné comme tel est illégal. La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information permet de stopper la diffusion massive de désinformation.

Au niveau européen, le projet de règlement sur les services numériques (« Digital Services Act ») prévoit des mesures pour lutter contre les risques systémiques découlant des plateformes en ligne et moteurs de recherche, en particulier contre tout effet négatif sur le discours civique.

D’autre part, la Commission européenne a publié un code de conduite européen renforcé pour lutter contre la désinformation. Le Conseil de l’Union européenne a adopté une résolution en 2021 appelant à une réglementation renforcée des deepfakes pour lutter contre la désinformation et les menaces pour la sécurité.

Enfin, plusieurs solutions ont été développées par les grands acteurs du numérique pour détecter et lutter contre les deepfakes, comme le Deepfake Detection Challenge de Facebook, AWS, Microsoft et Partnership in AI, ainsi que la plateforme InVID pour aider les journalistes à détecter les vidéos truquées.

Désormais, il est obligatoire de préciser si un contenu est Deepfake ou non.

Cependant, cette réglementation pose également des défis en matière de liberté d’expression et de droits de la personne, la ligne entre manipulation de contenu malveillant et parodie étant souvent floue.

Ce qui importe donc le plus est d’être conscient que les réseaux sociaux ne sont pas la vraie vie…

Chirel Darmouni.

Sources

Les deepfakes joueront-ils les trouble-fêtes dans les élections américaines ?

L’émergence et le perfectionnement des deepfakes suscitent de vives inquiétudes dans les sphères politico-médiatiques sans qu’aucune mesure concrète n’ait encore été prise. La déclaration de Monika Bickert, vice-présidente de la gestion des politiques mondiales chez Facebook, pourrait marquer un tournant décisif dans l’appréhension de ce phénomène, une menace réelle pour le groupe lui-même.

Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Des messages étonnants, suspects et dangereux appelés deepfakes.

Pour la première fois, le géant américain se positionne réellement et annonce des mesures concrètes pour encadrer ce qui pourrait être une réelle bombe à retardement à l’approche des élections présidentielles américaines.

Une technologie demain à la portée de tous

Apparu à l’automne 2017, le terme de deepfake désigne des vidéos truquées grâce à l’intelligence artificielle permettant d’animer des images au bon gré de l’internaute, en appliquant à n’importe quel visage un comportement humain pour le faire parler et bouger selon son souhait. Contraction de « fake » et de « deep learning », ces trucages se développent grâce aux techniques des GAN, comprenez les Generative Adversarial Networks.

Le principe est simple : deux algorithmes s’entrainent mutuellement. Le premier crée des imitations les plus crédibles possibles, le second tente de détecter le faux dans l’exécution du premier. Les répétitions du programme entraînent l’algorithme et permettent d’améliorer la technique pour obtenir des résultats de plus en plus proches de la réalité. La machine se perfectionne toute seule et les résultats obtenus peuvent être stupéfiants : Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Ces vidéos sont rapidement devenues virales, si bien que l’envie de rendre cette technique accessible à tous s’est imposée.

De nombreuses entreprises se lancent alors à l’assaut d’un marché qui pourrait leur rapporter gros. Des acteurs chinois ont très vite pris les devants dans cette course technologique : l’application Zao par exemple propose d’incruster votre visage dans des films célèbres. Doublicat se spécialise dans l’incrustation de visage dans des GIF. Snapchat et TikTok  comptent bien être de la partie et ont déjà annoncé le développement de fonctionnalités similaires. Parallèlement, le nombre de deepfakes explose : de 8 000 à 14 700 entre fin 2018 et automne 2019. Et ce n’est qu’un début. Cette technique devrait être réellement accessible à tous d’ici 6 mois et cela avec une qualité très satisfaisante.

Une menace bien réelle pour les démocraties

Si pour l’instant, on estime à 96% la part de deepfakes relevant du divertissement et de l’humour, la menace pourrait grandir très vite, notamment s’ils sont utilisés à des fins de communication politique.  Alors que l’élection américaine approche à grand pas, l’affaire Cambridge Analytica reste dans tous les esprits et démontre que les réseaux sociaux sont aujourd’hui un nouveau terrain stratégique pour la propagation voire la manipulation d’idées, supportée par l’accès à des données numériques permettant d’identifier des profils d’utilisateurs. Les réseaux sociaux ont révolutionné la diffusion de l’information, dans sa forme et sa vélocité. Ils impactent notre vision de l’actualité et donc parfois nos opinions personnelles. Le sensationnel dépasse bien souvent le rationnel et les algorithmes de ces machines sociales permettent la mise en avant d’informations peu fiables qui alimentent pourtant nos perceptions de la réalité.  

La menace réside dans le fait que les limites actuelles des deepfakes, technologiques, ne pèsent pas lourd face à cette nouvelle forme de diffusion.  En prêtant attention, un internaute n’aurait pas de mal à distinguer un deepfake d’une vidéo non trafiquée. Pourtant, les utilisateurs des réseaux sociaux se caractérisent par une attention souvent courte. Ils sont désireux de trouver des contenus synthétisés, percutants, consommables partout et instantanément. Pour preuve, le deepfake annonçant l’éradication du sida par Trump, pourtant une campagne de prévention contre le sida, n’a majoritairement pas été visionnée jusqu’à la fin, alors que le démenti apparaissait en conclusion de la vidéo. La fausse information est partagée en un clic, commentée, et l’information se propage. Le démenti aura ainsi beaucoup moins de visibilité et d’impact que la première vague de diffusion.

L’enjeu majeur n’est donc pas de détecter ces vidéos pour les signaler, mais bien d’être capable de les stopper ou de les identifier avant qu’elles ne soient publiées.

Ces craintes pourraient paraître trop alarmistes si les deepfakes n’avaient pas déjà été utilisés de manières fallacieuses dans un contexte politique. En effet, durant les élections législatives britanniques  de 2019, et donc dans un contexte politique tendu, deux faux enregistrements vidéos ont été diffusés sur les réseaux sociaux dans le but de déstabiliser les électeurs. Ces vidéos mettaient en scène les candidats vantant les mérites de leurs opposants. Lorsqu’on connaît l’impact qu’ont eu les fake news dans certains suffrages, tels celui du Brexit,  la réelle menace pour nos démocratie ne relève plus de la science-fiction.  

Des niveaux de sanction très variables selon les pays

Alors, nos gouvernements sont-ils parés pour lutter contre ces dérives ? Alors que la Chine applique depuis le 1 janvier 2020 une loi permettant d’appréhender les créateurs de deepfakes au même titre que des criminels, les instances politiques françaises semblent moins enclines à légiférer sur le sujet.

Le 15 octobre 2019, le secrétariat d’État au numérique publie une réponse officielle aux débats sur la nécessité de s’armer contre l’auteur d’un deepfake fallacieux. Il affirme que le droit français possède déjà le recours permettant de lutter efficacement contre cette menace : la loi relative à la lutte contre la manipulation de l’information, en vigueur depuis le 22 décembre 2018. Elle permet la création d’un référé habilité à stopper en urgence la diffusion d’une fausse information, l’obligation d’une plus grande transparence des sites en période électorale sur l’origine des informations, d’accorder des pouvoirs de régulation accrus au CSA. Ces mesures ne semblent cependant pas suffisantes à la CNIL qui recommande en novembre 2019 un cadre législatif et réglementaire spécifique à la reconnaissance faciale, et donc à la conception de deepfakes : « L’informatique doit être au service de chaque citoyen. […] Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».

Les faiblesses du cadre législatif ne sont pas dénoncées uniquement en France. Aux États-Unis, le groupe de réflexion Future Advocacy, qui réunit de nombreux professionnels, pointe du doigt la préoccupation d’ordre public et la désinvolture de la sphère politique face à ces dangers.

Si la piste interventionniste est abandonnée du côté législatif, l’autre voie, cette fois-ci libéraliste, consisterait à laisser aux plateformes le soin de résoudre le problème. Jusqu’à maintenant, Facebook et les autres acteurs sont protégés par leur statut d’hébergeur, et non d’éditeur, qui les déresponsabilise sur leur contenu.

Cependant, Twitter, Pornhub, Gfycat appliquent déjà depuis peu une politique de modération drastique avec la suppression systématique des deepfakes. L’action de ces acteurs, notamment Pornhub, n’est pas anecdotique lorsqu’on connaît la création répétitive des deepfakes calquant le visage d’actrices renommées sur des vidéos pornographiques pour ensuite diffuser ces vidéos.

En revanche de son côté, Facebook a toujours été extrêmement réticent à sortir de sa neutralité et donc de sa non responsabilité légale. Cependant, la stratégie de communication du géant américain pourrait bien changer, pour éviter un nouveau scandale qui finirait de ternir son image.

Enfin des mesures plus concrètes mais pas forcément suffisantes

Les annonces ont débuté en septembre. Avec le lancement du Deepfake Detection Challenge, Facebook jetait un premier pavé dans la mare et proposait à des entreprises du secteur et à des universitaires de se rassembler le temps du challenge afin de stimuler la recherche et la production d’outils en open source. Le projet a notamment réuni Microsoft, Amazon, le MIT et l’Université de Californie.  Le réseau social avait pour cela investi 10 millions de dollars dans le projet et poursuivi ses investissements dans le laboratoire FAIR. Ce dernier a pour mission de travailler à l’avancement du projet de « désidentification » et l’utilisation de l’IA dans le but d’appliquer un filtre vidéo invisible afin d’empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des deepfakes

En décembre 2019, Facebook annonçait avoir supprimé “un réseau utilisant des photos générées par l’IA pour dissimuler leurs faux comptes. Nos équipes continuent à rechercher de manière proactive les faux comptes et autres comportements inauthentiques coordonnés[1].

Lundi 6 janvier 2020, la lutte du géant américain contre les deepfakes prend une tournure plus concrète avec l’annonce de mesures. En plus d’un partenariat avec le média international Reuters, qui aurait pour objectif d’accompagner les rédactions du monde entier en leur apprenant à identifier les deepfakes grâce à des outils et des formations en ligne, Facebook souhaite agir directement sur les publications.

Le géant propose cette fois-ci de sanctionner les contenus en empêchant la monétisation et en labellisant la vidéo comme une fakenews. Les vidéos concernées devront répondre à ces deux conditions :

  • La vidéo a été modifiée sans que le trucage soit facilement détectable par une personne lambda.
  • La vidéo a employé des techniques d’Intelligence artificielle ou du machine learning.

Cette déclaration n’est pas inopportune puisqu’elle arrive juste avant une nouvelle audition par la chambre des représentants des États-Unis, dans laquelle le réseau social, après son premier passage critiqué, devra se montrer plus convaincant s’il veut parvenir à rassurer l’opinion publique.

Mais alors, quels sont les risques à laisser Facebook comme seul modérateur ? Facebook affirme que cette modération ne s’appliquera pas aux contenus parodiques ou satiriques. Le géant américain devra donc juger le caractère humoristique d’un contenu,  un exercice très subjectif et qui, utilisé à mauvais escient, pourrait s’apparenter à de la censure.  Cependant, ces acteurs puissants semblent être les seuls réellement capables aujourd’hui de développer des techniques et des outils permettant de lutter contre les deepfakes, qui constituent une prouesse technologique indéniable, mais qui, sans encadrement pour en limiter les dérives, pourraient nuire à nos démocraties.

Louise DANIEL

https://www.lci.fr/high-tech/video-deepfake-la-menace-devient-reelle-2143709.html

https://www.latribune.fr/technos-medias/internet/deepfake-la-nouvelle-bete-noire-de-facebook-836553.html

https://portail-ie.fr/analysis/2253/intelligence-artificielle-et-deepfakes-la-naissance-de-nouveaux-risques-strategiques

https://www.actuia.com/actualite/comment-facebook-compte-lutter-contre-les-deepfakes/

www.numerama.com/politique/561713-le-gouvernement-considere-que-la-loi-permet-deja-de-lutter-efficacement-contre-les-deepfakes.html

www.journaldugeek.com/2020/01/14/deepfake-application-devenir-meme/



Quitter la version mobile