Les deepfakes joueront-ils les trouble-fêtes dans les élections américaines ?
L’émergence et le perfectionnement des deepfakes suscitent de vives inquiétudes dans les sphères politico-médiatiques sans qu’aucune mesure concrète n’ait encore été prise. La déclaration de Monika Bickert, vice-présidente de la gestion des politiques mondiales chez Facebook, pourrait marquer un tournant décisif dans l’appréhension de ce phénomène, une menace réelle pour le groupe lui-même.
Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Des messages étonnants, suspects et dangereux appelés deepfakes.
Pour la première fois, le géant américain se positionne réellement et annonce des mesures concrètes pour encadrer ce qui pourrait être une réelle bombe à retardement à l’approche des élections présidentielles américaines.
Une technologie demain à la portée de tous
Apparu à l’automne 2017, le terme de deepfake désigne des vidéos truquées grâce à l’intelligence artificielle permettant d’animer des images au bon gré de l’internaute, en appliquant à n’importe quel visage un comportement humain pour le faire parler et bouger selon son souhait. Contraction de « fake » et de « deep learning », ces trucages se développent grâce aux techniques des GAN, comprenez les Generative Adversarial Networks.
Le principe est simple : deux algorithmes s’entrainent mutuellement. Le premier crée des imitations les plus crédibles possibles, le second tente de détecter le faux dans l’exécution du premier. Les répétitions du programme entraînent l’algorithme et permettent d’améliorer la technique pour obtenir des résultats de plus en plus proches de la réalité. La machine se perfectionne toute seule et les résultats obtenus peuvent être stupéfiants : Donald Trump annonçant l’éradication du sida, Barack Obama insultant l’actuel président américain… Ces vidéos sont rapidement devenues virales, si bien que l’envie de rendre cette technique accessible à tous s’est imposée.
De nombreuses entreprises se lancent alors à l’assaut d’un marché qui pourrait leur rapporter gros. Des acteurs chinois ont très vite pris les devants dans cette course technologique : l’application Zao par exemple propose d’incruster votre visage dans des films célèbres. Doublicat se spécialise dans l’incrustation de visage dans des GIF. Snapchat et TikTok comptent bien être de la partie et ont déjà annoncé le développement de fonctionnalités similaires. Parallèlement, le nombre de deepfakes explose : de 8 000 à 14 700 entre fin 2018 et automne 2019. Et ce n’est qu’un début. Cette technique devrait être réellement accessible à tous d’ici 6 mois et cela avec une qualité très satisfaisante.
Une menace bien réelle pour les démocraties
Si pour l’instant, on estime à 96% la part de deepfakes relevant du divertissement et de l’humour, la menace pourrait grandir très vite, notamment s’ils sont utilisés à des fins de communication politique. Alors que l’élection américaine approche à grand pas, l’affaire Cambridge Analytica reste dans tous les esprits et démontre que les réseaux sociaux sont aujourd’hui un nouveau terrain stratégique pour la propagation voire la manipulation d’idées, supportée par l’accès à des données numériques permettant d’identifier des profils d’utilisateurs. Les réseaux sociaux ont révolutionné la diffusion de l’information, dans sa forme et sa vélocité. Ils impactent notre vision de l’actualité et donc parfois nos opinions personnelles. Le sensationnel dépasse bien souvent le rationnel et les algorithmes de ces machines sociales permettent la mise en avant d’informations peu fiables qui alimentent pourtant nos perceptions de la réalité.
La menace réside dans le fait que les limites actuelles des deepfakes, technologiques, ne pèsent pas lourd face à cette nouvelle forme de diffusion. En prêtant attention, un internaute n’aurait pas de mal à distinguer un deepfake d’une vidéo non trafiquée. Pourtant, les utilisateurs des réseaux sociaux se caractérisent par une attention souvent courte. Ils sont désireux de trouver des contenus synthétisés, percutants, consommables partout et instantanément. Pour preuve, le deepfake annonçant l’éradication du sida par Trump, pourtant une campagne de prévention contre le sida, n’a majoritairement pas été visionnée jusqu’à la fin, alors que le démenti apparaissait en conclusion de la vidéo. La fausse information est partagée en un clic, commentée, et l’information se propage. Le démenti aura ainsi beaucoup moins de visibilité et d’impact que la première vague de diffusion.
L’enjeu majeur n’est donc pas de détecter ces vidéos pour les signaler, mais bien d’être capable de les stopper ou de les identifier avant qu’elles ne soient publiées.
Ces craintes pourraient paraître trop alarmistes si les deepfakes n’avaient pas déjà été utilisés de manières fallacieuses dans un contexte politique. En effet, durant les élections législatives britanniques de 2019, et donc dans un contexte politique tendu, deux faux enregistrements vidéos ont été diffusés sur les réseaux sociaux dans le but de déstabiliser les électeurs. Ces vidéos mettaient en scène les candidats vantant les mérites de leurs opposants. Lorsqu’on connaît l’impact qu’ont eu les fake news dans certains suffrages, tels celui du Brexit, la réelle menace pour nos démocratie ne relève plus de la science-fiction.
Des niveaux de sanction très variables selon les pays
Alors, nos gouvernements sont-ils parés pour lutter contre ces dérives ? Alors que la Chine applique depuis le 1 janvier 2020 une loi permettant d’appréhender les créateurs de deepfakes au même titre que des criminels, les instances politiques françaises semblent moins enclines à légiférer sur le sujet.
Le 15 octobre 2019, le secrétariat d’État au numérique publie une réponse officielle aux débats sur la nécessité de s’armer contre l’auteur d’un deepfake fallacieux. Il affirme que le droit français possède déjà le recours permettant de lutter efficacement contre cette menace : la loi relative à la lutte contre la manipulation de l’information, en vigueur depuis le 22 décembre 2018. Elle permet la création d’un référé habilité à stopper en urgence la diffusion d’une fausse information, l’obligation d’une plus grande transparence des sites en période électorale sur l’origine des informations, d’accorder des pouvoirs de régulation accrus au CSA. Ces mesures ne semblent cependant pas suffisantes à la CNIL qui recommande en novembre 2019 un cadre législatif et réglementaire spécifique à la reconnaissance faciale, et donc à la conception de deepfakes : « L’informatique doit être au service de chaque citoyen. […] Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».
Les faiblesses du cadre législatif ne sont pas dénoncées uniquement en France. Aux États-Unis, le groupe de réflexion Future Advocacy, qui réunit de nombreux professionnels, pointe du doigt la préoccupation d’ordre public et la désinvolture de la sphère politique face à ces dangers.
Si la piste interventionniste est abandonnée du côté législatif, l’autre voie, cette fois-ci libéraliste, consisterait à laisser aux plateformes le soin de résoudre le problème. Jusqu’à maintenant, Facebook et les autres acteurs sont protégés par leur statut d’hébergeur, et non d’éditeur, qui les déresponsabilise sur leur contenu.
Cependant, Twitter, Pornhub, Gfycat appliquent déjà depuis peu une politique de modération drastique avec la suppression systématique des deepfakes. L’action de ces acteurs, notamment Pornhub, n’est pas anecdotique lorsqu’on connaît la création répétitive des deepfakes calquant le visage d’actrices renommées sur des vidéos pornographiques pour ensuite diffuser ces vidéos.
En revanche de son côté, Facebook a toujours été extrêmement réticent à sortir de sa neutralité et donc de sa non responsabilité légale. Cependant, la stratégie de communication du géant américain pourrait bien changer, pour éviter un nouveau scandale qui finirait de ternir son image.
Enfin des mesures plus concrètes mais pas forcément suffisantes
Les annonces ont débuté en septembre. Avec le lancement du Deepfake Detection Challenge, Facebook jetait un premier pavé dans la mare et proposait à des entreprises du secteur et à des universitaires de se rassembler le temps du challenge afin de stimuler la recherche et la production d’outils en open source. Le projet a notamment réuni Microsoft, Amazon, le MIT et l’Université de Californie. Le réseau social avait pour cela investi 10 millions de dollars dans le projet et poursuivi ses investissements dans le laboratoire FAIR. Ce dernier a pour mission de travailler à l’avancement du projet de « désidentification » et l’utilisation de l’IA dans le but d’appliquer un filtre vidéo invisible afin d’empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des deepfakes.
En décembre 2019, Facebook annonçait avoir supprimé “un réseau utilisant des photos générées par l’IA pour dissimuler leurs faux comptes. Nos équipes continuent à rechercher de manière proactive les faux comptes et autres comportements inauthentiques coordonnés”[1].
Lundi 6 janvier 2020, la lutte du géant américain contre les deepfakes prend une tournure plus concrète avec l’annonce de mesures. En plus d’un partenariat avec le média international Reuters, qui aurait pour objectif d’accompagner les rédactions du monde entier en leur apprenant à identifier les deepfakes grâce à des outils et des formations en ligne, Facebook souhaite agir directement sur les publications.
Le géant propose cette fois-ci de sanctionner les contenus en empêchant la monétisation et en labellisant la vidéo comme une fakenews. Les vidéos concernées devront répondre à ces deux conditions :
- La vidéo a été modifiée sans que le trucage soit facilement détectable par une personne lambda.
- La vidéo a employé des techniques d’Intelligence artificielle ou du machine learning.
Cette déclaration n’est pas inopportune puisqu’elle arrive juste avant une nouvelle audition par la chambre des représentants des États-Unis, dans laquelle le réseau social, après son premier passage critiqué, devra se montrer plus convaincant s’il veut parvenir à rassurer l’opinion publique.
Mais alors, quels sont les risques à laisser Facebook comme seul modérateur ? Facebook affirme que cette modération ne s’appliquera pas aux contenus parodiques ou satiriques. Le géant américain devra donc juger le caractère humoristique d’un contenu, un exercice très subjectif et qui, utilisé à mauvais escient, pourrait s’apparenter à de la censure. Cependant, ces acteurs puissants semblent être les seuls réellement capables aujourd’hui de développer des techniques et des outils permettant de lutter contre les deepfakes, qui constituent une prouesse technologique indéniable, mais qui, sans encadrement pour en limiter les dérives, pourraient nuire à nos démocraties.
Louise DANIEL
https://www.lci.fr/high-tech/video-deepfake-la-menace-devient-reelle-2143709.html
https://www.actuia.com/actualite/comment-facebook-compte-lutter-contre-les-deepfakes/
www.numerama.com/politique/561713-le-gouvernement-considere-que-la-loi-permet-deja-de-lutter-efficacement-contre-les-deepfakes.html
www.journaldugeek.com/2020/01/14/deepfake-application-devenir-meme/
Comments are closed here.