par Clothilde Coucaud
Imaginez un monde où un simple clic peut transformer un mensonge en réalité virale. Un monde où des vidéos de candidats sont créées de toutes pièces, où des messages politiques sont envoyés automatiquement à des millions de personnes ciblées par leurs centres d’intérêt ou leur âge, et où les algorithmes des réseaux sociaux décident de ce que vous voyez, et de ce que vous ne voyez pas.
Depuis 2016, avec l’affaire russe et Cambridge Analytica aux Etats-Unis, nous savons que les élections peuvent être influencées via la manipulation grâce à l’utilisation des données personnelles. En 2020, lors des élections présidentielles aux Etats-Unis, l’automatisation et les premières tentatives de deepfakes ont montré la montée en puissance des technologies. En 2024, l’intelligence artificielle est devenue un acteur central, capable de générer et diffuser du contenu politique à une échelle auparavant inimaginable.
Alors, comment l’IA reconfigure-t-elle les stratégies d’influence politique et les responsabilités des acteurs médiatiques et numériques lors des élections américaines de 2024 ?
L’IA : un accélérateur de la guerre informationnelle
La guerre informationnelle ne constitue pas un phénomène nouveau dans le champ politique, mais l’intelligence artificielle en modifie profondément l’ampleur, la vitesse et les modalités. Alors que les campagnes de désinformation reposaient historiquement sur des interventions humaines relativement limitées, l’IA permet aujourd’hui une industrialisation de la manipulation de l’information.
Les technologies de génération de contenus (textes, images, sons et vidéos) rendent possible la création de messages politiques crédibles, personnalisés et massivement diffusables à faible coût. Les deepfakes, en particulier, incarnent cette rupture technologique : ils permettent d’attribuer à des candidats des propos ou des comportements fictifs, brouillant la frontière entre réel et artificiel. Lors de l’élection présidentielle américaine de 2024, ces contenus ont renforcé la défiance envers l’information politique et fragilisé la capacité des citoyens à distinguer le vrai du faux. Par exemple, il y a eu un deepfake vocal de Joe Biden appelant à ne pas voter aux primaires démocrates, mais aussi des images générées montrant Donald Trump entouré de supporters afro-américains, ou encore des faux visuels anti-Clinton ou anti-immigration attribués aux démocrates.
L’objectif n’est donc pas de convaincre, mais de désorienter et saturer l’espace public, en instaurant un doute généralisé : une zone grise où la distinction vrai/faux devient floue, une sorte de « brouillard informationnel ». La conséquence n’est pas seulement la diffusion de fausses informations, mais bien une perte de confiance qu’ont les citoyens en les médias.
Par ailleurs, l’IA ne se limite pas à la production de contenus. Elle intervient également dans leur diffusion automatisée, via des réseaux de bots capables d’interagir, de commenter et de relayer des messages à grande échelle. Cette automatisation crée un effet de volume et de répétition, essentiel dans les stratégies de désinformation, en donnant l’illusion d’un consensus ou d’une popularité artificielle autour de certaines idées. L’échelle est nouvelle : un individu équipé d’IA peut produire ce qui nécessitait autrefois une équipe entière. Avant les élections de 2024, on observait déjà des tactiques, telles que les affaires Team Jorge, mais elles ont été perfectionnées : les bots générant des réponses crédibles grâce au langage naturel, la personnalisation automatique des messages selon les communautés (âge, religion, genre, géolocalisation), mais aussi des campagnes synchronisées sur TikTok, X, Instagram et YouTube. De plus, un nouveau levier a été utilisé : celui de WhatsApp, ce qui permet de créer un lien de proximité avec l’électorat, comme on le voit dans le documentaire Arte High School Radical, avec une sollicitation quotidienne de la part des deux partis en lice.
Les recherches sur la réception montrent cependant que ces dispositifs n’agissent pas de manière uniforme. Les publics déjà politisés, polarisés ou défiants envers les médias traditionnels sont davantage exposés à ces contenus et plus enclins à les relayer. Les fake news et deepfakes ne convertissent donc pas massivement de nouveaux électeurs, mais renforcent des opinions préexistantes, contribuant à la radicalisation des discours et à la polarisation de l’espace public, plutôt qu’à une conversion idéologique directe. L’IA devient ainsi un levier stratégique majeur de la guerre informationnelle, non plus marginal, mais central dans les dynamiques électorales contemporaines.
Les réseaux sociaux, nouvelles infrastructures du débat public
Si l’intelligence artificielle constitue l’outil, les plateformes numériques et les infrastructures télécoms en sont le vecteur principal. Les réseaux sociaux jouent un rôle déterminant dans la circulation de l’information politique, en particulier aux États-Unis, où ils représentent une source d’information majeure pour une large partie de la population. Certaines figures comme Elon Musk ont eu un rôle majeur pendant ces élections.
Les algorithmes de recommandation, conçus pour maximiser l’engagement des utilisateurs, favorisent souvent les contenus polarisants ou émotionnels. Cette logique économique, fondée sur l’attention, entre en tension avec les exigences démocratiques. L’IA, intégrée au cœur de ces algorithmes, participe à une hiérarchisation opaque de l’information : les contenus les plus clivants, simplifiés ou sensationnalistes bénéficient d’une visibilité accrue, indépendamment de leur véracité. Cette logique influence indirectement la perception politique des électeurs, sans intervention humaine explicite.
Alors, l’enjeu réside dans la capacité des infrastructures à soutenir une diffusion massive, instantanée et transnationale des contenus. La rapidité des réseaux, combinée à l’automatisation algorithmique, réduit considérablement le temps de réaction des autorités, des médias traditionnels et des dispositifs de fact-checking.
Les plateformes se trouvent ainsi dans une position stratégique ambivalente : à la fois acteurs économiques, intermédiaires techniques et régulateurs de facto de l’espace public numérique. Lors des élections de 2024, certaines ont mis en place des dispositifs de modération ou de signalement de contenus générés par IA. Toutefois, ces mesures restent limitées par la complexité technique des outils, la difficulté de détection automatisée et la crainte d’atteintes à la liberté d’expression. Cette centralité des plateformes dans la circulation de l’information pose directement la question de leur responsabilité politique et juridique.
La régulation à l’épreuve de la vitesse numérique
L’utilisation de l’intelligence artificielle dans les campagnes électorales pose des défis majeurs de gouvernance, tant pour les États que pour les acteurs privés du numérique. La question centrale n’est plus seulement technologique, mais profondément managériale et politique : qui est responsable des usages de l’IA dans l’espace informationnel ?
Les plateformes numériques revendiquent souvent un rôle d’intermédiaires techniques, tandis que les pouvoirs publics peinent à imposer des cadres réglementaires adaptés à la rapidité de l’innovation. Aux États-Unis, la régulation demeure faible, laissant une large place à l’autorégulation des entreprises technologiques. À l’inverse, l’Union européenne tente d’imposer un cadre plus contraignant avec le Digital Services Act, qui oblige les plateformes à plus de transparence algorithmique, à la coopération avec les chercheurs et à la mise en place de mécanismes de signalement renforcés. Toutefois, ces dispositifs restent en tension avec la rapidité de circulation des contenus et la sophistication croissante des outils de manipulation. Alors, l’IA impose une redéfinition des stratégies de contrôle, de transparence et d’éthique.
Enfin, l’élection présidentielle américaine de 2024 met en lumière la nécessité d’une gouvernance hybride, associant États, plateformes, médias et société civile. Sans coordination internationale et sans cadre clair, l’intelligence artificielle risque de renforcer durablement les asymétries informationnelles et d’éroder la confiance dans les processus démocratiques. L’enjeu n’est donc plus seulement de détecter ou de supprimer les contenus trompeurs, mais de préserver les conditions mêmes d’un débat public démocratique. Dans un espace saturé de contenus artificiels, la capacité à débattre, à faire confiance à l’information et à exercer un jugement critique devient un défi central pour les démocraties contemporaines.
Sources :
R. Badouard, Les Nouvelles lois du web: Modération et censure (2020) et cours suivis à l’Institut Français de Presse (2023-2024)
M. Laulom, High School Radical (2025) – documentaire
Ensemble des réseaux sociaux de Donald Trump et Kamala Harris
CISA, rapport sur les deepfakes électoraux (disponible ici)
