À l’approche des élections de mi-mandat américaines, des visages numériques prolifèrent sur les réseaux sociaux, affichant tous un soutien appuyé pour Donald Trump. L’enjeu n’est pas seulement la persuasion : ces créations automatisées cherchent surtout à inonder les fils d’actualité et à donner l’illusion d’un large consensus.
Des visages synthétiques qui reviennent en boucle
Depuis le début de l’année, des centaines de comptes utilisant des personnages fabriqués par intelligence artificielle ont été signalés sur TikTok, Instagram, Facebook et YouTube. Plusieurs médias et laboratoires de recherche ont tracé leur expansion : le New York Times a recensé plus de 300 comptes actifs, le laboratoire GRAIL de Purdue en a identifié une douzaine supplémentaires, et des analystes privés en ont repéré d’autres sur YouTube.
Ces profils partagent des codes visuels proches : personnes au physique soigné, mises en scène dans des décors quotidiens (stade, ferme, terrain de sport), prises de parole assurées sur des thèmes politiques sensationnels. Les personnages reviennent et se transforment — coiffures, regard, style — comme s’ils étaient testés en continu pour trouver la version la plus efficace.
Objectif : inonder, plus que convaincre
Les chercheurs observent une logique moins fine que le ciblage personnalisé : il s’agit d’une stratégie de volume. En saturant les fils d’actualité de messages pro‑Trump, ces comptes peuvent modifier la perception générale du climat politique, même si chaque message individuel ne convainc pas.
Selon des spécialistes de la gouvernance de l’IA, cette tactique vise à fabriquer une sorte de majorité artificielle — un effet de foule numérique qui normalise certaines opinions en les montrant partout.
Production à bas coût, portée élevée
Ce qui rend le phénomène alarmant, c’est le prix de revient. Des professionnels de l’écosystème publicitaire par IA estiment qu’une séquence peut être produite pour une somme dérisoire, inférieure à quelques dollars. Des outils commerciaux permettent aujourd’hui de générer en chaîne des avatars et des clips, réduisant drastiquement la main‑d’œuvre nécessaire et rendant réalisable, pour peu de moyens, une vaste opération de visibilité.
Certaines entreprises du secteur affirment refuser de travailler pour des campagnes politiques ; d’autres acceptent des commandes, attirées par des contrats lucratifs. Résultat : une poignée d’acteurs peuvent simuler une présence de masse sur les réseaux.
Plateformes et limites de la modération
Les réseaux sociaux disent surveiller le phénomène. TikTok a déclaré avoir examiné des centaines de comptes signalés et en supprimer une partie, tout en qualifiant certains profils de spam plutôt que d’opérations d’influence coordonnées. Meta impose, en principe, l’étiquetage des contenus générés par IA, et YouTube annonce des contrôles contre le spam et les pratiques trompeuses.
Dans la pratique, la frontière entre contenu réel et synthétique s’estompe : vocaux plus naturels, visages plus convaincants, légendes imparfaites mais crédibles. Beaucoup d’utilisateurs interagissent comme s’ils avaient affaire à de vraies personnes — commentaires, débats, partages — et ces profils artificiels accumulent parfois des dizaines, voire des centaines de milliers d’abonnés et de vues.
- Visibilité : des contenus répétitifs peuvent donner l’impression d’un mouvement populaire.
- Désinformation : l’origine et l’intention derrières ces comptes restent souvent opaques.
- Coût : la création à bas prix abaisse la barrière d’entrée pour des opérations à grande échelle.
- Modération : plateformes et outils de détection peinent à suivre le rythme d’amélioration des avatars.
- Perception : les utilisateurs peuvent être influencés par la simple abondance de messages concordants.
La porosité entre contenus humains et générés s’est même illustrée lorsqu’un de ces avatars a été repris par Donald Trump, complexifiant encore l’identification et la portée de ce type de publications.
Ce qui change pour l’élection
À mesure que la campagne avance, l’intensité et la sophistication de ces opérations pourraient augmenter, rendant plus difficile pour l’électeur moyen de distinguer une vraie opinion d’une mise en scène algorithmique. Au‑delà de la véracité, la question devient: qui façonne le débat public et selon quelles méthodes ?
La réponse ne tient pas seulement aux outils techniques mais aussi aux choix des plateformes, aux régulations et à la capacité des médias et du public à repérer les signes d’artificialité.
Dans un paysage où les images et les voix sont de plus en plus simulées, la transparence sur l’origine des messages et une modération plus réactive resteront des enjeux cruciaux pour la crédibilité du débat démocratique.
Articles similaires
- Telegram visé: milliers d’images intimes de femmes diffusées à l’insu, selon une étude
- Donald Trump : l’application Truth Social arrive-t-elle sur le Google Play Store ?
- Trump : prêt à annoncer sa candidature à l’investiture républicaine pour l’élection présidentielle de 2024.
- Il a piraté le New York Post et a téléchargé des messages appelant à l’assassinat de Biden.
- Roblox visé par de nouvelles règles en UE : 48 millions d’utilisateurs européens concernés










