Le «halo de la deepfake»: le mensonge politique au-delà des images edit

23 February 2026

L’élection présidentielle au Honduras a été marquée par différentes controverses et des pressions directes de l’administration américaine. Ce pays, l’un des plus pauvres du continent sud-américain, est marqué par une instabilité politique liée notamment à son histoire, au manque d’une « opposition loyale », à la centralité de l’armée, à l’ingérence étatsunienne et à une importante corruption politique. La désinformation et le manque de confiance dans les médias contribuent à la confusion politique.

Durant l'élection de novembre 2025, Donald Trump appela quelques jours avant le premier tour à voter en faveur du candidat de droite conservatrice et actuel président Nasry Asfura, contre la gauche qualifiée à tort de « communiste ». Il termina son message au sein de son réseau Truth Social par une menace : « on ne donnera plus d'argent sinon au Honduras ». Dans la foulée, des millions de Honduriens ciblés recevaient, d’après l’opposition citoyenne et aussi nos divers témoignages émanant du terrain, un SMS par rapport aux transferts d’argent (« remesas ») dont ils bénéficient directement via leurs proches émigrés aux États-Unis. Ce message annonçait de futures difficultés pour recevoir ces virements. Il faut savoir que les « remesas » familiales représentent environ 30% du produit interne brut (PIB) du Honduras : elles constituent une ressource critique pour la survie et la consommation de millions de foyers précaires, dans un pays qui compte parmi les deux plus pauvres du continent. Donald Trump annonça le même jour la grâce judicaire de l'ex-président Juan Orlando Hernandez (2014-2022), membre du Parti National (droite conservatrice), qui purgeait sur le sol américain une peine d’une quarantaine d’années de prison pour narcotrafic. Cette pression politique à visage découvert ravive la mémoire du coup d'état du Parti National soutenu par l’armée au Honduras en 2009, coup d’État dont, à l’exception notable des États-Unis, la communauté internationale a reconnu le caractère problématique.

Fin 2025, plus d’une vingtaine de jours après le vote, les résultats n’étaient toujours pas connus et de nombreuses fraudes étaient dénoncées : les suspicions de fraudes ou d’achats de votes concernaient l’ensemble des partis présents. Les résultats officiels tombèrent à la veille de Noël et le nouveau président fut reconnu par l’ensemble de la communauté internationale. Mais la campagne d’influence qui a précédé son élection mérite d’être analysée. Nous nous concentrerons ici sur une controverse pré-électorale qui fait apparaître un nouveau type de brouillard informationnel, autour d’une « deepfake ».

Quand le vrai devient faux

La deepfake, rappelons-le, est une image, une vidéo ou une séquence audio qui a été modifiée ou fabriquée grâce à des outils informatiques et, de plus en plus, de l’intelligence artificielle. En politique, elle peut être utilisée pour diffuser des mensonges et dégrader la réputation d’un adversaire. Mais, le phénomène des deepfakes étant désormais connu du grand public, il existe aussi des situations où un usage inversé de la deepfake produit un effet informationnel de grave confusion qui s’apparente au même chaos politique. Il s’agit d’une posture victimaire de dénonciation de la désinformation, qui repose sur le fait de contrer avec véhémence des accusations politiques (réelles et légitimes) dans une stratégie de victimisation populiste. On parle alors de « liar’s dividend ». Ce « dividende du menteur » fait référence à un phénomène où les mis en cause exploitent la méfiance envers les deepfakes pour nier la vérité ou l'authenticité de contenus réels. Kaylyn Schiff et ses collègues soulignent que cette stratégie peut être particulièrement efficace dans un environnement où la méfiance envers les médias est déjà élevée. Le Honduras, comme de nombreux pays en Amérique Latine ou en Occident, enregistre un haut niveau de défiance envers les institutions en général et envers les médias en particulier.

Venons-en aux faits. Un mois et demi avant l’élection, la fuite d’audios attribués à Cossette López (représentante du Parti National), une des trois responsables du Conseil national électoral (CNE), révèle un plan concerté pour manipuler le processus électoral et provoquer une crise politique. Il s’agit de 26 messages vocaux, un mode de communication très courant sur WhatsApp. Certains de ces messages décrivent une coordination entre Cossette López, un député du « Parti National » et un militaire actif. C’est là un épisode d’une gravité exceptionnelle envers l’État de droit.

Mais Cosette López reste en place au sein du CNE et dénonce vertement une simple deepfake. Cette contre-attaque s’insère dans un récit politique, repris par son camp et de nombreux médias, qui dénonce une dérive autoritaire de gauche (l’ex-présidente Xiomara Castro), comparée aux régimes autoritaires voisins (Nicaragua, Venezuela).

Pourtant, différents experts internationaux dans deux études successives aux méthodes complémentaires (le Hondurien Gabriel Sosa, puis l’entreprise colombienne Private Investigation Technology) ont établi que ces 26 enregistrements vocaux ne présentaient aucun signe de montage, d'édition numérique ou de génération par intelligence artificielle (ces experts ont reçu des menaces de mort). Cette expertise technique semblerait confirmer que les audios ne sont pas des « deepfakes », mais des enregistrements authentiques captant des échanges avec bruits ambiants impossibles à recréer numériquement. De notre côté, nous avons vérifié ce corpus d’audios via l'outil « Hiya deepfake voice detection » et observons un score d'authenticité proche de 90%. Certes, il est difficile de donner une preuve totale de véracité (un 100%), mais ces résultats émanant de plusieurs études sont difficilement contestables.

Commence alors une deuxième séquence. Au lieu de tester à son tour la véracité des audios, une partie de la presse nationale (dont le renommé Heraldo) va fact-checker… une image générée par IA illustrant cette histoire, image circulant relativement faiblement sur les réseaux sociaux dans la sphère militante avec une centaine de likes seulement (recherche en ligne par image inversée par nos soins). Ainsi, par association, la fausseté de l’image vient renforcer l’idée, fallacieuse, que les messages audios ont eux aussi été générés par IA.

Une nouvelle forme de désinformation

On voit ici s’élaborer une nouvelle forme de désinformation, qui appelle réflexion. Dans la confusion informationnelle le risque n’est pas seulement que le faux soit pris pour vrai, mais aussi que le vrai soit pris pour faux. Une campagne de communication bien menée pourra même, non pas seulement « changer la conversation », mais en renverser les termes : l’accusé dévient accusateur, l’accusateur de bonne foi est renvoyé à des pratiques malhonnêtes.

La deepfake reste trop souvent définie comme un simple contenu alors qu’il faut l’envisager comme un processus socio-informationnel complexe. L’image d’un « halo de la deepfake » permet de saisir et penser les réalités numériques mouvantes de la communication politique moderne, marquée par la disparition de repères fiables entre le vrai et le faux. Car si l’on considère ses effets sur le public, la séquence que nous avons évoquée échappe à une dualité vrai / faux ; l’effet principal des campagnes et contre-campagnes n’est pas tant l’imposition d’une « vérité » que la disparition de tout repère informationnel.

Il existe donc bien un risque démocratique autour des deepfakes et leurs circulations médiatiques, mais ce risque doit être évalué dans toute sa complexité. L’horizon est en effet un risque de confusion totale dans la parole politique. Le citoyen étant plongé dans une confusion partisane au moment de juger ou non de l’authenticité d’un fait. La montée des « deepfakes » en Amérique latine s’inscrit dans un contexte de fragilité démocratique et de faible culture de vérification, favorisant la polarisation politique et la disqualification du pluralisme politique. La dénonciation de deepfakes imaginaires ou le renvoi automatique du doute au « complotisme » apparaissent comme deux manifestations étroitement liées d’un même phénomène de marginalisation et de délégitimation de certains discours critiques. Comme l’avait noté Florian Dauphin, la dénonciation du complotisme n’est pas le fait de seuls défenseurs de la vérité, elle peut aussi être mise au service d’objectifs plus troubles.

L’exemple hondurien que nous avons évoqué illustre bien l’ampleur de la désorientation informationnelle qui a saisi certaines sociétés latino-américaines. Évoquant les effets possibles de ces deepfakes dans les sociétés, le chercheur colombien Rodrigo López parle de « réalisme tragique », en écho au « réalisme magique » et à ses mélanges fictions/réalités. Un « réalisme tragique » qui s’exporte régionalement en s’adaptant aux spécificités locales. Mais au-delà de cette région, toutes les sociétés sont aux prises avec le bouillage des frontières entre le vrai et le faux.

Sources

Barrientos-Báez, Almudena & al, “Imágenes falsas, efectos reales. Deepfakes como manifestaciones de la violencia política de género”, Revista Latina de Comunicación Social, 82, 1-30, 2024

Chesney, Bobby & Citron, Danielle, “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security”, California Law Review 107 (6), 2019.

Dauphin, Florian, « Quand l'accusation de "complotisme" disqualifie et polarise le débat public », The Conversation, 2022.

Morazán, Pedro, “Hacia una economía política de las remesas en Honduras”, 2024.

Pawelec, Maria, « Deepfakes and Democracy (Theory): How Synthetic Audio-Visual Media for Disinformation and Hate Speech Threaten Core Democratic Functions », Digital Society, 1(2), 19, 2022.

Rodrigo López, J. F., “Realismo Trágico: ¿Cómo regular los deepfakes en Colombia?”, Latin American Law Review, 1(8), 2022.

Schiff, Kaylyn & al., « The Liar's Dividend: Can Politicians Claim Misinformation to Evade Accountability? », American Political Science Review, 119(1), 2025.

Vásquez, Daniel, « Problèmes de la démocratie au Honduras ». Problèmes d'Amérique latine, 2019/2 n° 113, 2019.