A l’ère du deepfake politique, nos démocraties sont-elles en danger ?

En 2024, la moitié de la population mondiale est appelée aux urnes. Or, dans un contexte où les cas de deepfake politique se multiplient, l’heure est venue de mesurer les impacts des campagnes de désinformation sur l’opinion publique.
Désinformation : l’exception française
Lié à l’indépendance des médias, le risque de désinformation est assez faible en France. À contrario, on observe une forte polarisation politique qui vient ainsi ajouter de la méfiance dans l’esprit des électeurs.
IA et désinformation : le combo gagnant
Utilisée par les candidats pour mener leur campagne, ou pour déstabiliser un adversaire. L’IA est également utilisée par les attaquants étatiques pour faire circuler de fausses informations. Ainsi, l’analyse de plus de 36 élections révèle qu’1/3 des élections ont été influencées par des documents audio et vidéo générés par l’IA (information Check Point Software).
L’IA est capable de cibler finement un large échantillon de la population. Car aidée des réseaux sociaux, elle exploite les faiblesses humaines plutôt qu’une faille informatique ce qui rend cette menace d’autant plus dangereuse.
IA : ne pas croire tout ce que l’on voit
Sans tomber dans l’incrédulité ni la défiance par défaut, les deepfakes appellent à notre esprit critique. Derrière eux se cache le risque de remettre tout en cause.
En effet, ils exploitent les failles psychologiques des êtres humains plus que les vulnérabilités techniques. Ils jouent ainsi sur notre tendance à croire ce que nous voyons et à accorder une confiance aveugle aux images et vidéos, même générées par l’IA.
Deepfakes : la réglementation doit se durcir
L’IA est au cœur d’une compétition mondiale. Les acteurs internationaux comme l’ANSSI et l’ENISA cherchent un équilibre entre innovation et régulation. Une coopération internationale reste nécessaire pour harmoniser les politiques, pénaliser l’utilisation des deepfakes et responsabiliser les plateformes de diffusion. Des efforts de sensibilisation auprès du grand public sont par ailleurs également indispensables d’autant que les outils pour imiter une voix ou retoucher une photo sont très accessibles (moins de 2$).
Le Digital Services Act (DSA) et l’AI Act en Europe sont des étapes importantes, mais insuffisantes seules. L’ANSSI et l’ENISA travaillent déjà en ce sens, mais un effort collectif reste nécessaire.
En France, par exemple la loi pénalise la diffusion de fausses informations en période électorale : les contrevenants s’exposent à 75 000 € d’amende et un an de prison.
Deepfakes : comment les reconnaître ?
Ainsi la législation seule ne suffira pas. Il faut donc aussi investir dans l’éducation et la sensibilisation. Enseigner aux citoyens comment détecter les deepfakes et évaluer les sources est crucial.
Voici quelques astuces pratiques :
- Remettre en question la source et le canal par lequel l’information nous parvient
- Demander à la personne de faire passer sa main devant son visage ou de tourner la tête
- Vérifier l’affichage des noms en visio (ils n’apparaissent pas correctement pour les faux profils)
- Envoyer un SMS pour confirmer l’identité de l’interlocuteur
- Poser une question personnelle à laquelle seul votre interlocuteur saurait répondre
- Appeler directement, surtout si l’action demandée semble urgente
1 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037847559/
Partager cet article
Les articles cyber les plus lus
24/04/2026
De l’ère du cloud à l’IA agentique : pourquoi la cybersécurité doit rattraper l’innovation
Chaque grande rupture technologique suit un schéma bien connu : la promesse est…
24/04/2026
La supply chain en cybersécurité, là où le bât blesse
Les attaques de supply chain peuvent viser différents maillons : un logiciel largement…
24/04/2026
Cybersécurité : tout ce que les attaquants savent déjà sur votre entreprise
Lorsqu'une entreprise est victime d'une cyberattaque, l'attention se porte généralement…


