A l’ère du deepfake politique, nos démocraties sont-elles en danger ?

En 2024, la moitié de la population mondiale est appelée aux urnes. Dans un contexte où les cas de tromperies – élaborés par des acteurs invisibles qui manipulent le paysage numérique dans le but de remettre en cause les fondements mêmes de la démocratie – se multiplient, l’heure est venue de mesurer les impacts des campagnes de désinformation sur l’opinion publique.

Désinformation : l’exception française

Lié à l’indépendance des médias, en France, le risque de désinformation est assez faible. A contrario, en France et en Europe, on observe une forte polarisation politique qui vient ajouter de la méfiance dans l’esprit des électeurs.

IA et désinformation : le combo gagnant

Utilisée par les candidats pour mener leur campagne, ou pour déstabiliser un adversaire, l’IA est également utilisée par les attaquants étatiques pour faire circuler de fausses informations. Ainsi, l’analyse de plus de 36 élections révèle qu’1/3 des élections ont été influencées par des documents audio et vidéo générés par l’IA (information Check Point Software).

L’IA est capable de cibler finement un large échantillon de la population pour mener des campagnes d’influence. Aidé des réseaux sociaux qui permettent de les diffuser, ce type d’offensives exploite les faiblesses des êtres humains, plutôt qu’une faille dans un système informatique – qualifiant les mécanismes de cette menace d’autant plus dangereux.

IA : ne pas croire tout ce que l’on voit

Sans pour autant tomber dans l’incrédulité, ni la défiance par défaut. Derrière les deepfakes se cache le risque de remettre tout en cause. Pour autant, pour discerner le vrai du faux, les deepfakes en appellent à notre esprit critique – aidé par quelques mécanismes de tests. Les deepfakes exploitent en effet les failles psychologiques des êtres humains plus que les vulnérabilités techniques des systèmes informatiques. Ils jouent sur notre tendance à croire ce que nous voyons, à accorder une confiance aveugle aux images et vidéos, même si elles sont générées par des intelligences artificielles.

Deepfakes : la réglementation doit se durcir

L’IA est au cœur d’une compétition mondiale. Les acteurs étatiques et internationaux (ANSSI et ENISA) cherchent à trouver un équilibre adéquat entre l’innovation technologique et la nécessité de réglementer cette avancée disruptive. Si les états ont successivement mis en place des législations, une coopération internationale reste nécessaire pour harmoniser les politiques, pénaliser l’utilisation des deepfake et rendre responsable les plateformes de diffusion. Enfin, des efforts doivent être menés pour sensibiliser la population. Surtout lorsque l’on sait que les outils d’IA pour imiter une voix ou retoucher une photo sont très accessibles (moins de 2$).

Face à cette menace, la réponse ne peut pas être uniquement technologique. Les initiatives comme le Digital Services Act (DSA) et l’AI Act en Europe sont des étapes importantes, mais elles ne suffisent pas. Une coopération internationale est essentielle pour harmoniser les politiques, pénaliser l’utilisation des deepfakes et responsabiliser les plateformes de diffusion. Les agences comme l’ANSSI et l’ENISA travaillent déjà en ce sens, mais un effort collectif est nécessaire pour instaurer une régulation efficace.

La France, par exemple, a mis en place une législation visant à pénaliser la diffusion de fausses informations pendant les périodes électorales. Les contrevenants s’exposent à des amendes pouvant aller jusqu’à 75 000 euros et un an de prison . L’Union européenne travaille également sur des réglementations plus strictes concernant l’utilisation de l’IA, avec le Digital Services Act (DSA) et l’AI Act, qui visent à responsabiliser les plateformes en ligne et à protéger les utilisateurs contre les contenus nocifs.

Deepfakes : comment les reconnaître ?

La législation seule ne suffira pas à protéger nos démocraties. Nous devons également investir dans l’éducation et la sensibilisation, sachant qu’il y a une différence entre les générations sur la perception des deepfakes entre les générations. Enseigner aux citoyens comment détecter les deepfakes et critiquer les sources d’information est crucial. 

Voici quelques astuces pratiques pour identifier les deepfakes :

  • remettre en question la source / le moyen par lequel l’information nous parvient (encore plus que l’émetteur)
  • demander à la personne de faire passer sa main devant son visage, lui demander de tourner la tête
  • veiller à l’affichage des noms lors d’une visio (ceux-ci n’apparaissent pas correctement pour les faux profils)
  • envoyer un sms à la personne en ligne pour s’assurer que c’est bien avec elle que nous échangeons
  • poser une question à laquelle notre interlocuteur doit savoir répondre s’il nous connaît
  • appeler la personne, surtout si l’action demandée a un caractère urgent.

 

1 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037847559/

Partager cet article

Les articles cyber les plus lus

Startup

Prix de la Startup Forum Incyber 2024 : 5 pépites cyber à la une !

Chaque année, le Forum Incyber récompense des pépites de l’écosystème cyber. Le choix du…

VPN vers ZTNA en 9 étapes

Comment passer du VPN traditionnel au ZTNA en 9 étapes

Pendant longtemps, les entreprises ont privilégié les VPN pour permettre aux employés de…

Zéro-Trust

Tout le monde (ou presque) fera du Zero Trust… et mieux vaut s’y préparer dès maintenant !

Dernièrement, en France, les organisations attaquées (par exemple les hôpitaux) avaient…