A l’ère du deepfake politique, nos démocraties sont-elles en danger ?

En 2024, la moitié de la population mondiale est appelée aux urnes. Dans un contexte où les cas de tromperies – élaborés par des acteurs invisibles qui manipulent le paysage numérique dans le but de remettre en cause les fondements mêmes de la démocratie – se multiplient, l’heure est venue de mesurer les impacts des campagnes de désinformation sur l’opinion publique.

Désinformation : l’exception française

Lié à l’indépendance des médias, en France, le risque de désinformation est assez faible. A contrario, en France et en Europe, on observe une forte polarisation politique qui vient ajouter de la méfiance dans l’esprit des électeurs.

IA et désinformation : le combo gagnant

Utilisée par les candidats pour mener leur campagne, ou pour déstabiliser un adversaire, l’IA est également utilisée par les attaquants étatiques pour faire circuler de fausses informations. Ainsi, l’analyse de plus de 36 élections révèle qu’1/3 des élections ont été influencées par des documents audio et vidéo générés par l’IA (information Check Point Software).

L’IA est capable de cibler finement un large échantillon de la population pour mener des campagnes d’influence. Aidé des réseaux sociaux qui permettent de les diffuser, ce type d’offensives exploite les faiblesses des êtres humains, plutôt qu’une faille dans un système informatique – qualifiant les mécanismes de cette menace d’autant plus dangereux.

IA : ne pas croire tout ce que l’on voit

Sans pour autant tomber dans l’incrédulité, ni la défiance par défaut. Derrière les deepfakes se cache le risque de remettre tout en cause. Pour autant, pour discerner le vrai du faux, les deepfakes en appellent à notre esprit critique – aidé par quelques mécanismes de tests. Les deepfakes exploitent en effet les failles psychologiques des êtres humains plus que les vulnérabilités techniques des systèmes informatiques. Ils jouent sur notre tendance à croire ce que nous voyons, à accorder une confiance aveugle aux images et vidéos, même si elles sont générées par des intelligences artificielles.

Deepfakes : la réglementation doit se durcir

L’IA est au cœur d’une compétition mondiale. Les acteurs étatiques et internationaux (ANSSI et ENISA) cherchent à trouver un équilibre adéquat entre l’innovation technologique et la nécessité de réglementer cette avancée disruptive. Si les états ont successivement mis en place des législations, une coopération internationale reste nécessaire pour harmoniser les politiques, pénaliser l’utilisation des deepfake et rendre responsable les plateformes de diffusion. Enfin, des efforts doivent être menés pour sensibiliser la population. Surtout lorsque l’on sait que les outils d’IA pour imiter une voix ou retoucher une photo sont très accessibles (moins de 2$).

Face à cette menace, la réponse ne peut pas être uniquement technologique. Les initiatives comme le Digital Services Act (DSA) et l’AI Act en Europe sont des étapes importantes, mais elles ne suffisent pas. Une coopération internationale est essentielle pour harmoniser les politiques, pénaliser l’utilisation des deepfakes et responsabiliser les plateformes de diffusion. Les agences comme l’ANSSI et l’ENISA travaillent déjà en ce sens, mais un effort collectif est nécessaire pour instaurer une régulation efficace.

La France, par exemple, a mis en place une législation visant à pénaliser la diffusion de fausses informations pendant les périodes électorales. Les contrevenants s’exposent à des amendes pouvant aller jusqu’à 75 000 euros et un an de prison . L’Union européenne travaille également sur des réglementations plus strictes concernant l’utilisation de l’IA, avec le Digital Services Act (DSA) et l’AI Act, qui visent à responsabiliser les plateformes en ligne et à protéger les utilisateurs contre les contenus nocifs.

Deepfakes : comment les reconnaître ?

La législation seule ne suffira pas à protéger nos démocraties. Nous devons également investir dans l’éducation et la sensibilisation, sachant qu’il y a une différence entre les générations sur la perception des deepfakes entre les générations. Enseigner aux citoyens comment détecter les deepfakes et critiquer les sources d’information est crucial. 

Voici quelques astuces pratiques pour identifier les deepfakes :

  • remettre en question la source / le moyen par lequel l’information nous parvient (encore plus que l’émetteur)
  • demander à la personne de faire passer sa main devant son visage, lui demander de tourner la tête
  • veiller à l’affichage des noms lors d’une visio (ceux-ci n’apparaissent pas correctement pour les faux profils)
  • envoyer un sms à la personne en ligne pour s’assurer que c’est bien avec elle que nous échangeons
  • poser une question à laquelle notre interlocuteur doit savoir répondre s’il nous connaît
  • appeler la personne, surtout si l’action demandée a un caractère urgent.

 

1 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037847559/

Partager cet article

Les articles cyber les plus lus

Le rapport annuel ThreatLabz de Zscaler sur les attaques par ransomware

Le rapport annuel ThreatLabz de Zscaler révèle que des groupes de ransomware clés ont…

L’intelligence artificielle, nouvel atout des cybercriminels

Depuis l'avènement de ChatGPT fin 2022, l'intelligence artificielle (IA) a franchi un cap…

Renaud Deraison rejoint le Conseil stratégique de Sekoia.io

La société européenne de technologie en cybersécurité Sekoia.io, éditrice de la…