C’est la traduction choisie pour «deepfake », dérivé des expressions anglaises «deep learning » (apprentissage profond) et «fake » (faux). Il s’agit d’une technique de manipulation de contenus numériques – vidéos, images, sons – reposant sur l’intelligence artificielle (IA) générative.
Contrairement aux montages Photoshop qui exigeaient un savoir technique, quelques minutes suffisent pour les générer. Or leur capacité à recréer l’apparence, la voix ou même les expressions faciales d’une personne est saisissante. Et le premier danger pour les élus est qu’en tant que personnage public, leur voix et apparence, matière première d’un hypertrucage, est très facilement accessible.
Pour un élu local, le principal risque d’un hypertrucage est de lui faire dire ce qu’il n’a pas dit afin de le discréditer ou de nuire à sa réputation. Les femmes sont plus particulièrement la cible de deepfakes pornographiques aux effets psychologiques dévastateurs.
Un autre risque est de voir se développer des arnaques financières. Il pourrait s’agir, par exemple, d’une voix ou d’une vidéo imitant l’élu(e) pour tenter d’extorquer de l’argent en simulant un appel aux dons, à l’occasion par exemple de la campagne électorale.
En plus de causer un préjudice financier aux victimes et de nuire à l’image des élus, ces attaques sont de nature à entamer la confiance nécessaire à la sérénité du débat démocratique local.
La multiplication des deepfakes a conduit les pouvoirs publics à renforcer la législation pour ce nouveau délit. La loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (SREN) interdit la publication des hypertrucages non consentis. Les peines sont d’un an d’emprisonnement et 15 000 euros d’amende, et peuvent être aggravées si le délit est commis via un service de communication au public en ligne.
Les deepfakes pornographiques sont punis encore plus sévèrement avec deux à trois ans d’emprisonnement et 60 000 à 75 000 euros d’amende.
En cas d’arnaque, les élus peuvent aussi se fonder sur «l’utilisation des données d’une personne (usurpation d’identité) dans le but de troubler sa tranquillité ou de porter atteinte à son honneur ou à sa considération » pour déposer plainte.
La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information dite «anti-fake news » permet à un juge des référés d’ordonner le retrait d’informations «manifestement fausses ou trompeuses » en période électorale.
À noter : les deepfakes à vocation humoristique sont tolérés, le juge étant (de fait) chargé de fixer la limite. Le règlement européen sur l’IA impose enfin que tout contenu généré par cet outil soit identifiable comme tel.
Face à un risque avéré, la première consigne est de surveiller en permanence internet et les réseaux sociaux en s’appuyant sur les outils de veille automatisée proposés par les moteurs de recherche, les plateformes ou des prestataires spécialisés. Les habitants, premiers relais sur les réseaux, gagneront aussi à être sensibilisés à ce risque pour apprendre à identifier – même si c’est de plus en plus difficile – les hypertrucages : voix décalée, incohérences dans l’image, contours flous… La rapidité de la détection et de la réaction est la clé.
Les élus peuvent s’appuyer sur la plateforme 17cyber pour entrer en contact avec des gendarmes spécialisés qui les aideront à porter plainte et à saisir les entités compétentes. Parmi celles-ci, la Commission nationale de l’informatique et des libertés (Cnil) mais aussi l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) chargée de la régulation des contenus de synthèse (lire ci-dessous).
Lire aussi notre dossier spécial " Cybersécurité : les outils pratiques "