Élections générales et IA générative : Quand la menace des deepfakes plane sur la campagne

La prochaine et imminente campagne électorale échappera-t-elle à la diffusion de deepfakes, images, vidéos, bandes sonores manipulées au réalisme inquiétant ? L’intelligence artificielle (IA) générative a récemment ressuscité le dictateur indonésien le général Suharto 15 ans après sa mort ou encore l’indien Muthuvel Karunanidhi en pleine campagne électorale. La moitié de la population mondiale est appelée à se rendre aux urnes en 2024. Y compris les Mauriciens (?). Face aux dérives avérées de l’IA, Google, Meta, TikTok et Microsoft se sont engagés à labelliser les contenus générés par leurs algorithmes. Cette initiative sera-t-elle suffisante pour prévenir la tentation de détourner l’IA à des fins de manipulation ? Pour les partis qui vont briguer bientôt les suffrages, l’IA générative pourrait être plus un cauchemar qu’une alliée.

- Publicité -

Des USA en passant par les Philippines, l’Inde, l’Afrique du Sud et à peu près partout ailleurs… l’intelligence artificielle (IA) s’est invitée de manière peu morale dans les campagnes électorales et politiques. Son usage, de façon pernicieuse, pour générer des contenus trompeurs allant à l’encontre de l’éthique, fait actuellement de l’IA un outil redoutable et redouté dans le contexte politique, alors que près de la moitié de la population mondiale se rend aux urnes en 2024. Le Financial Times tire la sonnette d’alarme, affirmant que les risques de propagande et de manipulation n’ont jamais été aussi importants.

Aucun ne se risquerait à diffuser des deepfakes
Avec les progrès rapides de l’IA et l’émergence de puissants générateurs de textes, d’audio et de vidéos tels que ChatGPT (OpenAI) ou Midjourney, la manipulation de contenus numériques est devenue accessible à tous, et qui plus est, bon marché. En parallèle, il est devenu de plus en plus difficile d’identifier les contenus manipulés.
L’IA et son influence sur un électorat ne sont pas une thématique prise à la légère. L’impact des dérives peut être irréversible et sans appel. L’intelligence artificielle générative, qui offre la possibilité de créer à sa guise des images, des vidéos ou des contenus audio sur demande, sans investissement financier conséquent, est une arme dont il faudrait plus se méfier que de faire confiance.

L’opposition parlementaire sur ses gardes
À Maurice, à l’approche des élections générales, des partis politiques s’intéressent déjà au rôle de l’IA générative durant la prochaine campagne électorale. Des membres de différents partis qui ont évoqué la question avec Week-End sont même certains que leurs adversaires respectifs s’attaqueront à leur intégrité en ayant recours à l’IA générative et mettent en garde les deepfakes. Comme chaque campagne électorale, celle de 2024 embarquera probablement, avec elle la tendance numérique du moment.

Avec les nouveaux algorithmes, les habituels montages à partir d’extraits, réels, de vidéos d’archives diffusés dans des meetings et autres rassemblements visant à faire rire la foule, contredire et embarrasser les adversaires, seront obsolètes. Cependant, aucun parti ne se risquerait à diffuser des deepfakes visuels ou sonores. « Les faux profils s’en chargeront », nous dit un spécialiste de l’informatique. « Sans une loi explicite sur l’intelligence artificielle génératives et les deepfakes, il faudra compter avec les lois existantes : The Cybersecurity and Cybercrime Act et l’Information and Communications Technologies Act, pour intervenir contre la mauvaise utilisation de l’IA pendant la campagne électorale », ajoute-t-il.

De son côté, un proche du gouvernement se dit confiant que « les Mauriciens ne tomberont pas dans le piège des deepfakes. » Selon lui, « les images et les vidéos générées par l’IA… are too perfect to be true ! Les Mauriciens les plus avertis verront les supercheries. » La qualité, zéro défaut, des contenus fabriqués par une intelligence artificielle, est pour lui l’indicateur qui trahira les deepfakes. Dans le camp de l’opposition parlementaire, « la vigilance contre les fake news numériques » est déjà de mise. Une stratégie est en gestation pour traquer, détecter et analyser les contenus fabriqués.
« La manipulation de l’opinion à travers l’IA générative concerne aussi la commission électorale, celle-ci aura dans ce sens un rôle particulier à jouer auprès des partis. Elle devrait aborder la question avec eux. D’autre part, il est de l’intérêt de tous qu’il y ait une période de consultation publique sur l’utilisation éthique de l’IA durant les prochaines élections. Ce qui implique la participation de la société civile, des candidats, des experts en technologie avec la possibilité de participer à l’élaboration de directives et de mesures visant à assurer une utilisation éthique de l’IA lors des élections. Cette initiative viserait à promouvoir la transparence, la responsabilité et la confiance dans le déroulement des élections », avance une source dans l’opposition.

Il y a bien eu une stratégie nationale d’IA, établie en 2018, avec des recommandations pour une utilisation éthique de l’intelligence artificielle. Sauf qu’en 2018, les vidéos deepfakes émergeaient et n’avaient pas encore pris l’ampleur que l’on connaît dans la sphère politique. La stratégie nationale n’en mentionne pas.
Pour limiter les fracas de la désinformation, des plateformes pleinement conscientes des conséquences fâcheuses avant la tenue de plusieurs élections législatives ou présidentielles à travers le monde, essayent de prendre des mesures. Le 15 janvier dernier, Open AI a publié un communiqué pour « anticiper et prévenir les abus en visant les deepfakes. » Sur son blog, on peut lire : « We’re working to prevent abuse, provide transparency on AI-generated content, and improve access to accurate voting information… »

Les plateformes anticipent les abus
ChatGPT ne donnera pas l’autorisation à ses utilisateurs de créer des applications à des fins politiques et dans le but de monter une campagne. « Nous voulons être certains que notre technologie ne sera pas utilisée de manière à porter atteinte » au processus démocratique, explique OpenAI sur son blog. Des recherches sont aussi en cours pour trouver des outils permettant de détecter des voix deepfake générée par VALL-E (Microsoft, partenaire de Open AI), modèle d’IA qui peut cloner une voix à partir d’un enregistrement de trois secondes seulement. « We are also experimenting with a provenance classifier, a new tool for detecting images generated by DALL·E. Our internal testing has shown promising early results, even where images have been subject to common types of modifications. We plan to soon make it available to our first group of testers — including journalists, platforms, and researchers — for feedback », “rassure” Open AI.

Même si les entreprises Google, Meta, TikTok et Microsoft se sont engagées à labelliser les contenus générés par l’IA, le poids de cette initiative préventive face à la rapidité avec laquelle une fausse information devient virale est mitigé. D’une part, le timing choisi pour la publication d’un deepkafe, en fonction d’un événement, peut avoir l’effet escompté. Ajouté à cela, les deepfakes audio sont plus complexes à vérifier et à contextualiser que les vidéos, car ils ne disposent pas des signaux visuels qui pourraient aider à identifier qu’il s’agit d’un montage.

- Publicité -
EN CONTINU

l'édition du jour

- Publicité -