Deepfakes : ne croyez ni vos yeux ni vos oreilles !
.jpg)
Les experts en fact-checking et en éducation aux médias pensaient avoir trouvé des solutions pour contrer les deepfakes, ces vidéos truquées créées par intelligence artificielle, grâce à des outils comme Invid-Werify et des programmes de littératie visuelle tels que Youverify.eu. Cependant, de récents événements mettent en lumière l'émergence d'une nouvelle menace : le deepfake audio.
Des cas alarmants aux États-Unis et en Europe
En janvier 2024, un robocall aux États-Unis prétendait être la voix de Joe Biden, incitant les électeurs du New Hampshire à ne pas voter juste avant les primaires démocrates. Cette manipulation a été orchestrée par Steve Kramer, consultant pour un adversaire de Biden, Dean Phillips. En mars 2024, en Slovaquie, une fausse conversation entre la journaliste Monika Tódová et un dirigeant politique a circulé, insinuant une fraude électorale, tandis qu'au même moment en Angleterre, un deepfake audio de Keir Starmer, le leader des travaillistes, le montrait en train d'insulter des membres de son équipe. Ces manipulations ont rapidement gagné en visibilité sur les réseaux sociaux, soulignant les dangers des deepfakes.
L'impact sur l'information et les élections
Les deepfakes peuvent causer des dégâts considérables en toute impunité. Ils compromettent l'intégrité de l'information et du processus électoral, nécessitant une éducation aux médias pour aider à les comprendre et à s'en prémunir.
Une nouvelle ère de médias synthétiques
Le deepfake audio s'inscrit dans la catégorie des médias synthétiques, de plus en plus éloignés de la réalité. Cette technologie, qui clone la voix d'une personne pour lui faire dire des propos qu'elle n'a jamais tenus, est rendue possible par des algorithmes avancés de synthèse vocale et de clonage de voix. Grâce à des échantillons courts, des voix synthétiques presque indiscernables de voix humaines peuvent être produites.
Des défis pour la détection
La détection des deepfakes audio reste un défi complexe, car les techniques de manipulation deviennent de plus en plus sophistiquées. Les systèmes de reconnaissance audio doivent donc évoluer pour différencier les voix authentiques des voix synthétiques.
L'influence de l'intelligence artificielle
Les deepfakes audio peuvent déstabiliser la confiance du public et faciliter la diffusion de désinformation. Ils présentent des risques importants, notamment l’usurpation d’identité et l’atteinte à la vie privée, contribuant à un climat politique tendu.
Stratégies de détection et régulation
Différentes méthodes sont explorées pour identifier les deepfakes audio, bien que les solutions actuelles ne soient pas totalement efficaces. L'éducation aux médias doit également s’adapter pour alerter les jeunes sur ces risques. Il est crucial de renforcer les compétences en littératie sonore en plus de la littératie visuelle.
Conclusion : analyser, interpréter, réagir
Pour lutter contre ces menaces, une approche collective est essentielle, combinant éducation, régulation et vigilance. En adoptant les 3I (informer, intercepter, insulariser) proposées par l'Alan Turing Institute, les acteurs politiques et éducatifs peuvent mieux se préparer à faire face à cette nouvelle réalité. Il est primordial d’analyser, interpréter et réagir face à ces défis pour protéger l’intégrité de l’information et la confiance du public.
.jpeg)
SOURCE : THE CONVERSATION

Nos réalisations
Découvrez nos références, nos réalisations et nos travaux pour des établissements.
C'est tout frais de nos experts

"ChatGPT nous oblige à redéfinir notre métier" : un professeur d’histoire-géo spécialisé en intelligence artificielle

Nouveau bachelor agro : les modalités détaillées dans des projets de décrets
