Un groupe de pirates informatiques perturbe la télévision avec un faux JT : le journaliste est un deepfake

Un gruppo di hacker interrompe la televisione con un finto TG: il giornalista è un deepfake

Aucune guerre ne se mène seulement avec des munitions. Depuis toujours, ce sont les informations, surtout les fausses, qui font la différence. Et si pendant la Première Guerre mondiale, on lançait des tracts contenant des nouvelles modifiées pour tromper les ennemis, aujourd’hui on perturbe les services de streaming TV pour diffuser des vidéos deepfake. C’est ce qui s’est passé aux Émirats arabes unis. Les hackers des Gardiens de la révolution islamique, une branche des forces armées iraniennes, ont diffusé une vidéo générée par l’intelligence artificielle (IA). Dans la vidéo, un faux journaliste annonce un reportage montrant des images non vérifiées d’hommes et de femmes palestiniens tués à Gaza par les forces militaires israéliennes.

Ce sont des deepfake, une technologie existante depuis des années, mais avec l’intégration de l’IA, elle est devenue plus performante et plus facile à utiliser. « Les hackers cherchent à influencer l’opinion publique sur la guerre entre Israël et le Hamas en utilisant l’intelligence artificielle », ont expliqué les analystes de Microsoft qui ont détecté l’attaque. « La perturbation des plateformes de streaming est un exemple important, elle a touché les Émirats arabes unis, le Royaume-Unis et le Canada ». Le groupe de hackers, appelé Cotton Sandstorm, a également publié la vidéo sur Telegram.

Les deepfake sont une arme. Depuis le début du conflit, le 7 octobre 2023, des images, des vidéos, des graphiques falsifiés ont été publiés. Même pendant la guerre entre la Russie et l’Ukraine, des vidéos manipulées ont été partagées. Par exemple, le 18 février 2022, une vidéo deepfake de Volodymyr Zelensky a été publiée sur les réseaux sociaux, dans laquelle il annonçait la fin de la guerre. Une autre montrait le président ukrainien ordonnant aux soldats de se rendre.

La désinformation générée par l’IA

Depuis novembre 2022, les logiciels sont devenus de plus en plus performants. Au début, il était facile de repérer les détails qui trahissaient le caractère artificiel de l’image, de l’audio ou de la vidéo. En effet, ce sont les détails étranges qui sauvaient l’œil de l’illusion, mais ils sont en train de disparaître. Il sera de plus en plus facile de confondre le faux avec le vrai. L’intelligence artificielle générative offre les outils pour alimenter un nouveau type de désinformation, celle qui est préventive, qui crée des preuves pour des événements qui ne se sont jamais produits.

Lors d’une interview accordée au Daily Beast, Joan Donavan, experte en désinformation et chercheuse à Harvard, a expliqué que « malheureusement, ces outils pour créer des images et des vidéos réalistes sont très utiles pour tromper le public ». Elle a ensuite ajouté : « Des événements faux sont transformés en réalité grâce à la création de médias couvrant des événements qui ne se sont jamais produits ».

L’impact des deepfake sur la scène politique

On a beaucoup parlé de l’impact que l’intelligence artificielle aurait sur la scène politique. En mars, des photos truquées montrant Trump menotté et en prison ont été publiées, et fin janvier, la voix de Joe Biden a été clonée. Le secrétaire d’État David Scanlan a souligné que les derniers développements de l’intelligence artificielle « renforcent les préoccupations nationales concernant l’effet de l’IA sur les campagnes électorales ».

Les analystes de Microsoft ont ajouté : « Nous attendons avec impatience et inquiétude les élections présidentielles américaines de 2024 ». Les hackers iraniens avaient déjà visé les élections américaines de 2020 avec une campagne informatique consistant à envoyer des courriels intimidants aux électeurs. Ils avaient également créé un site web contre le directeur du FBI, Christopher Wray, et diffusé de fausses informations sur les infrastructures électorales, « incitant à la violence contre les fonctionnaires du gouvernement américain ».