L’arnaque du faux directeur financier : il perd 25 millions de dollars à cause d’un deepfake

La truffa del falso direttore finanziario: perde 25 milioni di dollari per colpa di un deepfake

Il ouvre l’appel vidéo depuis Hong Kong, de l’autre côté de l’écran apparaissent ses collègues connectés depuis Londres, il y a aussi le directeur financier de l’entreprise. Cela ressemble à une simple vidéoconférence, mais c’est en réalité une arnaque de 25 millions de dollars. Tout commence par un étrange e-mail. L’employé de la multinationale (dont le nom et celui de l’entreprise n’ont pas été révélés) ouvre sa boîte mail et lit le message du directeur financier, qui demande une transaction secrète. Immédiatement, il se méfie, pensant qu’il s’agit d’un e-mail de phishing, mais lorsqu’il accède à l’appel vidéo, il se rassure. À l’écran, apparaissent ses collègues et le directeur lui demande d’effectuer 15 virements vers cinq comptes bancaires différents, pour un total de 25 millions de dollars.

Image

« Nous avons découvert que tous les participants à la conférence étaient faux », a expliqué le surintendant Baron Chan Shun-ching à la chaîne publique RTHK. Les visages des escrocs avaient été modifiés à l’aide de la technologie deepfake. Cela est devenu une arme efficace pour les escroqueries. Surtout maintenant, avec l’intégration de l’intelligence artificielle, elle est devenue encore plus facile à utiliser. De plus, les logiciels sont capables de générer des images ou des vidéos factices qui semblent réelles. « Je pense que l’escroc a préalablement téléchargé les vidéos, puis a utilisé l’intelligence artificielle pour ajouter de fausses voix à utiliser lors de la vidéoconférence« , a expliqué Chan.

De plus en plus de criminels utilisent les deepfake

Lors de la conférence de presse, la police de Hong Kong a déclaré que les arrestations liées à l’utilisation des deepfake avaient augmenté ces derniers temps. Chan a expliqué que huit cartes d’identité volées à Hong Kong (déclarées comme perdues par leurs propriétaires) avaient été utilisées pour effectuer 90 demandes de prêt et 54 enregistrements de comptes bancaires entre juillet et septembre 2023. De plus, selon la police, les deepfake sont de plus en plus utilisés pour tromper les programmes de reconnaissance faciale.

Une nouvelle étude de la société de conseil en gestion Gartner montre qu’en 2026, 30% des entreprises ne considéreront plus comme fiables les outils de vérification d’identité et d’authentification utilisant des systèmes biométriques, en raison de l’évolution des deepfake générés par l’intelligence artificielle.

Les pornographies artificielles créées avec l’IA

Les deepfake sont également devenus une arme pour détruire les femmes. En janvier, de fausses images pornographiques de Taylor Swift ont été publiées sur les réseaux sociaux. L’une d’entre elles, partagée par un utilisateur sur X (anciennement Twitter), a été vue 47 millions de fois avant que le compte ne soit suspendu. Le cas de Swift n’est pas isolé. En réalité, l’application FaceMega, qui remplace les visages et les corps à l’aide de l’intelligence artificielle, avait lancé une campagne publicitaire provocatrice en mars. Elle avait téléchargé 127 vidéos d’Emma Watson et 74 de Scarlett Johansson en attitudes suggestives sur les réseaux sociaux.

Un porno deepfake de Michelle Obama était également apparu sur Reddit, montrant l’ancienne première dame dans une chambre rouge. Le deepfake est devenu un outil utilisé pour attaquer les femmes au pouvoir, les politiciennes, les militantes, les intellectuelles et les artistes, pour les discréditer, les intimider et les humilier.

Déshabillées avec une application et victimes de chantage

Et ce n’est pas tout. La technologie deepfake est également utilisée pour « déshabiller » et faire chanter les femmes. Les fausses photos de nus sont générées avec des logiciels ou des applications, elles commencent alors à être partagées sur des canaux tels que Telegram, WhatsApp, et ensuite la victime est contactée de manière anonyme, et on lui demande une somme d’argent pour ne pas publier les images créées avec l’IA. « Il s’agit d’une extorsion sexuelle, renforcée par l’intelligence artificielle qui permet de créer des photos réalistes », avait expliqué Barbara Strappato, responsable de la police postale, à Netcost-security.fr.

Dans les cas de sextorsion, la victime est donc victime de chantage financier ou sexuel, l’escroc menace de publier du matériel intime de la victime obtenu par tromperie et sans son consentement. Dans ce cas, cependant, le contenu intime n’est pas une photo volée ou envoyée par erreur, mais l’image d’un corps nu créée à partir de rien grâce à l’IA. Et cela expose quiconque, au-delà de toute prévention possible. Le risque est d’amplifier également les cas de revenge porn et la circulation de matériel pédopornographique.