ChatGPT facilite la vie des méchants, car si vous avez détecté la plupart des e-mails « spam » et des arnaques grâce à des textes mal orthographiés et des fautes d’orthographe, vous devrez maintenant être beaucoup plus prudent.
Nous sommes tout de même assez surpris de l’énorme potentiel de ChatGPT et de toutes les promesses que nous font les outils d’intelligence artificielle qui, en moins d’un an, ont grossi comme de l’écume au point d’être interpellés par certains de leurs propres créateurs comme Elon Musk ou Steve Wozniak, entre autres, qui ont même signé une lettre ces jours-ci pour arrêter leur développement pendant 6 mois en attendant d’analyser plus profondément quelles implications ils auront dans nos vies.
Sans surprise, sans rentrer dans des analyses savantes qui étudient par exemple les types de travail qui seront perdus au profit de ces intelligences artificielles, on sait déjà grâce à une étude récente de The Guardian que la présence de ces chatbots conversationnels et intelligents rend détection extrêmement difficile des arnaques aussi bien sur Internet que par mail ou SMs.
Et c’est qu’en effet, ChatGPT 4 et autres peuvent écrire des textes avec une orthographe et une grammaire correctes qui, d’un trait de plume, élimineront la première ligne de défense contre ces e-mails du « membre de la famille du Nigeria qui nous apporte un prix en argent « , qui visait précisément à détecter les fautes d’orthographe excessives et les phrases étranges ou mal construites.
Les chatbots conversationnels comme ChatGPT peuvent rendre très difficile la détection du spam, du phishing et de nombreuses autres cyberattaques, car ils corrigent l’orthographe et la grammaire de tout texte pour le rendre beaucoup plus crédible.
Il ne fait aucun doute que les e-mails de phishing et les tentatives de fraude de toutes sortes, même dans des outils tels que WhatsApp, sont parmi les armes les plus connues des mafias et des cybercriminels pour commettre des fraudes sur Internet.
Leur plus gros problème à ce jour était peut-être d’avoir ce type d’e-mail bien développé, préparé pour chaque pays et indétectable dans différentes langues, ce que ChatGPT et d’autres outils similaires facilitent désormais grandement en étant capables d’écrire des textes en quelques secondes sur presque n’importe quel sujet.
Europol a déjà mis en garde contre ce danger, à savoir que les cybercriminels pourront utiliser ce type d’outil pour écrire correctement dans n’importe quelle langue, ce qui rendra beaucoup plus difficile la détection de leurs e-mails malveillants.
Les experts l’affirment également, puisque pratiquement la moitié des adultes des pays développés reconnaissent avoir reçu au moins un email de phishing dans l’année écoulée, ce qui évidemment sera bien plus complexe à détecter si une IA le prépare consciencieusement, en évitant les erreurs et les fautes d’orthographe :
Tous les hackers peuvent désormais utiliser une IA qui se chargera de corriger les fautes d’orthographe et la mauvaise grammaire. L’idée que vous pouvez faire confiance à la recherche de troubles de l’élocution pour détecter une attaque de phishing n’est plus correcte. Nous avions l’habitude de dire que vous pouviez facilement identifier une attaque de phishing en lisant attentivement car les e-mails n’étaient pas bien écrits, mais cela ne fonctionne plus.
Ce sont les mots de Corey Thomas, directeur exécutif de la firme de cybersécurité Rapid7, qui s’est inquiété des progrès que pourraient apporter les améliorations futures de ce type d’intelligence artificielle lors de l’exécution de différents types d’attaques d’usurpation d’identité, soit en créant des courriels, de fausses pages Web ou même par d’autres moyens d’obtenir des informations privées.
Europol lui-même a confirmé dans son rapport consultatif qu’il met en évidence un ensemble de problèmes potentiels causés par les chatbots, notamment la fraude et l’ingénierie sociale, la désinformation de toutes sortes et la cybercriminalité.
De son côté, la société CheckPoint a également confirmé avoir pu contourner les protections d’IA de ChatGPT pour produire un e-mail de phishing indiquant à l’outil qu’il en avait besoin pour un modèle à utiliser dans un programme de formation et de sensibilisation des employés pour lutter contre la cybercriminalité.
Les créateurs de CharGPT, OpenAI, déclarent explicitement dans les propres conditions d’utilisation de l’outil que les utilisateurs « ne peuvent pas utiliser les services d’une manière qui enfreint, détourne ou viole les droits de toute personne », mais qui met les portes sur le terrain ?
Détente, découvrez l’évolution du nombre de smartphones vendus par marque au fil du temps dans la vidéo ci-dessous :