Si vous enseignez le code ASCII à ChatGPT, il vous apprend comment créer une bombe : un grand danger, réparable

Si vous enseignez le code ASCII à ChatGPT, il vous apprendra à créer une bombe : un grand danger qui peut être corrigé

La sécurité de ChatGPT est assez élevée, mais il y a encore de petites failles

Si vous enseignez le code ASCII à ChatGPT, il vous apprendra à créer une bombe : un grand danger qui peut être corrigé
L’application a une faille de sécurité via le code ASCII

L’IA est l’une des principales révolutions de notre planète. Nous sommes actuellement plongés dans un changement constant, chaque jour une nouvelle IA émerge qui sert à créer des vidéos comme Sora ou qui améliore sa capacité de traitement comme Claude 3. À ce stade, de nombreuses questions se posent quant à jusqu’où peut aller ce type de technologie, tant pour le bien que pour le mal. Ainsi, de nombreux chercheurs travaillent à dévoiler les dangers réels d’une IA, et de temps en temps, ils découvrent des failles de sécurité vraiment remarquables. C’est le cas qui nous concerne aujourd’hui, car grâce à une faille de sécurité, ils ont démontré que ChatGPT-4 peut vous apprendre à fabriquer des bombes, ce qui a également affecté d’autres IAs du marché telles que Gemini ou Claude.

Les dangers de ChatGPT

Un groupe de chercheurs universitaires a publié un article déjà disponible en pré-impression sur Arxiv.org, dans lequel ils explorent les failles de sécurité potentielles dans les modèles de langage de grande taille (LLM pour Language Large Models en anglais). Ainsi, grâce au code ASCII, un système qui autrefois servait à dessiner des images en utilisant des caractères textuels, ils ont réussi à convaincre les principales IAs du marché de contourner les restrictions imposées par leurs créateurs et de donner des directives assez dangereuses.

Baptisé ArtPrompt, ce système consiste à créer un masque d’art ASCII qui permet de cacher un mot et de l’utiliser pour persuader le chatbot. Celui-ci acceptera et nous montrera des réponses qui seraient normalement censurées.

Il convient de mentionner que tous les chatbots du marché censurent les réponses qui peuvent être considérées comme inconfortables ou nuisibles pour la société. Que ce soit en raison de leur contenu idéologique discutable ou de leur capacité à causer directement du tort à autrui, comme la fabrication d’armes. Grâce à cette astuce, ils ont réussi à faire en sorte que ChatGPT montre comment fabriquer des bombes ou directement contrefaire des pièces de monnaie et pirater des appareils. Cela démontre que l’IA a une large base de connaissances et qu’elle est assez dangereuse si aucune mesure de sécurité n’est prise.

Mais c’est précisément pour cela que ce type de recherches existent, afin que des experts puissent montrer les failles de sécurité que les employés de ces entreprises peuvent combler pour éviter d’éventuels problèmes de fonctionnement graves à l’avenir.

Tl;Dr

  • Un groupe de chercheurs universitaires a développé un modèle permettant aux IA de contourner les restrictions en utilisant de l’art ASCII.
  • Il a été baptisé ArtPrompt et consiste à créer un masque d’art ASCII pour un mot, puis l’utiliser pour persuader le chatbot de nous donner une réponse que son code de conduite censure.
  • Tous les chatbots rejettent les questions dangereuses, que ce soit ChatGPT, Claude ou Google Gemini, mais il existe des moyens de contourner ces restrictions.
  • En évitant l’utilisation de mots directement interdits, ils ont réussi à faire en sorte que GPT-4 ne voie pas de manière conventionnelle et interprète les caractères comme les chercheurs le voulaient.
  • Cela leur a permis d’accéder à la fabrication de bombes ou à des moyens de pirater des appareils ou de contrefaire de la monnaie.
  • Cela a également été réussi avec Llama2, Gemini et Claude.
  • L’objectif de tout cela est de trouver les failles de sécurité et de les corriger, c’est pourquoi les employés des principales entreprises d’IA travaillent déjà à résoudre ce problème.