Création d’un virus informatique contre l’IA : son objectif est d’avertir d’un grand danger

Ils créent un virus informatique contre l'IA : le but est de mettre en garde contre un grand danger

L’objectif des chercheurs est clair : souligner que nous ne pouvons pas toujours faire confiance à 100% à l’IA

Ils créent un virus informatique contre l'IA : le but est de mettre en garde contre un grand danger
Les virus atteignent l’IA | Image : DALL-E

L’IA va représenter un véritable bond en avant en termes de productivité pour nous tous. En réalité, elle le fait déjà dans notre quotidien, dans des versions que les experts des principales entreprises mondiales estiment ne pas encore être totalement formées. Lorsqu’elle atteindra l’intelligence artificielle générale, même si cela semble être un concept assez vague et complexe, elle promet une capacité sans égal une fois ce stade de développement atteint. Cependant, il y a des problèmes de sécurité ancrés dans toutes ces questions qui semblent avoir été négligés de manière notable.

C’est pourquoi une équipe de chercheurs a tenté de créer un virus informatique conçu pour les IA, et il faut dire qu’ils y sont parvenus de manière assez remarquable.

Morris II, le ver qui attaque l’IA

Ben Nassi, Stav Cohen et Ron Bitton, une équipe de chercheurs, ont développé un ver ciblant l’intelligence artificielle générative, capable de se déplacer d’un système à un autre. Ils l’ont documenté dans un article qu’ils ont envoyé à OpenAI et à Google pour alerter sur le danger. Appelé Morris II en hommage au premier ver de l’histoire du piratage, ce programme se concentre sur l’attaque des assistants de messagerie propulsés par l’IA, dans le but d’extraire des données d’e-mails et de distribuer du spam.

YouTube video

Le mécanisme de ce ver fonctionne grâce à une invite autoréplicative. Cette approche fait en sorte que lorsqu’une invite est traitée, l’IA génère automatiquement une autre invite, ce qui amène l’IA à produire des instructions supplémentaires dans ses propres réponses. Pour démontrer son fonctionnement, les chercheurs ont configuré un système de messagerie électronique qui interagissait avec ChatGPT, Gemini et LLaVa. Ce dernier est une IA en code source ouvert développée, entre autres, par Microsoft.

Dans ce système, ils ont envoyé un e-mail conçu avec une invite spécifique visant à compromettre la base de données d’un assistant de messagerie. Lorsque ce message était traité et envoyé à GPT-4 ou à Gemini Pro, le ver procédait à l’extraction des données contenues dans les e-mails.

L’objectif de cette recherche n’est pas seulement de signaler l’existence de failles de sécurité. Les chercheurs lancent un message clair pour tenter de résoudre à temps les graves problèmes que l’écosystème de l’IA pourrait rencontrer en raison d’une architecture de sécurité déficiente. Il est donc nécessaire de réévaluer les technologies existantes pour tenter d’appliquer des solutions avant l’apparition de véritables problèmes qui pourraient mettre des millions d’ordinateurs en danger sans même avoir besoin de l’intervention d’un humain dans le processus.

En résumé, pour simplifier un fait peut-être un peu complexe :

  • Une équipe de chercheurs, Ben Nassi, Stav Cohen et Ron Bitton, a créé un ver pour l’IA générative. Il est capable de se propager d’un système à un autre et a été baptisé Morris II en hommage au premier ver de l’histoire du piratage.
  • Il attaque les assistants de messagerie générés par l’IA pour voler des données d’e-mails et envoyer du spam.
  • Le fonctionnement se fait via une invite autoréplicative qui oblige l’IA à générer une autre invite en réponse, amenant ainsi l’IA à générer des instructions supplémentaires dans ses propres réponses.
  • Ils ont créé un système de messagerie électronique connecté à ChatGPT, Gemini et LLaVa.
  • Les chercheurs ont rédigé un e-mail avec une invite visant à corrompre la base de données d’un assistant de messagerie, lorsque le message est récupéré et envoyé à GPT-4 ou à Gemini, il vole les données des e-mails.
  • L’objectif de la recherche n’est pas seulement de montrer les failles de sécurité, mais aussi de mettre en garde contre une mauvaise conception de l’architecture de tout l’écosystème de l’IA.