Un groupe d’inconnus a obtenu mon adresse mail, il leur a suffi de demander à ChatGPT

“Un gruppo di sconosciuti ha ottenuto la mia mail, è bastato chiedere a ChatGPT”

Les systèmes d’intelligence artificielle sont formés avec d’énormes ensembles de données peu transparents. Une étude de l’Université de l’Indiana a révélé à quel point il est facile d’extorquer des informations personnelles aux chatbots.

Jeremy White, journaliste du New York Times, a reçu un étrange courrier électronique. L’expéditeur, Rui Zhu, chercheur à l’Université de l’Indiana, lui a expliqué en quelques lignes qu’il avait obtenu son adresse grâce à ChatGPT. Son courrier électronique avait été publié dans une liste d’adresses professionnelles de plus de 30 employés du New York Times, mais s’ils l’avaient cherchée sur le web, ils ne l’auraient probablement pas trouvée, alors ils ont essayé de la demander à ChatGPT.

Le chatbot, lorsqu’il répond, ne cherche pas simplement la solution sur Internet, mais utilise ce qu’il a « appris ». Les logiciels sont formés avec de grandes quantités de texte, qui peuvent également inclure des informations personnelles extraites du web ou d’autres sources. Zhu et ses collègues ont découvert que la mémoire d’un chatbot, tout comme celle humaine, peut être stimulée. Les chercheurs de l’Université de l’Indiana ont en effet fourni à GPT-3.5 Turbo une liste de noms et d’adresses e-mail vérifiées des employés du New York Times, afin que le logiciel renvoie des résultats similaires à ceux des données d’entraînement. Cela a fonctionné, et le cas de White montre à quel point il est assez simple de récupérer des informations personnelles à partir des chatbots.

En réalité, les chatbots sont dotés de filtres qui devraient empêcher les utilisateurs de demander des informations personnelles via les messages. De plus, les logiciels ont appris à refuser les demandes inappropriées, et pourtant il est assez simple de contourner les chatbots. Par exemple, lors d’un test, nous avons réussi à transformer ChatGPT en un bot raciste. L’équipe de chercheurs a obtenu les informations en travaillant sur l’interface de programmation de l’application, l’API. Ils ont en effet découvert qu’ils pouvaient non seulement fournir plus d’informations au chatbot, mais aussi contourner certaines défenses intégrées, et ainsi obtenir des réponses que ChatGPT aurait dû refuser. Parmi celles-ci, le courrier électronique de White.

Les chatbots ne protègent pas la vie privée. La vulnérabilité est un problème, notamment parce qu’il n’est pas clair avec quoi les chatbots tels que ChatGPT ont été formés. OpenAI a souligné que ses Modèles Linguistiques de Grande Taille (LLM) ne copient ni n’archivent les informations dans une base de données : « Ils fonctionnent comme une personne qui lit d’abord un livre puis le range, nos modèles n’ont pas accès aux informations utilisées pour la formation une fois cette dernière terminée ». Pourtant, le processus n’est pas transparent et il est donc très difficile d’être certain que les données d’entraînement ne sont pas utilisées ultérieurement.

« Autant que je sache, aucun modèle linguistique de grande taille disponible sur le marché ne possède de fortes défenses pour protéger la vie privée », a expliqué à The New York Times Prateek Mittal, professeur au département de génie électrique et informatique de l’Université de Princeton. Selon Mittal, les entreprises ne sont pas en mesure de garantir la sécurité des informations absorbées par les chatbots, « et c’est un énorme risque ».

Opportunité pour les criminels informatiques

Il existe déjà un genre d’attaques informatiques qui cherche à extraire les données sur lesquelles les intelligences artificielles sont formées. Les criminels informatiques peuvent exploiter la vulnérabilité de ces systèmes pour collecter des données personnelles. Prenons par exemple une intelligence spécialisée dans le domaine médical, pour fonctionner elle a besoin d’énormes ensembles de données, de dossiers, d’analyses, d’anamnèses de vrais patients. Si il est si simple de tromper l’IA, les hackers pourraient accéder sans trop de problèmes à des informations extrêmement sensibles des personnes en violant leur vie privée.