L’Intelligence Artificielle détient vos données personnelles: c’est un grand problème de sécurité

La Inteligencia Artificial tiene tus datos personales: es un gran problema de seguridad

Une étude de l’Université de Zurich garantit cette question et met en évidence quelque chose de très important.

L'Intelligence Artificielle a vos données personnelles : un gros problème de sécurité
L’IA a complètement envahi nos vies

Les Intelligences Artificielles sont apparues pour rendre notre vie plus facile. Il est assez simple de les utiliser et elles nous donnent des réponses très humaines pour les doutes ou les besoins qui surgissent au quotidien. La plus célèbre est GPT-4, mais elle est suivie de près par Bing Chat (qui est en réalité aussi GPT-4) et Google Bard. De plus, tout le monde attend toujours l’arrivée de l’IA de Meta, qui se présente comme la plus avancée de toutes.

Bien qu’il y ait des intelligences artificielles que peu de personnes connaissent, il est vrai que pratiquement toutes peuvent être utilisées à des fins malveillantes. Au début de l’ère de l’IA, elle était utilisée pour créer des exploits et des failles de sécurité jusqu’à ce que les entreprises créatrices mettent un frein à ces problèmes. Maintenant, une étude de l’Université de Zurich semble montrer qu’il existe d’autres moyens d’utiliser l’IA pour nuire aux personnes. Plus précisément, en extrayant subtilement et raffinément nos données.

L’IA pourrait compromettre notre sécurité

L’équipe de Martin Vechev, de l’Université de Zurich, a découvert quelque chose de très intéressant dans ses recherches : les grands modèles de langage peuvent déduire un immense nombre d’informations personnelles pendant que nous leur parlons. Cela inclut des paramètres très importants, tels que la race, l’emplacement et même notre travail.

La thèse de Vechev et de son équipe est que ces informations peuvent être utilisées par des escrocs pour collecter des informations sensibles sur des utilisateurs qui ne se doutent même pas du danger. Ainsi, il a également averti que nous pourrions être à l’aube d’une nouvelle ère de publicité, dans laquelle les entreprises utiliseraient nos informations via les chatbots pour construire des profils beaucoup plus détaillés et affinés des utilisateurs. En ses propres termes :

« Ils pourraient déjà le faire. »

L’expert, qui semble ne pas savoir comment résoudre ce problème, a travaillé avec d’autres, comme Florian Tramèr, qui estime qu’il est important de se demander dans quelle mesure nos informations pourraient être révélées sans même que nous nous en rendions compte.

Parallèlement, le porte-parole d’OpenAI, l’entreprise derrière ChatGPT, a assuré qu’ils suppriment ces informations de leur base de données et essaient de former leur IA à ignorer toute information sensible qui pourrait être dangereuse.

Il est vrai que des experts ont testé différents Chatbots avec le même succès dans leur recherche, il ne s’agit donc pas spécifiquement de quelque chose qui affecte uniquement celui d’OpenAI.

Cela ne signifie pas que les chatbots sont dangereux, mais il est vrai qu’ils sont plus intelligents que ce que nous pourrions penser, ce qui soulève une question curieuse : dans quelle mesure pouvons-nous maintenir une relation de coopération dans laquelle nous expliquons absolument tout de notre vie à ces machines.

En résumé, voici ce que l’on peut déduire de cette question :

  • Un groupe de recherche de l’Université de Zurich affirme que les chatbots conservent des données très sensibles qu’ils déduisent de nos conversations.
  • Ces informations pourraient servir aux escrocs pour s’emparer de nos données.
  • Ou pour que les entreprises fassent de la publicité très ciblée avec nos profils.
  • Cela affecterait tous les chatbots utilisés.