Guido Scorza (garant de la confidentialité) : « Nous devons arrêter ChatGPT, nous ne savons pas ce qu’il faisait avec nos données »

Guido Scorza (garant de la confidentialité) : "Nous devons arrêter ChatGPT, nous ne savons pas ce qu'il faisait avec nos données"

Guido Scorza est avocat et l’un des membres du Garant pour la protection des données personnelles. Il a expliqué à Netcost-security.fr pourquoi, à partir d’aujourd’hui, il ne sera plus possible d’accéder à ChatGPT depuis l’Italie.

Quelques heures après la décision de bloquer ChatGPT par le Privacy Guarantor, le logiciel d’intelligence artificielle qui a envoûté le monde par ses performances est toujours bloqué. « Il n’y a pas de date d’expiration pour mon opération en Italie ou dans tout autre pays », écrit-il. Pourtant, tôt ou tard, il devrait s’éteindre, même s’il ne sera pas clair quand il se rallumera.

Dans un communiqué de presse, le Garant de la protection des données personnelles a annoncé qu’OpenAi, la société qui développe le logiciel, devra fournir toute la documentation sur la collecte de données pour continuer à opérer en Italie. Mais ce n’est pas tout : il devra également préciser quels systèmes il souhaite adopter pour vérifier l’âge des utilisateurs qui accèdent à ses services.

Pour comprendre ce qui se passera à l’avenir de ce logiciel, Netcost-security.fr s’est entretenu avec Guido Scorza, avocat et membre du Garant pour la protection des données personnelles. Le bloc ChatGPT ne concerne pas seulement ceux qui utilisent ce service de temps en temps mais concerne également les entreprises qui, avec un abonnement à la version Plus, ont commencé à l’intégrer dans leurs processus de travail.

Quelles données ChatGPT collecte-t-il ?

Nous ne savons pas. La seule chose que nous pouvons dire, c’est que des données personnelles ont été collectées pour développer l’algorithme. Si tel n’était pas le cas, ChatGPT ne pourrait pas répondre à nos questions lorsqu’on lui demande le profil de personnes, plus ou moins célèbres.

Et que se passe-t-il avec les données utilisateur à la place ?

Les conversations sont stockées. D’après ce que nous avons vu, le logiciel conserve un historique de tous les échanges avec les utilisateurs. Il n’y a aucune information à ce sujet. Pourtant, ici, les utilisateurs peuvent également communiquer beaucoup plus d’informations qu’ils ne le font sur d’autres plates-formes. Par exemple, ils peuvent partager des données de santé, en demandant peut-être des informations sur leur état de santé. Pour comprendre tout cela, nous avons lancé une enquête.

Y a-t-il eu un épisode précis à partir duquel votre décision est partie ?

Non, pas d’éléments spécifiques. Certes, cependant, il y a eu des sonnettes d’alarme qui nous ont amenés à tourner notre regard dans cette direction, à commencer par la violation de données impliquant ChatGPT ces dernières semaines.

Elon Musk et d’autres entrepreneurs de la Silicon Valley ont signé un appel pour arrêter le développement de logiciels d’intelligence artificielle.

Cet appel a été signé par des personnes qui ne peuvent être accusées de luddisme. Ce sont des innovateurs et ils auraient probablement aussi pu bénéficier du développement de l’intelligence artificielle. Si ces types de signatures se déplacent pour un appel, c’est peut-être un peu inquiétant.

Le blocage concerne-t-il uniquement les services gratuits ou également payants ? Certaines entreprises ont commencé à intégrer ChatGPT dans leur travail.

Le blocage décidé par le Garant ne concerne pas un service spécifique, mais l’entreprise qui les fournit. Ainsi, toutes sortes de services développés par OpenAI sont impliqués et cela inclut à la fois les plans ChatGPT réguliers et les plans et API payants. Nous devons seulement comprendre si les entreprises qui utilisent ChatGPT ont des politiques de confidentialité spécifiques pour ces services.

Ces jours-ci, les images produites par Midjourney deviennent virales. Envisagez-vous également une mesure pour ce logiciel ?

Celle sur Midjourney n’est pas une réflexion déjà entamée, mais il faudra la faire. Dans ce cas, le thème est différent. D’énormes archives d’images sont collectées pour former les algorithmes, mais comment ces images sont-elles stockées ? Il est évident qu’il y a des visages de personnes qui n’ont pas été informées. Il existe également un risque très élevé de distorsion ou de manipulation de l’identité personnelle, comme lorsque le pape François est vêtu d’une couette qu’il n’a jamais eue.

Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :