OpenAI résout une faille dans ChatGPT pouvant filtrer le contenu de vos chats

OpenAI soluciona un fallo en ChatGPT que podría filtrar el contenido de tus chats

La vulnérabilité, communiquée par un expert en sécurité informatique à OpenAI, peut conduire à la fuite de nombreuses données sensibles de nos chats vers des URL externes contrôlées par des utilisateurs malveillants.

OpenAI soluciona un fallo en ChatGPT que podría filtrar el contenido de tus chats
OpenAI a corrigé (en partie pour le moment) une vulnérabilité qui pourrait permettre le « phishing » via ChatGPT.

OpenAI continue de travailler sur ChatGPT pour continuer à nous surprendre avec d’innombrables améliorations de la chatbot de conversation avec IA la plus populaire au monde, qui peut déjà être utilisée gratuitement depuis un ordinateur ou un téléphone portable et même maintenant en profitant des guides du développeur lui-même, qui souhaite nous transformer en experts pour améliorer nos « prompts » lors de nos conversations avec l’IA.

Quoi qu’il en soit, comme plusieurs experts en cybersécurité le publient ces dernières heures, il existe certains risques lors de nos conversations avec ChatGPT, et il est évident que ce chatbot ne soit pas exempt de vulnérabilités comme n’importe quel autre outil en ligne.

En réalité, il est déjà connu que un correctif important a été mis en place qui semble encore imparfait et libéré de manière précoce jusqu’à présent, afin de corriger au plus vite un problème de fuite de données dans ChatGPT qui pourrait exposer les détails d’une conversation vers une URL externe.

Tout ceci provient d’un travail réalisé par le chercheur Johann Rehberger, qui a découvert en avril 2023 une technique pour extraire des données de ChatGPT qui pourrait être exploitée par des utilisateurs malveillants pour le phishing ou pour voler des informations sensibles à toute personne qui converse avec ChatGPT.

Comme il est évident, ce chercheur a averti OpenAI dès qu’il a découvert la vulnérabilité, bien que la société américaine ait clos l’affaire le 15 novembre dernier en laissant plusieurs questions de suivi sans réponse et en attente de résolution, ce qui a conduit le bon Rehberger à publier toutes les informations et à partager la faille pour en prendre conscience et éviter des problèmes à certaines personnes.

En réalité, il a également publié une vidéo montrant le fonctionnement d’un GPT personnalisé capable d’exploiter la vulnérabilité et de filtrer les données d’une conversation vers une URL externe exploitée par lui-même :

Voici comment fonctionne la vulnérabilité et voici comment OpenAI l’a corrigée (en partie)

Cette faille de sécurité exploite la représentation des images et leurs métadonnées, ainsi que l’injection de « prompts », ce qui exige que la victime envoie un message malveillant que l’attaquant aurait fourni au préalable.

Bien sûr, un GPT malveillant comme celui de la vidéo précédente peut également être utilisé, cachant le vol de données et empêchant les utilisateurs de se rendre compte que les détails de leur conversation sont dévoilés vers des tiers, y compris les horodatages, l’ID utilisateur, l’ID de session, l’adresse IP, les chaînes d’agents, etc…

La réponse d’OpenAI n’a pas tardé, et l’entreprise basée à San Francisco a mis en place des vérifications côté client appelant une API de validation pour éviter le rendu d’images provenant d’URL non sécurisées, mais cela ne fonctionne que partiellement car ChatGPT continue d’effectuer des requêtes vers des domaines arbitraires.

Lorsque le serveur renvoie une balise d’image avec un hyperlien, il y a maintenant un appel côté client à une API de validation avant de décider si l’image doit être affichée ou non. Comme ChatGPT n’est pas open source et que la solution n’a pas été mise en place selon une politique de sécurité inspectable par les utilisateurs ou les chercheurs, les détails exacts de la validation ne sont pas connus.

OpenAI soluciona un fallo en ChatGPT que podría filtrar el contenido de tus chats

La vérification de sécurité de l’URL mise en place par OpenAI.

On sait que la solution a été implémentée pour le moment dans les versions web de ChatGPT, mais pas dans l’application iOS ni dans l’application Android, cette dernière ayant plus de 10 millions de téléchargements sur Google Play Store. Ainsi, c’est une correction imparfaite pour le moment, d’autant plus que ChatGPT continue d’ouvrir aléatoirement des communications vers certains domaines.

Il n’y a pas beaucoup plus d’informations, encore moins officielles, mais nous comprenons qu’un correctif complet sera bientôt disponible qui résoudra ce problème… Pour le moment, soyez prudents et conscients de ce que cela implique d’utiliser n’importe quel outil en ligne !