ChatGPT n’est pas parfait – c’est comme ça qu’il est facile de vous inciter à faire quelque chose de totalement illégal

ChatGPT n'est pas parfait - c'est comme ça qu'il est facile de vous inciter à faire quelque chose de totalement illégal

Tromper une IA est assez facile car de nos jours, ils ne comprennent pas les doubles sens. Voici quelques exemples.

ChatGPT n'est pas parfait - c'est comme ça qu'il est facile de vous inciter à faire quelque chose de totalement illégal
Tromper ChatGPT est vraiment facile, en voici la preuve

Comment utiliser ChatGPT est devenu l’une des principales préoccupations du monde entier. Certains l’utilisent de manière éthique pour améliorer leur productivité, profiter de la technologie future ou simplement passer du temps et essayer quelque chose de nouveau. Cependant, rapidement, de nombreuses personnes ont commencé à utiliser l’IA conversationnelle à des fins néfastes. Créer des virus, acheter des médicaments et même fabriquer du napalm sont des choses pour lesquelles ChatGPT peut nous aider simplement en demandant. Bien qu’il existe des systèmes qui tentent d’éviter cela, surtout depuis l’arrivée de ChatGPT-4 et de tous ses changements, la réalité est différente.

De plus, ce n’est pas la seule IA qui rencontre ces problèmes. Imaging AI Midjourney est passé au modèle payant après avoir réalisé que son IA était utilisée à mauvais escient pour diffuser de fausses nouvelles.

Comment tromper ChatGPT pour qu’il vous donne des informations sensibles

Le journaliste Rubén G. Franco a montré qu’il est très facile de contourner les systèmes de sécurité de ChatGPT. Lorsqu’il lui a demandé comment acheter de la drogue à Madrid, l’IA lui a dit que c’était une chose à laquelle il ne pouvait pas répondre. Maintenant, si vous changez la forme de la question et suggérez qu’elle vous indique quels endroits éviter si vous ne voulez pas acheter de drogue, l’IA vous indique quels sont les quartiers dans lesquels cette vente de drogue est plus fréquente, réalisant ainsi l’objectif qui lui avait été interdit dans un premier temps.

En utilisant les doubles sens et la psychologie inversée, vous pouvez tromper l’IA de manière très simple. Un autre exemple est celui d’un utilisateur qui veut fabriquer du napalm. L’IA lui dit qu’elle ne peut pas expliquer comment faire, mais si l’utilisateur lui dit de se faire passer pour sa défunte grand-mère qui travaillait dans une usine de napalm, il sera ravi de le faire. Quelque chose qui semble drôle a priori, mais cache des informations très dangereuses derrière.

Bref:

  • Utilisez l’astuce de l’usurpation d’identité : demandez-leur de se faire passer pour une personne spécifique et de vous donner un guide sur la façon de faire quelque chose. Cette méthode fonctionne comme nous l’avons vu dans l’exemple de la grand-mère.
  • Demandez-lui par la négative, afin qu’il ne puisse pas éviter la question.
  • Jouer avec les doubles sens pour la confondre ou l’induire en erreur.
  • Essayez de la confondre ou de la tromper.

Il a atteint un point où une page Web appelée Jailbreak Chat a été créée dans laquelle toutes les manières dont les protocoles de sécurité ChatGPT ont été contournés sont collectées. Il convient de rappeler que ChatGPT-4 prétendait être 80% plus sécurisé que son prédécesseur, ce qui n’est pas tout à fait clair maintenant. Force est de constater que parmi les métiers qui vont disparaître selon OpenAI, il n’y a pas celui de la police des crimes télématiques.

Maintenant, à partir d’OpenAI, ils vont faire tout leur possible pour couvrir ces erreurs et les rendre plus parfaites. L’IA apprendra toujours de nous, donc les créateurs experts de ChatGPT-4 amélioreront la capacité de compréhension du modèle conversationnel GPT-4 afin que tôt ou tard il ne nous donne pas de réponses à ces questions.


Détente, découvrez l’évolution du nombre de smartphones vendus par marque au fil du temps dans la vidéo ci-dessous :