OpenAI met ChatGPT-4 à l’épreuve : ils veulent savoir s’il peut concevoir des armes biologiques pour vérifier leur sécurité

Las tecnológicas aseguran que la IA no acabará con el empleo, pero ya están sustituyendo a sus empleados

Savoir où se situent les limites de l’IA est important pour OpenAI

OpenAI met ChatGPT-4 à l'épreuve : ils veulent savoir s'il peut concevoir des armes biologiques pour en vérifier la sécurité
L’entreprise tente de mettre en évidence d’éventuelles failles dans la conception de sécurité

À de nombreuses occasions, nous nous retrouvons confrontés à des titres assez alarmants sur l’IA. Non seulement en ce qui concerne les professions qui vont disparaître, mais aussi en raison des risques que l’IA puisse être utilisée par des personnes mal intentionnées pour causer des problèmes. En réalité, Bill Gates a prédit qu’elle pourrait devenir une arme de destruction massive et, bien qu’il soit l’un des principaux bénéficiaires de l’expansion de l’IA, il défendait qu’il était absolument nécessaire qu’elle soit soumise à une réglementation solide sur laquelle agir.

L’année dernière, OpenAI a mené une expérience très intéressante consistant à recruter une équipe de scientifiques et d’étudiants afin de voir jusqu’où ils pourraient aller dans la création d’armes biologiques en utilisant l’IA.

L’expérience d’OpenAI

Afin d’accroître encore davantage la sécurité de sa plateforme, OpenAI a créé une étude qui impliquait 100 participants répartis en deux groupes pour pouvoir effectuer des comparaisons : un groupe ayant uniquement accès à Internet et l’autre groupe ayant accès à la fois à Internet et à ChatGPT-4. Cette étude visait à évaluer si l’utilisation d’un outil avancé d’IA tel que ChatGPT-4 pouvait améliorer la capacité d’une personne à développer des armes chimiques ou biologiques.

Les participants à l’étude comprenaient des experts dans les domaines de la chimie et de la biologie, ainsi que des étudiants ayant suivi une année de cours dans ces domaines, ce qui garantissait la présence de personnes compétentes en la matière, mais aussi d’autres ayant des connaissances considérées comme encore basiques. Cela était essentiel pour déterminer s’il était possible de créer des armes avec des niveaux basiques de connaissances sur le sujet, ce qui permettait de mettre en lumière l’étude et de comprendre jusqu’à quel point elles pouvaient apprendre sur le sujet.

Les résultats de l’étude ont montré une amélioration marginale dans certaines phases du processus de création d’armes chimiques. Cependant, il est important de souligner que les chercheurs n’ont pas pu déterminer de manière concluante si ChatGPT-4 a joué un rôle significatif dans cette amélioration. Ainsi, la recherche s’est retrouvée dans un domaine assez ambigu et complexe où les données n’étaient pas totalement concluantes, mais qui permettaient néanmoins d’entrevoir le potentiel que ces outils pourraient avoir dans un avenir proche.

En résumé :

  • OpenAI a mené une étude pour tenter d’améliorer la sécurité de sa plateforme.
  • Dans l’étude, OpenAI a utilisé 100 participants, la moitié ayant accès à Internet et l’autre moitié ayant accès à Internet et à ChatGPT-4.
  • L’étude visait à mesurer la possibilité pour une personne de réussir à fabriquer des armes chimiques grâce à l’aide de l’IA.
  • Des experts en chimie et en biologie ainsi que des étudiants ayant suivi un cursus en biologie ont participé à la recherche.
  • Les résultats ont montré une légère amélioration dans le processus de création de ces armes à certaines phases du projet.
  • Cependant, il n’a pas été possible de conclure si ChatGPT-4 avait contribué à cela ou non.

L’étude visait à mesurer les risques potentiels que pourrait représenter une IA dans un processus aussi sensible et dangereux pour la société que celui-ci. Bien que les détails trouvés se soient avérés non concluants, il est vrai que, selon leur propre rapport, il était possible de percevoir la capacité de la plateforme à améliorer ou à affiner le processus lui-même. Cela ouvre la voie à des possibilités inquiétantes pour l’avenir.