OpenAI craint sa propre création : création d’une équipe de « risques catastrophiques » pour freiner l’IA

OpenAI teme su propia creación: crean un equipo de "riesgos catastróficos" para frenar a la IA

Le risque d’utiliser l’IA à des fins malveillantes est assez élevé.

OpenAI teme su propia creación: crean un equipo de "riesgos catastróficos" para frenar a la IA
A OpenAI le preocupa su propia tecnología

Soyons honnêtes, il y a de très bonnes nouvelles concernant l’IA. Souvent, elle est associée à de nouvelles techniques médicales qui aspirent même à nous rendre immortels. Cependant, il est vrai que beaucoup d’autres nouvelles sont assez catastrophiques. Sam Altman a un bouton de panique nucléaire et de plus en plus de personnes se demandent si l’IA va causer une vague de professions qui disparaîtront à cause de ChatGPT. C’est pourquoi OpenAI a décidé de lancer une équipe de « risques catastrophiques » pour freiner l’intelligence artificielle.

Le fait qu’OpenAI craigne sa propre création souligne les questions préoccupantes qui affectent ce type de technologies. Tout comme elles servent à faire le bien, elles peuvent aussi facilement faire le mal d’une manière très dangereuse.

La nouvelle équipe de « risques catastrophiques »

Cette fois-ci, il semble qu’OpenAI ne soit pas vraiment préoccupé par l’intelligence artificielle en soi, mais plutôt par le fait qu’elle puisse tomber entre de mauvaises mains. C’est pourquoi ils ont créé une équipe pour atténuer les « risques catastrophiques » associés aux mauvais usages de l’intelligence artificielle, comme ils le mentionnent sur le blog d’OpenAI.

Leur objectif est d’évaluer les risques potentiels qui peuvent survenir avec l’IA et de les résoudre avant qu’ils ne deviennent un véritable problème, comme ils l’expliquent eux-mêmes :

Nous pensons que la frontière des modèles d’IA peut dépasser les capacités actuellement présentes dans les modèles les plus avancés et ils ont le potentiel de bénéficier à toute l’humanité. Mais cela comporte également des risques graves qui augmentent.

C’est Aleksander Madry, actuel directeur du MIT, qui sera en charge de cela et qui abandonnera son poste pour diriger cette équipe. Il s’agit d’une personne ayant une expérience dans les modèles de langage de l’IA, ce qui en réalité la personne idéale pour le poste. Ce n’est pas la première fois que Sam Altman s’engage à protéger l’humanité des risques présumés de la technologie qu’il a créée. Au contraire, Altman considère depuis des mois que la sécurité est l’une des principales priorités du moment, car cela pourrait causer beaucoup de tort à l’humanité dans son ensemble.

Le fait que l’équipe ait été formée pour arrêter les menaces biologiques, chimiques et radioactives montre clairement que nous sommes confrontés à une véritable menace de risque pour les individus, car si l’IA commence à développer quelque chose de lié à cela et tombe entre de mauvaises mains, cela pourrait être catastrophique pour tous les habitants de notre planète.

Il est intéressant de noter que ce genre de manoeuvres peut également être considéré comme de la propagande. En créant ce genre de départements, ils sont capables de tranquilliser les grands organismes de régulation. Mais ils envoient également un message important : l’IA est quelque chose de si grand et de si révolutionnaire que sa création pourrait avoir des conséquences imprévues.

En résumé:

  • Une nouvelle équipe a été créée chez OpenAI pour arrêter tous les risques potentiels liés à l’IA.
  • En réalité, ce qui préoccupe le plus, ce n’est pas ce que l’IA elle-même peut faire, mais plutôt ce qui peut être fait avec cette IA entre de mauvaises mains.
  • C’est pourquoi cette équipe a pour mission de prévoir et de commencer à travailler pour arrêter ces problèmes avant qu’ils ne se produisent.
  • Cette mission a été confiée à un expert du MIT.