Microsoft et OpenAI sont en train de créer une IA super secrète dans le cloud et c’est un danger selon les chercheurs

Microsoft y OpenAI están creando una IA supersecreta en la nube y es un peligro según los investigadores

Il s’agit d’un modèle fermé et personne ne sait ce qui se cache derrière.

Microsoft et OpenAI créent une IA super secrète dans le cloud, ce qui est dangereux selon les chercheurs
L’avenir de l’IA devrait passer par des modèles ouverts

Il existe de nombreux doutes sur ce que Microsoft et OpenAI font avec leur nouvelle IA dans le cloud. En réalité, cela soulève tellement de questions que de nombreux experts se préoccupent des grands dangers que ce comportement pourrait entraîner. Un certain nombre de critiques estiment que ces deux entreprises n’agissent pas correctement en cachant au monde les cartes qu’elles utilisent lors de la programmation et surtout de l’apprentissage de ces intelligences artificielles.

En particulier, si l’on considère que le principal concurrent de ces IA est StableLM, entièrement open source, qui permet de savoir à tout moment quel type de données est utilisé pour apprendre à l’IA à se comporter comme elle le fait. Actuellement, ce type d’intelligences artificielles est également capable de générer des audios par IA, ce qui est profondément intéressant.

Le grand danger de l’IA

Il est très intéressant de souligner l’importance de cela pour l’industrie de l’intelligence artificielle. C’est un danger potentiel et soulève des questions sur l’éthique de la construction de l’IA, car personne en dehors de OpenAI ou de Microsoft ne sait ce qu’ils créent dans le cloud, ce qui génère des doutes et des problèmes à parts égales. Quelque chose que, selon ZdNet, les experts des universités d’Oxford et de Leeds ont souligné. Le risque ne peut pas être ignoré, car en l’absence de connaissance sur la manière dont les informations ont été calibrées, il y a de nombreux doutes sur comment cela peut fonctionner et quels sont les objectifs escomptés.

Les modèles de langage totalement fermés sont considérés comme l’un des principaux dangers des IA. Les créateurs de LLM qui défendent les modèles ouverts et accessibles à tous luttent avec véhémence pour que la plupart des modèles empruntent cette voie, pour une raison très simple : personne ne sait réellement ce qui se cache derrière une IA fermée, ni comment ils parviennent à enseigner à l’IA, ni quels sont leurs paramètres, ce qui rend cette opacité très peu fiable. Selon Emad Mostaque, fondateur de Stability AI :

Il est nécessaire de tout savoir sur ce qui se trouve à l’intérieur, ces modèles sont très puissants.

Mostaque a lancé un énorme pari pour défendre les IA en open source par rapport à celles d’autres entreprises, comme c’est le cas de Open AI et d’autres sociétés. Cependant, d’autre part, elles commencent à devenir la norme dans l’industrie, même si les modèles open source tentent de se frayer un chemin avec un investissement beaucoup plus modeste.

Détente, découvrez l’évolution du nombre de smartphones vendus par marque au fil du temps dans la vidéo ci-dessous :

YouTube video