Nvidia dévoile l’architecture GPU Hopper de nouvelle génération et des applications plus accélérées au GTC 2022

Nvidia Dévoile L'architecture Gpu Hopper De Nouvelle Génération Et Des

Pourquoi c’est important : Observer l’évolution de l’industrie informatique au cours des dernières années a été un exercice fascinant. Après des décennies à se concentrer presque exclusivement sur un type de puce – le CPU – et à mesurer les améliorations grâce à des améliorations de son architecture interne, il y a eu un changement radical vers plusieurs types de puces, en particulier les GPU (unités de traitement graphique), les améliorations de performances étant rendu possible par une connectivité haut débit entre les composants.

Cela n’a jamais été aussi clair que lors de la dernière conférence sur la technologie GPU (GTC) de Nvidia. Lors du discours d’ouverture de l’événement, le PDG de la société, Jensen Huang, a dévoilé une foule de nouvelles avancées, notamment la dernière architecture GPU (nommée Hopper d’après la pionnière de l’informatique Grace Hopper) et de nombreuses formes de connectivité puce à puce et appareil à appareil à haut débit. options.

Collectivement, la société a utilisé ces avancées technologiques clés pour tout introduire, de l’énorme supercalculateur Eos à l’accélérateur convergé H100 CNX, une carte PCIe conçue pour les serveurs existants, avec de nombreuses autres options entre les deux.

Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

L’objectif de Nvidia est motivé par la poursuite incessante de l’industrie des progrès en matière d’intelligence artificielle et d’apprentissage automatique. En fait, la plupart des nombreuses annonces de la société sur les puces, le matériel et les logiciels de l’émission ont un lien avec ces tendances critiques, qu’il s’agisse d’applications de supercalcul, de systèmes de conduite autonome ou d’applications de robotique embarquée.

Nvidia a également fortement confirmé qu’elle est plus qu’une entreprise de puces, offrant des mises à jour logicielles pour ses outils et plates-formes existants, en particulier la suite de collaboration et de simulation Omniverse 3D. Pour encourager une utilisation accrue de l’outil, Nvidia a annoncé Omniverse Cloud, qui permet à quiconque d’essayer Omniverse avec rien de plus qu’un navigateur.

1647967213 843 Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

Pour les hyperscalers et les grandes entreprises qui cherchent à déployer des applications d’IA avancées, la société a également lancé des versions nouvelles ou mises à jour de plusieurs services d’application natifs du cloud, y compris Merlin 1.0 pour les systèmes de recommandation et la version 2.0 de ses deux systèmes de reconnaissance vocale Riva (Riva, cela vous semble familier ? ) et un service de synthèse vocale, ainsi que AI Enterprise, pour une variété d’applications de science des données et d’analyse

La nouveauté d’AI Enterprise 2.0 est la prise en charge de la virtualisation et la possibilité d’utiliser des conteneurs sur plusieurs plates-formes, notamment VMware et RedHat. Prises dans leur ensemble, ces offres reflètent l’évolution croissante de l’entreprise en tant que fournisseur de logiciels. Il passe d’une approche axée sur les outils à une approche qui offre des applications de style SaaS qui peuvent être déployées sur tous les principaux clouds publics, ainsi que via du matériel de serveur sur site de Dell Technologies, HP Enterprise et Lenovo.

Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

N’oubliant jamais ses racines, cependant, la star du dernier GTC de Nvidia était la nouvelle architecture GPU Hopper et le GPU du centre de données H100.

Bénéficiant d’un énorme 80 milliards de transistors, le 4 nm H100 prend en charge plusieurs avancées architecturales importantes. Tout d’abord, pour accélérer les performances des nouveaux modèles d’IA basés sur Transformer (tels que celui pilotant le moteur de langage naturel GPT-3), le H100 comprend un moteur Transformer qui, selon la société, offre une amélioration de 6 fois par rapport à l’architecture Ampere précédente.

Il comprend également un nouvel ensemble d’instructions appelé DPX qui sont conçues pour accélérer la programmation dynamique, une technique exploitée par des applications telles que la génomique et la protéomique, qui fonctionnaient auparavant sur des processeurs ou des FPGA.

Pour les applications axées sur la confidentialité, le H100 est également le premier accélérateur à prendre en charge l’informatique confidentielle (les implémentations précédentes ne fonctionnaient qu’avec des processeurs), permettant aux modèles et aux données d’être chiffrés et protégés via un environnement d’exécution sécurisé virtualisé.

1647967215 133 Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

L’architecture permet un apprentissage fédéré en mode informatique confidentiel, ce qui signifie que plusieurs entreprises disposant d’ensembles de données privés peuvent toutes former le même modèle en le faisant circuler entre différents environnements sécurisés. De plus, grâce à une implémentation de deuxième génération de GPU multi-instance, ou MIG, un seul GPU physique peut être divisé en sept charges de travail isolées distinctes, améliorant ainsi l’efficacité de la puce dans des environnements partagés.

Hopper prend également en charge la version de quatrième génération de NVLink de Nvidia, une avancée majeure qui offre une énorme augmentation de la bande passante par 9 par rapport aux technologies précédentes, prend en charge les connexions jusqu’à 256 GPU et permet l’utilisation de NVLink Switch. Ce dernier offre la possibilité de maintenir des connexions à haut débit non seulement au sein d’un seul système, mais également vers des systèmes externes. Ceci, à son tour, a permis une nouvelle gamme de DGX Pods et DGX SuperPods, le matériel de superordinateur de marque Nvidia, ainsi que le superordinateur Eos susmentionné.

1647967216 324 Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

En parlant de NVLink et de connectivité physique, la société a également annoncé la prise en charge d’une nouvelle technologie puce à puce appelée Nvidia NVLink-C2C, qui est conçue pour les connexions puce à puce et die à die avec des vitesses allant jusqu’à 900 Gbps entre Composants Nvidia.

La société ouvre la norme NVLink, auparavant propriétaire, pour travailler avec d’autres fournisseurs de puces, et a notamment annoncé qu’elle prendrait également en charge la nouvelle norme UCIe (voir « L’avenir des semi-conducteurs est UCIe » pour en savoir plus).

Cela donne à l’entreprise plus de flexibilité quant à la manière dont elle peut potentiellement travailler avec d’autres pour créer des pièces hétérogènes, comme d’autres dans l’industrie des semi-conducteurs ont commencé à le faire également.

1647967217 281 Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

Nvidia a choisi de tirer parti de son propre NVLink-C2C pour une nouvelle Grace Superchip, qui combine deux des processeurs basés sur Arm de la société, et a révélé que la Grace Hopper Superchip présentée en avant-première l’année dernière, utilise la même technologie d’interconnexion pour fournir une connexion à haut débit entre son unique processeur Grace et son GPU Hopper.

Les deux « superpuces » sont destinées aux applications de centre de données, mais leurs architectures et leurs technologies sous-jacentes donnent une bonne idée de la direction que nous pouvons nous attendre à voir prendre pour PC et autres applications grand public.

1647967218 367 Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

La norme NVLink-C2C, qui prend en charge les normes de connectivité de l’industrie telles que le protocole AMBA CHI d’Arm et CXL, peut également être utilisée pour interconnecter les DPU (unités de traitement de données) afin d’accélérer les transferts de données critiques au sein et entre les systèmes.

1647967219 87 Nvidia devoile larchitecture GPU Hopper de nouvelle generation et des

En plus de toutes ces annonces axées sur les centres de données, Nvidia a lancé des mises à jour et davantage de clients réels pour sa plateforme Drive Orin pour la conduite assistée et autonome, ainsi que ses plateformes Jetson et Isaac Orin pour la robotique.

Tout compte fait, ce fut un lancement impressionnant de nombreuses technologies, puces, systèmes et plates-formes. Ce qui était clair, c’est que l’avenir des applications d’IA exigeantes, ainsi que d’autres défis informatiques difficiles, nécessitera plusieurs éléments différents travaillant de concert pour accomplir une tâche donnée.

En conséquence, l’augmentation de la diversité des types de puces et des mécanismes leur permettant de communiquer entre elles sera aussi importante, sinon plus importante, que les progrès au sein des catégories individuelles. Pour le dire plus succinctement, nous nous dirigeons clairement vers un monde connecté et multi-puces.

Bob O’Donnell est le fondateur et analyste en chef de TECHnalysis Research, LLC, une société de conseil en technologie qui fournit des services de conseil stratégique et d’étude de marché à l’industrie technologique et à la communauté financière professionnelle. Vous pouvez le suivre sur Twitter @bobodtech.