Nvidia poursuit une architecture de modules multi-puces pour répondre aux besoins de données en constante évolution

Nvidia Poursuit Une Architecture De Modules Multi Puces Pour Répondre Aux

Pourquoi c’est important : les ressources d’apprentissage en profondeur actuellement disponibles prennent du retard en raison de la complexité croissante, des besoins divergents en ressources et des limitations imposées par les architectures matérielles existantes. Plusieurs chercheurs de Nvidia ont récemment publié un article technique décrivant la poursuite par la société de modules multi-puces (MCM) pour répondre à ces exigences changeantes. L’article présente la position de l’équipe sur les avantages d’un GPU Composable-On-Package (COPA) pour mieux s’adapter à divers types de charges de travail d’apprentissage en profondeur.

Les unités de traitement graphique (GPU) sont devenues l’une des principales ressources prenant en charge DL en raison de leurs capacités et optimisations inhérentes. Le COPA-GPU est basé sur la prise de conscience que les conceptions de GPU convergentes traditionnelles utilisant du matériel spécifique à un domaine deviennent rapidement une solution moins que pratique. Ces solutions GPU convergées reposent sur une architecture composée de la matrice traditionnelle ainsi que sur l’incorporation de matériel spécialisé tel que la mémoire à bande passante élevée (HBM), les cœurs Tensor (Nvidia)/Matrix Cores (AMD), les cœurs de traçage de rayons (RT), etc. Cette conception convergée se traduit par un matériel qui peut être bien adapté pour certaines tâches mais inefficace lors de l’exécution d’autres.

Contrairement aux conceptions GPU monolithiques actuelles, qui combinent tous les composants d’exécution spécifiques et la mise en cache dans un seul package, l’architecture COPA-GPU offre la possibilité de mélanger et de faire correspondre plusieurs blocs matériels pour mieux s’adapter aux charges de travail dynamiques présentées dans le calcul haute performance (HPC) d’aujourd’hui. et les environnements d’apprentissage en profondeur (DL). Cette capacité à incorporer plus de capacités et à s’adapter à plusieurs types de charges de travail peut entraîner des niveaux plus élevés de réutilisation des GPU et, plus important encore, une plus grande capacité pour les data scientists à repousser les limites de ce qui est possible en utilisant leurs ressources existantes.

Nvidia poursuit une architecture de modules multi puces pour repondre

Bien que souvent regroupés, les concepts d’intelligence artificielle (IA), d’apprentissage automatique (ML) et de DL présentent des différences distinctes. Le DL, qui est un sous-ensemble de l’IA et du ML, tente d’imiter la façon dont notre cerveau humain traite les informations en utilisant des filtres pour prédire et classer les informations. DL est la force motrice derrière de nombreuses capacités d’IA automatisées qui peuvent tout faire, de conduire nos voitures à la surveillance des systèmes financiers pour détecter les activités frauduleuses.

Alors qu’AMD et d’autres ont présenté la technologie des puces et des piles de puces comme la prochaine étape de leur évolution CPU et GPU au cours des dernières années, le concept de MCM est loin d’être nouveau. Les MCM peuvent être datés aussi loin que les MCM à mémoire à bulles d’IBM et les ordinateurs centraux 3081 dans les années 1970 et 1980.