Vue d’ensemble : l’un des bénéficiaires les plus incontestés du phénomène de l’IA générative a été le GPU, une puce qui s’est d’abord imposée comme accélérateur graphique pour les jeux. En l’occurrence, les GPU se sont révélés remarquablement aptes à faciliter et à améliorer le processus de formation de grands modèles de base et à exécuter des charges de travail d’inférence d’IA.
Jusqu’à présent, le grand gagnant du jeu GPU AI génératif a été NVIDIA, grâce à une combinaison de hardware puissant et une large base installée d’outils logiciels CUDA. Cependant, lors d’un événement à San Francisco cette semaine, AMD a présenté un nouveau hardware GPU et CPU ainsi que de nouveaux partenariats et mises à jour logiciels importants. Ensemble, AMD pense que ces développements lui permettront de s’assurer une plus grande part du marché des accélérateurs d’IA pour centres de données qui, selon ses prévisions, atteindra 150 milliards de dollars d’ici 2027.
AMD a présenté la nouvelle puce Instinct MI300X en tant qu’accélérateur IA génératif dédié. Il exploite la même conception de chiplet de base que l’Instinct MI300A précédemment annoncé (qu’AMD échantillonne actuellement), mais le MI300X remplace les 24 cœurs de processeur Zen 4 du MI300A par des cœurs GPU CDNA3 supplémentaires et une mémoire à bande passante élevée (HBM).
En effet, cette nouvelle puce – avec un total de 153 milliards de transistors – embarque 192 Go de HBM et offre 5,2 To/seconde de bande passante mémoire. Ces chiffres représentent une augmentation de 2,4 fois de la capacité de mémoire et une amélioration de 1,6 fois du débit par rapport à l’accélérateur H100 actuel de NVIDIA. Bien que ces chiffres puissent être accablants pour la plupart des applications, les grands modèles de langage (LLM) s’exécutent plus efficacement en mémoire, ce qui indique que cela devrait se traduire par de solides performances dans le monde réel lorsque la puce commencera à échantillonner au troisième trimestre de cette année.
Côté logiciel, AMD a fait plusieurs annonces importantes. Tout d’abord, la société a détaillé la dernière version de sa plate-forme ROCm pour le développement de logiciels d’IA, ROCm 5. Celle-ci comprend des bibliothèques de bas niveau, des compilateurs, des outils de développement et un environnement d’exécution qui permet aux charges de travail liées à l’IA de s’exécuter nativement sur la gamme d’accélérateurs GPU Instinct d’AMD. . Cela sert de base aux frameworks de développement d’IA tels que PyTorch, TensorFlow et ONNX. De plus, un nouveau partenariat avec la Fondation PyTorch a émergé lors de l’événement d’AMD. À partir de PyTorch 2.0, tous les modèles ou applications d’IA développés avec PyTorch fonctionneront en mode natif sur les accélérateurs AMD Instinct qui ont été mis à niveau pour prendre en charge ROCm 5.4.2.

Ce développement est important car de nombreux modèles d’IA sont construits avec PyTorch et, jusqu’à cette annonce, la plupart ne pouvaient fonctionner que sur les GPU de NVIDIA. Désormais, les développeurs et les principaux fournisseurs de cloud computing peuvent choisir d’utiliser directement les accélérateurs AMD Instinct ou de remplacer les accélérateurs NVIDIA par des accélérateurs AMD.
Une autre annonce logicielle majeure concernait Hugging Face, qui est rapidement devenu le site de référence pour les modèles d’IA open source. Dans le cadre de leur nouveau partenariat, Hugging Face collaborera avec AMD pour assurer la compatibilité des modèles open source existants et nouveaux publiés sur son site avec les accélérateurs Instinct. Ils prévoient également de travailler sur la compatibilité avec d’autres processeurs AMD, y compris les processeurs Epyc et Ryzen, les GPU Radeon, les DPU Alveo et les FPGA Versal (ou processeurs adaptatifs, comme AMD les appelle). Cela devrait aider à positionner AMD comme une alternative viable à NVIDIA dans plusieurs environnements de centres de données AI.
Sur le front du processeur du centre de données, AMD a annoncé ses nouvelles versions « Bergamo » et « Genoa X » de ses processeurs Epyc de quatrième génération, et a fait allusion à une autre version nommée « Sienna » qui sera annoncée plus tard cette année. Bergamo est optimisé pour les charges de travail de cloud computing, avec un nouveau cœur Zen4c plus petit et pouvant accueillir davantage de ces cœurs plus petits sur la puce (jusqu’à 128). L’architecture raffinée facilite les opérations telles que l’exécution simultanée de plusieurs conteneurs, ce qui conduit à des références impressionnantes dont des partenaires constructeurs tels qu’AWS, Azure et Meta ont tenu à discuter.
Le modèle Genoa X combine la technologie 3D V-Cache d’AMD, introduite pour la première fois avec leur série « Milan » de troisième génération, avec la conception du processeur Genoa de quatrième génération. Il est optimisé pour les charges de travail techniques et de calcul haute performance (HPC) qui nécessitent des mémoires cache sur puce plus nombreuses et plus rapides.
Ces développements de processeurs, ainsi que des déclinaisons de l’accélérateur Instinct MI300, reflètent la diversité croissante des conceptions d’AMD optimisées pour des applications spécifiques. Tous ces éléments peuvent tirer parti des technologies clés d’AMD, y compris leur conception basée sur des puces et la technologie d’interconnexion Infinity Fabric. C’est un excellent exemple de la façon dont les conceptions tournées vers l’avenir peuvent influencer de manière significative les stratégies globales.
AMD a également dévoilé la plate-forme Instinct lors de leur événement, qui, comme l’offre similaire de NVIDIA, intègre huit des accélérateurs basés sur GPU d’AMD (MI300X) dans une conception hardware unique et compacte.
Pour être clair, NVIDIA conserve toujours une avance significative dans la formation à l’IA générative et occupe une position forte dans l’inférence. Cependant, une fois que ces nouveaux accélérateurs et partenariats logiciels commenceront à influencer le marché, ils pourraient faire une différence notable pour AMD. Alors que de nombreuses entreprises apprécient ce que NVIDIA a réalisé pour l’IA générative, personne ne savoure un marché dominé par une seule entité. Par conséquent, plusieurs entreprises accueilleront probablement l’émergence d’AMD comme une alternative solide dans ce secteur.
Sur le front des processeurs de centre de données, AMD s’est déjà imposé comme une alternative solide à Intel. Il n’est pas difficile d’imaginer que l’entreprise développe un profil similaire dans les accélérateurs d’IA pour centres de données. Bien que le voyage ne soit pas facile, il rendra les choses plus excitantes.
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :
