Hewlett Packard Enterprise fait fusionner le supercalculateur et l’IA générative

Hewlett Packard Enterprise melds supercomputing and generative AI

Il n’est guère surprenant que l’une des plus grandes annonces de l’événement Discover de HPE ait trait à l’IA générative. Ce qui peut prendre les personnes au dépourvu, cependant, c’est la manière dont l’entreprise entre sur le marché de l’IA générative.

HPE a annoncé une nouvelle offre as-a-service appelée HPE GreenLake pour les grands modèles de langage (LLM). La dernière offre HPE GreenLake, qui devrait être disponible plus tard cette année aux États-Unis et au début de l’année prochaine en Europe, est conçue pour permettre aux clients d’exploiter un modèle LLM multilingue appelé Luminous, développé par la société allemande Aleph Alpha.

HPE a souligné que l’objectif principal de ce service est de permettre aux entreprises d’utiliser leurs propres données pour entraîner le modèle d’IA génératif polyvalent et le personnaliser en fonction de leurs besoins spécifiques.

Ce qui rend la nouvelle particulièrement intrigante, c’est la façon dont l’entreprise commercialise le service et les technologies qui le sous-tendent. HPE le décrit comme un cloud public spécialement conçu pour permettre aux entreprises d’y accéder en fonction de leurs besoins, avec les ressources précises dont elles ont besoin. En d’autres termes, il s’agit d’un service de cloud public classique – pas nécessairement ce que tu t’attendrais à ce que HPE propose dans un domaine en plein essor comme l’IA générative.

Ce qui est encore plus surprenant, c’est que le service est alimenté par les actifs de supercalculateurs de HPE. Essentiellement, HPE a développé une solution de supercalculateur en tant que service – un exploit intéressant en soi – et l’a ensuite dotée d’une application spécifique. Il est important de noter que HPE a souligné que l’IA générative n’est que la première des nombreuses applications qui seront disponibles grâce à sa nouvelle architecture. Les applications futures engloberont des domaines tels que la modélisation climatique, les soins de santé et les sciences de la vie, les services financiers, la fabrication et les transports.

Compte tenu de l’héritage de HPE en matière de supercalculateurs – rappelons qu’elle a acheté les supercalculateurs Cray en 2019 – la démarche est logique, surtout avec les efforts encore plus longs de l’entreprise pour créer des offres de calcul as-a-service HPE GreenLake (celles qui ont commencé en 2018). Néanmoins, il est toujours intéressant de réfléchir aux implications de ce déménagement et aux avantages potentiels qu’il offre par rapport aux nombreuses autres offres de services d’IA générative concurrentes.

Hewlett Packard Enterprise fait fusionner le supercalculateur et lIA generative

HPE a exposé un certain nombre de raisons pour lesquelles elle a choisi d’entrer sur le marché de l’IA générative de cette manière. Tout d’abord, d’un point de vue hardware, l’entreprise estime que l’architecture unique des supercalculateurs Cray ainsi que la pile logicielle HPE AI sur laquelle le service fonctionnera lui donneront un avantage en matière de performance des modèles et de fiabilité de l’entraînement.

La société a expliqué comment les vitesses d’interconnexion plus rapides que l’on trouve dans les architectures de supercalculateurs permettront aux GPU d’être alimentés en données à un rythme jusqu’à 16 fois plus rapide que les architectures de serveurs traditionnelles. Cela devrait permettre aux GPU de fonctionner à un rythme plus régulier, ce qui devrait se traduire par de meilleures performances et un meilleur communiqué prix/performances.

Par ailleurs, la société a déclaré avoir constaté que pour les entreprises qui construisent des modèles GenAI à grande échelle, les taux de réussite de l’exécution de ces modèles pourraient être aussi bas que 15 % sur les architectures de serveurs traditionnelles contre plus près de 100 % sur les supercalculateurs. Il faudra des analyses comparatives dans le monde réel pour voir si ces avantages théoriques se transforment en avantages réels, mais il sera certainement intéressant de les observer.

Une autre stratégie intéressante employée par l’entreprise consiste à attribuer à chaque charge de travail d’IA sa propre instance de calcul. Contrairement à la plupart des charges de travail traditionnelles du cloud public, où plusieurs applications s’exécutent sur un seul nœud, HPE affirme que chaque charge de travail utilisant le service aura son infrastructure de calcul dédiée. Cela s’explique en partie par la nature des architectures de supercalculateurs, mais cela offre également un avantage en termes de confidentialité que certains clients apprécieront sans aucun doute.

La décision d’intégrer le modèle Luminous d’Aleph Alpha à son service est intéressante, étant donné que l’entreprise basée en Allemagne a une reconnaissance minimale, en particulier sur le marché américain. Certaines entreprises peuvent appréhender sa taille relativement petite et sa nouveauté sur le marché. Cependant, grâce à la présence significative de HPE en Europe et au fait que le modèle Luminous prend en charge nativement cinq langues dès le départ, elle est bien équipée pour servir les clients européens. De plus, le PDG d’Aleph Alpha a déclaré que l’entreprise avait une nouvelle façon d’aborder l’explicabilité des résultats du modèle. Cette affirmation doit faire l’objet de tests plus poussés dans le monde réel pour être validée, mais elle ajoute une autre considération intrigante.

D’un point de vue logiciel, HPE prévoit d’utiliser certains de ses logiciels spécifiques au supercalculateur pour faciliter le processus. Plus précisément, l’environnement de développement de l’apprentissage automatique de l’entreprise est conçu pour simplifier la création de modèles, tandis que le logiciel de gestion des données de l’apprentissage automatique de HPE vise à rationaliser le processus de préparation des données nécessaires à l’entraînement des modèles d’IA. Ces outils, qui fonctionnent en tandem avec Luminous, offrent aux développeurs d’entreprise les capacités dont ils ont besoin pour personnaliser le modèle à usage général afin de répondre à leurs exigences uniques.

Le dernier élément technologique notable est la décision de HPE d’exploiter ce service dans des installations de colocation qui utilisent près de 100 % d’énergie renouvelable. Compte tenu de la grande quantité d’énergie souvent nécessaire à l’infrastructure informatique à forte intensité de GPU pour faire fonctionner les modèles d’IA générative, il s’agit d’une initiative digne d’intérêt et précieuse. Le premier emplacement se trouve au Québec, au Canada, et d’autres devraient suivre.

Alors que le marché de l’IA générative devient chaque jour plus encombré et bruyant, se démarquer de la concurrence devient plus difficile. À la lumière de ces obstacles, HPE devra promouvoir solidement son offre et les récits qui l’entourent pour éviter de s’effacer. L’angle du supercalculateur présente certainement un aspect unique et intéressant, mais son influence finale dépendra fortement des avantages réels en termes de prix et de performances. Si ces capacités tiennent leurs promesses et si l’entreprise peut efficacement adapter son offre pour répondre à la demande potentielle, il pourrait en effet s’agir d’une opportunité passionnante pour HPE à l’avenir.

Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :

YouTube video