Au-delà du jeu, NVIDIA répond aux besoins des clients entreprises avec de nouvelles offres d’IA générative

Beyond gaming, Nvidia caters to enterprise clients with new generative AI offerings

Il ne fait aucun doute que les entreprises sont désireuses d’intégrer davantage de capacités d’IA générative dans leurs organisations. Cependant, il est de plus en plus évident que la capacité de le faire est plus difficile que beaucoup ne l’avaient initialement réalisé.

Une récente étude de recherche sur l’utilisation de l’IA générative (GenAI) dans les entreprises américaines réalisée par TECHnalysis Research a souligné cette dichotomie de manière frappante. Les fournisseurs qui développent des solutions conçues pour aider les entreprises à tirer parti des avantages impressionnants que GenAI peut offrir reconnaissent ces défis.

Un exemple récent est NVIDIA, qui a fait plusieurs annonces axées sur l’IA lors du salon commercial SIGGRAPH Expo, notamment un nouveau partenariat avec le fournisseur de modèles AI open-source Hugging Face, un nouvel outil pour créer des modèles personnalisés dans plusieurs environnements, et quelques améliorations à sa suite d’offres d’IA d’entreprise. Bien que chacun aborde un aspect différent de la solution, ils sont tous destinés à faciliter le processus de travail avec GenAI.

Avec le partenariat avec Hugging Face, NVIDIA souhaite personnaliser et déployer des modèles de base de manière plus simple. Hugging Face s’est imposé comme la place de marché prééminente pour les versions open-source de ces modèles, et de nombreuses entreprises ont commencé à rechercher des offres qu’elles estiment adaptées à leurs besoins spécifiques.

Pour cela, chaque entreprise doit suivre un processus qui lui permet de connecter ses données en toute sécurité avec ces modèles d’IA et d’activer l’infrastructure informatique appropriée pour améliorer le modèle avec ses données.

C’est là que le nouveau partenariat entre en jeu. NVIDIA construit une connexion directe entre les modèles sur Hugging Face et un service cloud DGX alimenté par les GPU NVIDIA où cette formation peut être effectuée.

Dénommée « Training Cluster as a Service », cette offre payante – dont le lancement est prévu pour l’automne prochain – facilitera le processus de configuration de tous les composants logiciels nécessaires au bon fonctionnement du processus de formation et offrira aux organisations une façon plus simple d’effectuer les efforts de personnalisation test des modèles. Chaque instance de DGX Cloud comprend huit cartes GPU H100 ou A100 80 Tensor Core de la société pour effectuer le travail de formation.

Bien sûr, le développement de modèles de base, ainsi que les applications et services qui exploitent ces modèles, constituent un processus continu. Dans cette optique, NVIDIA a également lancé un nouvel outil conçu pour permettre aux développeurs d’IA de travailler sur ces modèles dans différents environnements.

Nommée NVIDIA AI Workbench, la nouvelle application logicielle permet aux développeurs de créer et de tester des efforts axés sur GenAI sur des PCs et des stations de travail alimentés par les GPU NVIDIA. Leur travail peut ensuite être facilement transféré et mis à l’échelle dans divers environnements cloud publics et privés (y compris AWS d’Amazon, Azure de Microsoft et GCP de Google), ainsi que dans le propre cloud de NVIDIA, le DGX Cloud.

Il s’avère qu’il est difficile de réaliser ce type de migrations sans un outil tel que AI Workbench en raison de la nécessité de configurer séparément chaque environnement pour le modèle. Cependant, avec le nouvel outil AI Workbench de NVIDIA, le processus devient simple non seulement pour les programmeurs individuels, mais aussi pour les équipes de développeurs travaillant dans différentes régions ou dans différentes parties de l’organisation. AI Workbench se charge de trouver et de lier toutes les différentes bibliothèques et frameworks open-source nécessaires pour rendre le transfert plus fluide. Une fois de plus, l’objectif est de rendre le processus de création et de déploiement de ces modèles GenAI plus facile qu’auparavant.

Les systèmes à venir équipés de RTX de sociétés telles que Dell, HP, Lenovo, HPE et Supermicro devraient pouvoir prendre en charge NVIDIA AI Workbench à la fois dans les environnements Windows et Linux.

Au dela du jeu NVIDIA repond aux besoins des clients entreprises

La dernière version du puzzle est ce que NVIDIA avait déjà annoncé lors de son événement GTC au printemps dernier. L’IA d’entreprise 4.0 intègre des améliorations supplémentaires à la gamme de modèles de base Nemo de l’entreprise que NVIDIA affirme en faire désormais un « cadre natif du cloud » pour la création de modèles linguistiques personnalisés (LLMs).

La société a également dévoilé le service de gestion NVIDIA Triton pour automatiser le déploiement de plusieurs serveurs d’inférence Triton ainsi que NVIDIA Base Command Manager Essentials, destiné à gérer les clusters informatiques d’IA dans différents environnements. Ces deux capacités reflètent l’empreinte croissante de NVIDIA dans l’automatisation et la gestion globales des charges de travail d’IA dans différents environnements. Le service Triton est spécifiquement conçu pour l’orchestration efficace des charges de travail d’inférence IA basées sur Kubernetes à travers des conteneurs, tandis que Base Command Manager élève le niveau en prenant en charge des clusters informatiques entiers dans des environnements hybrides et multi-cloud plus importants.

Il est clair que, comme d’autres fournisseurs, NVIDIA reconnaît la complexité croissante des efforts nécessaires pour faire de GenAI une partie importante des efforts informatiques de toute entreprise. Les nouveaux outils semblent être une étape importante vers la simplification d’au moins une partie des processus impliqués, mais il faudra du temps avant que de nombreuses organisations ne se sentent à l’aise pour effectuer ce type de travail par elles-mêmes.

Tout ce domaine est un territoire inexploré pour la plupart des organisations, et il faut beaucoup plus de formation pour informer toutes les parties intéressées rapidement. Dans le même temps, il y a un sentiment très réel que les organisations doivent se lancer rapidement dans ces initiatives GenAI, de peur d’être distancées par leurs concurrents. La déconnexion qui en résulte sera difficile à naviguer pendant un certain temps, mais les efforts déployés par NVIDIA sont un pas dans la bonne direction.

Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :

YouTube video