NVIDIA Blackwell
Accueil » Toujours plus de puissance, toujours plus d’IA : NVIDIA dévoile Blackwell, NIM

Toujours plus de puissance, toujours plus d’IA : NVIDIA dévoile Blackwell, NIM

Cet article est également disponible en: Anglais

NVIDIA a profité de la GTC pour dévoiler sa nouvelle architecture Blackwell dédiée à l’IA. Le groupe promet des gains de puissance considérables, et des économies d’énergie.
Outre de nouvelles puces, NVIDIA dévoile aussi des services autour de l’IA qui s’appuient sur le hardware déjà en place.

NVIDIA voit grand, très grand

La nouvelle plateforme Blackwell promet des performances en hausse. Elle se concrétise avec deux puces, B200 et GB200. Concrètement, la puce B200 permet de disposer de 20 pétaflops de puissance FP4, 208 milliards de transistors. La GB200, que NVIDIA qualifie de « superpuce », est en fait l’assemblage de deux B200 et d’un processeur Grace.

On retiendra surtout que par rapport à la puce H100, également développée par NVIDIA et qui équipe déjà de nombreux poids lourds de l’IA (OpenAI en tête), la GB200 offrirait de l’ordre de 7 fois plus de puissance. A la clé, toujours selon NVIDIA un apprentissage environ 4 fois plus rapide pour les LLM (grands modèles de langage) comme ChatGPT.

Une débauche de puissance, mais quid de l’énergie ?

Cette débauche de puissance fait évidemment craindre une consommation énergétique démesurée : on le sait, l’entraînement des IA est une tâche particulièrement gourmande actuellement.
Ici, NVIDIA cherche à rassurer. Selon l’entreprise, la GB200 serait « jusqu’à 25 fois moins » gourmande qu’une H100.

Puissance en hausse, consommation en baisse, mais à quel prix ?

Reste à savoir combien devront débourser les entreprises pour utiliser ces puces. NVIDIA ne donne pas de chiffre pour le moment. Pour une H100 de la génération précédente, il fallait débourser entre 20 et 40 000$ par puce. On sait en revanche qu’il sera possible de louer l’accès à ces monstres de puissance via différents services cloud comme ceux d’AWS, Google, Microsoft, Oracle. AWS, en particulier, va selon NVIDIA mettre en place un cluster de serveurs comptant environ 20 000 puces GB200.

Des puces, mais pas seulement

Outre ces annonces matérielles, NVIDIA a dévoilé NIM (Nvidia Inference Microservice), un service pour les développeurs avec des modèles pré-entraînés. Le tout est pensé pour s’appuyer sur des GPUs NVIDIA CUDA déjà existants. Autrement dit, pas besoin d’acheter du matériel onéreux.
Il est possible d’expérimenter avec les microservices gratuitement sur ai.nvidia.com. Mais pour profiter pleinement de NIM, il faudra évidemment payer, en passant par un abonnement NVIDIA AI Enterprise 5.0, qui inclut cette nouvelle offre.

On retiendra surtout l’aspect stratégique de cette annonce : le CEO de NVIDIA Jensen Huang explique que pour lui, NVIDIA devient une « AI Foundry », l’équivalent pour l’industrie et les entreprises utilisant de l’IA de ce que TSMC fait pour NVIDIA en construisant ses puces.

En bref

En conclusion, NVIDIA poursuit donc ici son objectif d’être un maillon central dans l’essor des IA, qu’il s’agisse de matériel ou de services. Mais aussi, évidemment, son objectif d’augmenter ses revenus et de soutenir les actions du groupe, dont la valeur a déjà été multipliée par 20 en 5 ans.

Pour plus de détails sur ces annonces, nous vous invitons à consulter ci-dessous une série d’extraits de la keynote de Jensen Huang : la keynote complète est très longue (2 heures), tandis que la vidéo rassemble en 16 minutes les points phares des annonces autour de l’IA.

Laissez un commentaire

A Lire également