Les prouesses de la nouvelle puce d'intelligence artificielle de Nvidia

Le groupe américain Nvidia a dévoilé sa nouvelle puce d’intelligence artificielle H100. Avec 80 milliards de transistors, un record de densité pour un circuit de traitement monolithique, elle triple la puissance de calcul par rapport à la génération précédente A100.

Réservé aux abonnés
H100, puce IA de Nvidia
H100, la nouvelle puce d'intelligence artificielle de Nvidia

Lors de son évènement GTC le 22 mars 2022, le groupe américain Nvidia, numéro un mondial des processeurs graphiques, a dévoilé sa nouvelle puce d’intelligence artificielle H100. Basée sur sa toute nouvelle architecture de traitement graphique Hopper, elle réunit 80 milliards de transistors sur une surface de 814 mm2, un record pour un circuit de traitement monolithique. Elle est fabriquée chez le fondeur taiwanais TSMC en technologie de 4 nanomètres, actuellement la gravure la plus fine.

Le processeur monolithique le plus dense était jusqu’ici le M1 Max d’Apple motorisant le MacBook Air de 16 pouces. Sur un pavé de silicium d’environ 420 mm2 selon le cabinet TechInsights qui a analysé en détail la puce, il entasse 57 milliards de transistors et est fabriqué également chez TSMC mais en technologie de 5 nanomètres.

Plus puissante mais plus petite

La génération précédente de puce d’intelligence artificielle A100 de Nvidia, basée sur l’ancienne architecture de traitement graphique Ampere, intègre environ 54 milliards de transistors sur une surface de 823 mm2. Elle est fabriquée chez TSMC en technologie de 7 nanomètres. La nouvelle puce H100 est donc plus puissante tout en étant plus petite. Selon Nvidia, elle multiplie la puissance de calcul par un facteur six en simple précision et par trois en double précision. Dans les tâches d’intelligence artificielle, le gain serait d’un facteur neuf en apprentissage automatique et 30 en inférence.

Vos indices
Indices & cotations
Tous les indices

Cette nouvelle puce n’équipera ni les PC ni les stations de jeux vidéo. Elle est dédiée exclusivement aux serveurs pour l’accélération des tâches d’intelligence d’artificielle dans des applications comme le calcul intensif, le séquençage du génome, la reconnaissance de la parole, les agents conversationnels numériques ou encore les moteurs de recommandation sur internet. Elle est disponible à partir du troisième trimestre 2022.

Nvidia, plus de 80 % du marché

Selon le cabinet Omdia, le marché des puces d’intelligence artificielle pour serveurs devrait monter de 4 milliards de dollars en 2020 à 36,7 milliards de dollars en 2026. Tirant profit de sa suprématie dans les processeurs graphiques, Nvidia s’accapare 80,6 % du pactole en 2020, ne laissant que des miettes pour les quatre autres acteurs du Top 5 tous américains : Xilinx, Google, Intel et AMD.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs