NVIDIA et ses partenaires présentent des performances et une polyvalence d’IA de pointe dans MLPerf

NVIDIA et ses partenaires présentent des performances et une polyvalence d’IA de pointe dans MLPerf


NVIDIA et ses partenaires ont continué à fournir les meilleures performances globales de formation à l’IA et le plus grand nombre de soumissions dans tous les benchmarks, 90 % de toutes les entrées provenant de l’écosystème, selon les benchmarks MLPerf publiés aujourd’hui.

La plate-forme NVIDIA AI a couvert les huit points de référence du cycle MLPerf Training 2.0, soulignant sa polyvalence de premier plan.

Aucun autre accélérateur n’a exécuté tous les benchmarks, qui représentent des cas d’utilisation populaires de l’IA, notamment la reconnaissance vocale, le traitement du langage naturel, les systèmes de recommandation, la détection d’objets, la classification d’images, etc. NVIDIA l’a fait de manière cohérente depuis sa soumission en décembre 2018 au premier tour de MLPerf, une suite de benchmarks d’IA standard.

Principaux résultats de référence, disponibilité

Dans sa quatrième soumission consécutive de formation MLPerf, le GPU NVIDIA A100 Tensor Core basé sur l’architecture NVIDIA Ampere a continué d’exceller.

Temps de formation le plus rapide sur chaque réseau par la plate-forme de chaque soumissionnaire

Selene, notre supercalculateur IA interne basé sur le NVIDIA DGX SuperPOD modulaire et alimenté par les GPU NVIDIA A100, notre pile logicielle et la mise en réseau NVIDIA InfiniBand, a réalisé le temps le plus rapide pour s’entraîner sur quatre tests sur huit.

NVIDIA et ses partenaires présentent des performances et une polyvalence d’IA de pointe dans MLPerf
Pour calculer les performances par puce, ce tableau normalise chaque soumission à l’échelle la plus courante parmi les soumissionnaires, et les scores sont normalisés au concurrent le plus rapide qui est affiché avec 1x.

NVIDIA A100 a également maintenu son leadership par puce, se révélant le plus rapide sur six des huit tests.

Au total, 16 partenaires ont soumis les résultats de cette ronde à l’aide de la plate-forme NVIDIA AI. Ils comprennent ASUS, Baidu, CASIA (Institute of Automation, Chinese Academy of Sciences), Dell Technologies, Fujitsu, GIGABYTE, H3C, Hewlett Packard Enterprise, Inspur, KRAI, Lenovo, MosaicML, Nettrix et Supermicro.

La plupart de nos partenaires OEM ont soumis des résultats en utilisant des systèmes certifiés NVIDIA, des serveurs validés par NVIDIA pour fournir des performances, une gérabilité, une sécurité et une évolutivité exceptionnelles pour les déploiements d’entreprise.

De nombreux modèles alimentent de véritables applications d’IA

Une application d’IA peut avoir besoin de comprendre la demande vocale d’un utilisateur, de classer une image, de faire une recommandation et de fournir une réponse sous forme de message vocal.

NVIDIA et ses partenaires présentent des performances et une polyvalence d’IA de pointe dans MLPerf
Même le cas d’utilisation simple ci-dessus nécessite près de 10 modèles, ce qui souligne l’importance d’exécuter chaque référence

Ces tâches nécessitent plusieurs types de modèles d’IA pour fonctionner en séquence, également appelés pipeline. Les utilisateurs doivent concevoir, former, déployer et optimiser ces modèles de manière rapide et flexible.

C’est pourquoi la polyvalence – la capacité d’exécuter chaque modèle dans MLPerf et au-delà – ainsi que des performances de pointe sont essentielles pour mettre en production l’IA du monde réel.

Offrir un retour sur investissement avec l’IA

Pour les clients, leurs équipes de science des données et d’ingénierie sont leurs ressources les plus précieuses, et leur productivité détermine le retour sur investissement de l’infrastructure d’IA. Les clients doivent tenir compte du coût des équipes de science des données coûteuses, qui jouent souvent un rôle important dans le coût total du déploiement de l’IA, ainsi que du coût relativement faible du déploiement de l’infrastructure d’IA elle-même.

La productivité des chercheurs en IA dépend de la capacité à tester rapidement de nouvelles idées, ce qui nécessite à la fois la polyvalence pour former n’importe quel modèle ainsi que la vitesse offerte par la formation de ces modèles à la plus grande échelle. C’est pourquoi les organisations se concentrent sur la productivité globale par dollar pour déterminer la meilleure IA plates-formes – une vue plus complète qui représente plus précisément le coût réel du déploiement de l’IA.

De plus, l’utilisation de leur infrastructure d’IA repose sur sa fongibilité, ou la capacité d’accélérer l’ensemble du flux de travail d’IA – de la préparation des données à la formation en passant par l’inférence – sur une seule plate-forme.

Avec NVIDIA AI, les clients peuvent utiliser la même infrastructure pour l’ensemble du pipeline d’IA, en la réaffectant pour répondre aux différentes demandes entre la préparation des données, la formation et l’inférence, ce qui stimule considérablement l’utilisation, entraînant un retour sur investissement très élevé.

Et, à mesure que les chercheurs découvrent de nouvelles percées en matière d’IA, la prise en charge des dernières innovations de modèles est essentielle pour maximiser la durée de vie utile de l’infrastructure d’IA.

NVIDIA AI offre la productivité la plus élevée par dollar car elle est universelle et performante pour chaque modèle, s’adapte à n’importe quelle taille et accélère l’IA de bout en bout, de la préparation des données à la formation en passant par l’inférence.

Les résultats d’aujourd’hui fournissent la dernière démonstration de l’expertise large et approfondie de NVIDIA en matière d’IA, démontrée dans chaque formation, inférence et cycle HPC MLPerf à ce jour.

23 fois plus de performances en 3,5 ans

Au cours des deux années qui ont suivi notre première soumission MLPerf avec A100, notre plateforme a fourni 6 fois plus de performances. Les optimisations continues de notre pile logicielle ont contribué à alimenter ces gains.

Depuis l’avènement de MLPerf, la plate-forme NVIDIA AI a fourni 23 fois plus de performances en 3,5 ans sur la référence – le résultat d’une innovation complète couvrant les GPU, les logiciels et les améliorations à grande échelle. C’est cet engagement continu envers l’innovation qui garantit aux clients que la plate-forme d’IA dans laquelle ils investissent aujourd’hui et qu’ils maintiennent en service pendant 3 à 5 ans, continuera d’évoluer pour prendre en charge l’état de l’art.

De plus, l’architecture NVIDIA Hopper, annoncée en mars, promet un autre bond de géant en termes de performances dans les prochains cycles MLPerf.

Comment nous l’avons fait

L’innovation logicielle continue de débloquer plus de performances sur l’architecture NVIDIA Ampere.

Par exemple, CUDA Graphs, un logiciel qui aide à minimiser la surcharge de lancement des travaux qui s’exécutent sur de nombreux accélérateurs, est largement utilisé dans nos soumissions. Les noyaux optimisés dans nos bibliothèques comme cuDNN et le prétraitement dans DALI ont débloqué des accélérations supplémentaires. Nous avons également mis en œuvre des améliorations complètes de la pile sur le matériel, les logiciels et les réseaux tels que NVIDIA Magnum IO et SHARP, qui déchargent certaines fonctions d’IA sur le réseau pour améliorer encore les performances, en particulier à grande échelle.

Tous les logiciels que nous utilisons sont disponibles dans le référentiel MLPerf, afin que chacun puisse obtenir nos résultats de classe mondiale. Nous intégrons en permanence ces optimisations dans des conteneurs disponibles sur NGC, notre hub logiciel pour les applications GPU, et proposons à NVIDIA AI Enterprise de fournir des logiciels optimisés, entièrement pris en charge par NVIDIA.

Deux ans après le lancement de l’A100, la plate-forme NVIDIA AI continue d’offrir les performances les plus élevées dans MLPerf 2.0 et est la seule plate-forme à soumettre sur chaque référence. Notre architecture Hopper de nouvelle génération promet un autre pas de géant dans les futurs cycles MLPerf.

Notre plate-forme est universelle pour chaque modèle et framework à n’importe quelle échelle, et offre la possibilité de gérer chaque partie de la charge de travail de l’IA. Il est disponible auprès de tous les principaux fabricants de cloud et de serveurs.



Source

Laisser un commentaire