NVIDIA DOMINE LES BENCHMARKS D’APPRENTISSAGE MACHINE AVEC SA NOUVELLE ARCHITECTURE HOPPER
Pendant des années, Nvidia a dominé de nombreux benchmarks d’apprentissage machine, et maintenant elle ajoute deux autres victoires à son palmarès.
DE NOUVEAUX TESTS POUR UNE COMPARAISON PLUS PRÉCISE
MLPerf, la suite de benchmarks d’IA parfois appelée "les Jeux olympiques de l’apprentissage machine", a publié de nouveaux tests d’entraînement pour faciliter des comparaisons plus équitables entre les systèmes informatiques concurrents. Ces nouveaux tests concernent le réglage fin des grands modèles de langage et les réseaux neuronaux graphiques.
DOMINATION DE NVIDIA AVEC L’ARCHITECTURE HOPPER
Malgré la participation de systèmes utilisant les accélérateurs d’IA de Google et d’Intel, les systèmes alimentés par l’architecture Hopper de Nvidia ont une fois de plus dominé les résultats. Un système comprenant 11 616 GPU Nvidia H100 – la plus grande collection à ce jour – a dominé les neuf benchmarks, établissant des records dans cinq d’entre eux.
AMÉLIORATIONS LOGICIELLES POUR UNE EFFICACITÉ ACCRUE
Nvidia a continué à améliorer les temps d’entraînement malgré l’utilisation de la même architecture, Hopper, que celle des résultats d’entraînement de l’année dernière. Tout cela est dû aux améliorations logicielles mises en place par l’entreprise.
DE NOUVEAUX BENCHMARKS POUR RESTER À LA POINTE
MLPerf a ajouté de nouveaux benchmarks et mis à jour les anciens pour rester pertinent par rapport à ce qui se passe dans l’industrie de l’IA. Cette année a vu l’ajout du réglage fin et des réseaux neuronaux graphiques.
COMBATS FUTURS
Les tours d’entraînement en 2025 pourraient voir des confrontations directes entre les nouveaux accélérateurs d’AMD, Intel et Nvidia. La série MI300 d’AMD a été lancée il y a environ six mois, et une mise à niveau boostée en mémoire, le MI325x, est prévue pour la fin de 2024, avec la prochaine génération MI350 prévue pour 2025. Intel affirme que son Gaudi 3, disponible généralement pour les fabricants d’ordinateurs plus tard cette année, apparaîtra dans les prochains benchmarks d’inférence de MLPerf.
Sources:
腎