Intel Gaudi 2 écrase le Nvidia H100 dans la formation en IA ; Stable Diffusion 3 fonctionne également plus rapidement et moins cher
Le patron de Nvidia a déclaré un jour que le H100 était « si bon que même lorsque les puces du concurrent sont gratuites, il n'est pas assez bon marché ».
2 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus.
Notes clés
- Nvidia H100 salué par le PDG Huang comme la meilleure puce pour l'IA.
- Cependant, Stability AI affirme que le Gaudi 2 d'Intel surpasse le H100 en matière de formation en IA.
- Gaudi 2 offre des performances solides, des coûts moins élevés et des vitesses d'inférence plus rapides, selon Stability AI.
Nvidia H100 fait parler de lui depuis un certain temps. Le patron de l'entreprise, Jensen Huang, est même allé jusqu'à dire qu'il s'agit de la meilleure puce pour la formation et l'inférence de l'IA – encore meilleure que l'Intel Gaudi 2.
Il a déclaré officiellement que pendant son discours d'ouverture lors du sommet économique SIEPR 2024, le H1000 est « si bon que même lorsque les puces du concurrent sont gratuites, il n'est pas assez bon marché ».
Cependant, cela ne reflète pas nécessairement toute la vérité, ou du moins c’est ce que Stability AI a récemment déclaré. La start-up d'IA, qui a également lancé les modèles Stable Diffusion, a revendiqué que les puces Gaudi 2 d'Intel ont également présenté des performances impressionnantes pour Stable Diffusion 3, exécutant l'architecture de transformateur de diffusion multimodale plus rapidement que les H100 de Nvidia dans une formation à l'échelle pré-fp8.
Le Gaudi3 économique devrait également offrir des améliorations de vitesse significatives, avec une inférence de 673 tok/s observée sur le prochain modèle StableBeluga 2.5 70b, sa version affinée du LLaMA 2 70B construite sur le modèle Stable Beluga 2.
Positionnées entre les A100 et H100 de Nvidia en termes de performances, les puces Gaudi2 offrent des performances solides avec 96 Go de VRAM et une interconnexion moins chère de 2.4 Tb/s, ce qui en fait un choix incontournable pour les tâches d'IA.
Tout comme le DALL-E 3 d'OpenAI, Stable Diffusion 3 est le prochain modèle texte-image de Stability AI qui sera bientôt disponible en avant-première. Il sera disponible en différentes tailles, des paramètres 800M aux paramètres 8B.
Vous pouvez en savoir plus sur les conclusions de Stability AI ici.
Forum des utilisateurs
Messages 0