Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier

NVIDIA présente la nouvelle architecture Blackwell lors du GTC 2024

Daniel Coutinho Avatar
La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. La société a également parlé d'Omnverse Cloud et bien plus encore. vérifier

Ce lundi 18, le NVIDIA a effectué sa présentation tant attendue du GTC 2024 (Conférence sur la technologie GPU), saluée par l’entreprise comme « la principale conférence sur l’IA pour les développeurs ». Cet événement annuel est un lieu de rencontre pour les experts, les chercheurs, les développeurs et les amateurs, tous réunis pour explorer et débattre des dernières tendances et innovations en matière de calcul haute performance, d'intelligence artificielle, d'apprentissage automatique, de jeux et un large éventail d'autres domaines.

Lors de l'événement de cette année, l'entreprise a dévoilé sa dernière architecture, le Blackwell, dédié à l’avancement de l’intelligence artificielle. Il a également présenté son nouveau supercalculateur, le DGX SuperPOD, des nouvelles du Nuage omnivers, ainsi que d'autres publicités géniales. Consultez les annonces ci-dessous NVIDIA na GTC 2024.

La nouvelle architecture Blackwell de NVIDIA

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
La nouvelle NVIDIA Blackwell est la plate-forme qui promet de révolutionner davantage le marché de l'IA. (Image : Nvidia)

O Blackwell est la nouvelle architecture GPU innovante de NVIDIA cela promet de définir une nouvelle ère dans le domaine de l’informatique et de l’intelligence artificielle (IA) générative. Disposant de ressources révolutionnaires sur le marché technologique, le Blackwell est destiné à jouer un rôle clé dans un large éventail d’industries, du traitement des données et de l’automatisation à l’informatique quantique.

L’IA générative est la technologie déterminante de notre époque. Blackwell est le moteur de cette nouvelle révolution industrielle. En travaillant avec les entreprises les plus dynamiques du monde, nous réaliserons la promesse de l’IA pour chaque secteur.

Jensen Huang, fondateur et PDG de NVIDIA.

Avec des paramètres qui garantissent des coûts d'exploitation et une consommation d'énergie jusqu'à 25 fois inférieurs à ceux de son prédécesseur, le Blackwell introduit de nouvelles technologies révolutionnaires, permettant la formation de l'IA dans les modèles LLM (tels que ChatGPT) pour des échelles allant jusqu'à 10 XNUMX milliards de paramètres différents, augmentant considérablement la capacité à interpréter les données et à fournir des réponses et des solutions intelligentes.

Premièrement, l’entreprise elle-même se présente comme « la puce la plus puissante au monde ». Avec un nombre incroyable de 208 milliards de transistors, les GPU Blackwell sont produits à l'aide d'un processus TSMC 4NP personnalisé, établissant une nouvelle norme en matière de puissance et d'efficacité. L'architecture utilise une approche unique avec deux réticules par puce GPU, interconnectés via une liaison puce à puce de 10 To/seconde, ce qui donne lieu à un seul GPU unifié doté de capacités de traitement sans précédent.

Propulsé par un nouveau support de mise à l'échelle micro-tendeur et des algorithmes avancés de gestion de la plage dynamique, permettront à l'architecture Blackwell double la puissance de calcul et la taille des modèles, offrant de nouvelles capacités d'inférence d'IA en virgule flottante (virgule flottante) 4 bits.

O NVLink La 5e génération est une autre technologie cruciale, offrant un débit Bidirectionnel innovant 1,8 To/s par GPU. Cela permet une communication à haut débit entre jusqu'à 576 GPU, accélérant les performances de modèles d'IA complexes avec plusieurs milliards de paramètres et un mélange d'experts.

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
L'architecture Blackwell est capable de fournir plus de performances avec moins de consommation d'énergie. (Image : Nvidia)

En plus, GPU Blackwell inclure le Moteur RAS (Fiabilité, disponibilité e Facilité d'entretien, en anglais), avec un moteur dédié pour garantir la fiabilité, la disponibilité et la facilité d'entretien. L'architecture utilise également une maintenance préventive basée sur l'IA pour diagnostiquer et prédire les problèmes de fiabilité, maximisant ainsi la disponibilité du système et réduisant les coûts opérationnels dans les déploiements d'IA à grande échelle.

La sécurité est une priorité et dans les nouvelles architectures Blackwell Des capacités informatiques confidentielles avancées seront fournies. Cela protège les modèles d'IA et les données des clients sans compromettre les performances, avec la prise en charge de nouveaux protocoles de chiffrement d'interface natifs, particulièrement importants pour les secteurs sensibles à la confidentialité tels que les soins de santé et les services financiers.

Enfin, le moteur de décompression dédié accélère les requêtes de base de données pour offrir les plus hautes performances en matière d'analyse et de science des données. Cette fonctionnalité est cruciale compte tenu du volume croissant de données et de la demande d’analyses rapides et efficaces.

Ensemble, ces nouvelles technologies positionnent l'architecture Blackwell en tant que leader incontesté en matière de puissance, d'efficacité et de sécurité pour les applications d'IA, de HPC et d'analyse de données dans l'avenir du marché du traitement.

Produits dérivés de la technologie Blackwell sera prêt pour le marché grâce à des partenariats stratégiques plus tard cette année. Parmi les pionniers dans l'offre de services cloud axés sur la technologie Blackwell, les géants se démarquent AWS, Google Cloud, Microsoft Azure et Oracle Cloud, ainsi que les participants au programme de partenariat cloud de l'entreprise NVIDIAComme Appliqué Digital, CoreWeave, Crusoe, IBM Cloud et Lambda. De plus, les plateformes d'IA telles que Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud et Oracle EU Sovereign Cloud, entre autres, fournira également des services de cloud et d'infrastructure en utilisant le Blackwell.

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
La nouvelle puce GB200 Grace Blackwell sera utilisée dans le nouveau DGX SuperPOD utilisant la nouvelle plate-forme. (Image : Nvidia)

En outre, le NVIDIA a également présenté une nouvelle superpuce rendue possible grâce à la technologie BlackwellQu'il s'agisse d'un vin rare et exotique ou du même vin dans différents millésimes, quel que soit votre choix au NVIDIA GB200 Grâce Blackwell. Cette nouvelle puce connecte deux GPU Tensor NVIDIA B200 Core à grâce au processeur da NVIDIA via une interconnexion puce à puce à très faible consommation NVLink de 900 Go/s. La plate-forme agit comme un GPU unique avec 1,4 exaflops de performances d'IA et 30 To de mémoire rapide, et constitue un élément de base pour la dernière version. DGX SuperPOD, que nous commenterons ci-dessous.

O novo GB200 fera partie du système NVIDIA GB200 NVL72 pour des charges de travail de calcul encore plus intensives. Il combine 36 Superpuces Grace Blackwell, qui comprennent 72 GPU Blackwell et 36 Processeurs Grace interconnectés par NVLink cinquième génération et promet d'offrir jusqu'à 30 fois plus de performances par rapport au même nombre de GPU Tensor Core H100 da NVIDIA pour les charges de travail d'inférence LLM et réduit les coûts et la consommation d'énergie jusqu'à 25 fois.

Le supercalculateur IA de nouvelle génération

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
Le nouveau DGX SuperPOD avec le DGX GB200 promet de stimuler davantage le développement de l'IA. (Image : Nvidia)

Parmi les annonces de NVIDIA autour de l'architecture Blackwell, le DGX SuperPOD, le prochain supercalculateur de l'entreprise doté d'une puissance de calcul génératrice d'IA à l'échelle de milliards de paramètres. Alimenté par des superpuces Grâce Blackwell GB200, le nouveau DGX SuperPOD est construit avec des systèmes NVIDIA DGXTM GB200 et fournit 11,5 exaflops de supercalcul IA avec une précision FP4 et 240 téraoctets de mémoire, vous permettant d'évoluer davantage avec des racks supplémentaires.

O DGX SuperPOD est composé de huit systèmes ou plus DGXGB200, avec la possibilité de s'étendre à des dizaines de milliers de Superpuces GB200 interconnectés grâce à la technologie NVIDIA Quantum InfiniBand. Pour créer un espace de mémoire partagé considérable et prendre en charge les modèles d'IA de nouvelle génération, les clients peuvent mettre en œuvre une configuration connectant 576 GPU. Blackwell présent dans huit systèmes DGXGB200 par NVLink.

Le nouveau DGX SuperPOD combine les dernières avancées en matière de calcul accéléré, de mise en réseau et de logiciels de NVIDIA pour permettre à chaque entreprise, secteur et pays d'affiner et de générer sa propre IA.

Jensen Huang, fondateur et PDG de NVIDIA.

O novo DGX SuperPOD est un supercalculateur d'IA complet conçu pour l'échelle des centres de données qui s'intègre de manière transparente au stockage haute performance fourni par des partenaires certifiés NVIDIA pour répondre aux exigences des charges de travail d'IA générative. Chaque unité est assemblée, connectée et testée en usine, ce qui permet un déploiement rapide et efficace dans les centres de données des clients.

De plus, le supercalculateur est équipé de capacités avancées de gestion prédictive, capables de surveiller en permanence des milliers de points de données sur le matériel et les logiciels. Cela vous permet de prévoir et de corriger les sources possibles de temps d'arrêt et d'inefficacité, ce qui entraîne des économies de temps, d'énergie et de coûts de calcul.

Le logiciel intégré est capable de détecter les problèmes potentiels dans un système, de planifier la maintenance, d'ajuster de manière flexible les ressources informatiques et même d'enregistrer et de reprendre automatiquement les tâches pour éviter toute interruption, même en l'absence des administrateurs système. Si le besoin de remplacer un composant est identifié, le cluster peut activer sa capacité de réserve pour garantir que les travaux en cours soient terminés à temps.

En plus du nouveau supercalculateur, le NVIDIA a également présenté le DGX B200, une plateforme de calcul intensif d'IA unifiée conçue pour la formation, le réglage fin et l'inférence de modèles. Il présente le système DGX B200, qui est la sixième génération de designs DGX support monté. Le système comprend huit GPU Noyau tenseur NVIDIA B200 et deux processeurs Intel Xeon 5ème génération.

Il offre des performances d'IA allant jusqu'à 144 pétaflops, 1.4 To de mémoire GPU et 64 To/s de bande passante mémoire, offrant une inférence en temps réel 15 fois plus rapide pour les modèles comportant des milliards de paramètres par rapport à la génération précédente. Les systèmes DGX B200 disposent également de fonctionnalités de mise en réseau avancées, notamment Cartes réseau NVIDIA ConnectXTM-7 e DPU BlueField-3, fournissant jusqu'à 400 gigabits par seconde de bande passante par connexion, garantissant des performances d'IA rapides avec les plates-formes réseau NVIDIA Quantum-2 InfiniBand e NVIDIA SpectrumTM-X Ethernet.

O NVIDIA DGX SuperPOD com DGXGB200 et systèmes DGX B200 sera disponible en 2024 pour les partenaires mondiaux de NVIDIA.

Série X800, les nouveaux commutateurs réseau de NVIDIA

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
Les nouveaux commutateurs NVIDIA sont optimisés pour le traitement utilisant des milliards de paramètres. (Image : Nvidia)

A NVIDIA a également annoncé aujourd'hui le nouveau X800, la série de commutateurs de la société conçue pour le traitement de l'IA à grande échelle. Les séries Quantum-X800 InfiniBand e Ethernet Spectrum-X800 sont les premiers au monde capables d'un débit de bout en bout de 800 Gbit/s, repoussant les limites des performances du réseau pour les charges de travail de calcul et d'IA.

Ces commutateurs sont dotés d'un logiciel avancé qui alimente davantage les applications d'IA, de cloud computing, de traitement de données et HPC (Calcul haute performance) dans tous types de centres de données. Ils sont spécialement conçus pour s'intégrer parfaitement à la gamme de produits récemment lancée basée sur l'architecture Blackwell da NVIDIA, garantissant des performances exceptionnelles dans tous les aspects.

Parmi les premiers à adopter ces innovations figurent des géants du cloud computing comme Microsoft Azure et Oracle Cloud, soulignant la pertinence et l'impact de cette technologie sur l'avancement de l'IA à l'échelle mondiale. En outre Tissage de base, une société leader dans le domaine des infrastructures de cloud computing, fait également partie des premiers à adopter ces innovations, démontrant l'acceptation rapide et la pertinence de ces avancées dans le secteur.

Cette nouvelle série de commutateurs établit une nouvelle norme en matière d'infrastructure dédiée à l'IA, offrant les plus hautes performances et des fonctionnalités avancées pour répondre aux demandes toujours croissantes des applications d'IA cloud et d'entreprise. Avec la promesse d’améliorations significatives de la vitesse de traitement, d’analyse et d’exécution des charges de travail d’IA, cette technologie promet d’accélérer le développement et le déploiement de solutions d’IA à travers le monde.

NVIDIA annonce un simulateur météorologique AI

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
Le simulateur de modélisation climatique utilise l'IA et NVIDIA DGX Cloud pour prédire d'éventuelles catastrophes naturelles. (Image : Nvidia)

A NVIDIA a également annoncé aujourd'hui, lors de la GTC 2024, le lancement de son dernier simulateur météo, Terre-2, marquant une percée dans le domaine de la modélisation climatique. Développé avec une technologie d'intelligence artificielle de pointe, Terre-2 propose une plateforme cloud pour simuler et visualiser le climat mondial à une échelle sans précédent.

L'une des caractéristiques les plus impressionnantes du Terre-2 est l'utilisation d'API qui utilisent des modèles d'IA avancés, y compris le révolutionnaire CorrDiff, qui génère des images avec une résolution 12,5 fois supérieure à celle des modèles numériques actuels, en une fraction du temps et de la consommation d'énergie. Cette capacité à générer des simulations haute résolution avec une vitesse et une efficacité énergétique sans précédent constitue une réussite remarquable dans le domaine de la modélisation climatique.

De plus, le Terre-2 utilise le DGX-Cloud da NVIDIA pour fournir une accélération complète des solutions climatiques et météorologiques, y compris des pipelines d'IA optimisés et une accélération GPU pour les modèles de prévision numérique du temps. Cela signifie que les utilisateurs de Terre-2 avoir accès à un large éventail d'outils et de ressources pour créer des simulations climatiques précises et détaillées à différentes échelles, de l'atmosphère mondiale à des événements météorologiques locaux spécifiques tels que les typhons et les turbulences.

des entreprises comme The Weather Company étudient les moyens d'intégrer les données météorologiques du Terre-2 avec ses outils de visualisation, permettant aux clients de mieux comprendre l'impact des conditions météorologiques réelles sur leurs opérations et leur planification. D'autres sociétés, comme Spire et Météomatique, profitent des ressources de Terre-2 pour améliorer la précision de vos prévisions météorologiques et fournir des informations plus précises à vos clients.

En fin de compte, le Terre-2 représente une étape vers une compréhension plus profonde et plus précise du climat mondial et des événements météorologiques extrêmes. Grâce à sa technologie de pointe et à son large éventail d’applications potentielles, ce nouveau simulateur a le potentiel de changer la façon dont nous comprenons et nous préparons aux défis climatiques du 21e siècle.

Disponibilité des API Omniverse Cloud

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
Le service cloud NVIDIA permet la disponibilité des API pour une meilleure intégration avec les applications externes. (Image : Nvidia)

Na GTC 2024une NVIDIA a annoncé la disponibilité des API de Nuage omnivers qui peut être utilisé par les développeurs et les entreprises, offrant une meilleure intégration avec les principaux logiciels de conception et d'automatisation du marché.

Avec l' API Cloud Omniverse, les développeurs peuvent désormais facilement intégrer les technologies de base de Omnivers directement dans les applications logicielles existantes, alimentant la création, la simulation et l’exploitation de jumeaux numériques basés sur la physique. Ce nouveau développement représente une étape importante dans la capacité des entreprises à concevoir, tester et valider virtuellement des produits et des processus, avant même leur construction dans le monde physique.

Les cinq nouvelles API de Nuage omnivers, qui peuvent être utilisés individuellement ou collectivement, comprennent :

  • Rendement en USD – génère rend totalement lancer de rayons Données RTXTM OuvrirUSD.
  • Écriture en USD – permet aux utilisateurs de modifier et d’interagir avec les données OuvrirUSD.
  • Requête USD – permet des requêtes et des scénarios interactifs.
  • USD Notifier – suit les modifications en USD et fournit des mises à jour.
  • Chaîne Omniverse – connecte les utilisateurs, les outils et les mondes pour permettre la collaboration entre les scènes.

De grands noms du secteur adoptent déjà les API de Nuage omnivers dans leurs portefeuilles de logiciels. Par exemple, des entreprises comme Siemens, Ansys, Cadence, Dassault Systèmes, entre autres, intègrent les technologies de Omnivers pour offrir aux clients une expérience encore plus immersive et fonctionnelle.

Ces avancées promettent non seulement de révolutionner la manière dont les entreprises conçoivent, construisent et exploitent des produits et processus industriels, mais elles ont également le potentiel de renforcer la compétitivité, la résilience et la durabilité des entreprises du monde entier.

Les entreprises adoptent NVIDIA DRIVE Thor dans le secteur des transports

Nvidia présente la nouvelle architecture Blackwell lors du GTC 2024. La nouvelle architecture promet de réduire jusqu'à 25 fois les coûts d'exploitation des applications d'IA. L'entreprise a également parlé du cloud omnivers et bien plus encore. vérifier
Annoncé précédemment, DRIVE Thor de NVIDIA continue de bénéficier du soutien des principales entreprises du marché automobile. (Image : Nvidia)

Enfin, le NVIDIA a également commenté dans sa présentation au GTC 2024, sur l'adoption du CONDUITE Thor par le secteur des transports et diverses entreprises.

O CONDUIRE Thor est bien plus qu'un simple ordinateur de voiture, c'est un élément fondamental dans la transformation du secteur des transports, pilotant tout, des véhicules de tourisme aux camions longue distance, en passant par les robots-taxis et les véhicules de livraison autonomes. Avec son architecture, le Thor offre non seulement des capacités avancées de cockpit, mais également une conduite automatisée et autonome sûre, le tout sur une plate-forme centralisée, utilisant une nouvelle architecture de processeurs Blackwell da NVIDIA, permettant le traitement avec LLM et l'IA générative pour la prise de décision.

Plusieurs entreprises leaders du secteur des véhicules électriques ont déjà adopté le CONDUIRE Thor dans vos projets nouvelle génération. UN BYD, géant mondial de l'industrie automobile, étend sa collaboration avec NVIDIA, intégrant Thor dans ses flottes de véhicules électriques. En outre Hyper et XPENG font partie des entreprises qui ont choisi le Thor pour alimenter ses futures flottes de véhicules autonomes.

En outre, DRIVE Thor gagne en importance dans le secteur du transport de marchandises et de la logistique. Des entreprises comme Nuro, Plus, Waabi et WeRide sont les pionniers de l'adoption de ce système d'IA avancé pour leurs projets de conduite autonome. Du développement de technologies de conduite pour les véhicules commerciaux et grand public à la création de solutions de camionnage autonomes à grande échelle, ces entreprises s'appuient sur la puissance et l'efficacité de CONDUIRE Thor pour stimuler l’innovation dans leurs domaines respectifs.

Avec son lancement prévu pour les véhicules de production l'année prochaine, le CONDUIRE Thor promet de révolutionner l’industrie automobile, par ses performances et sa capacité à offrir une conduite autonome fiable.

source: NVIDIA.

Voir plus

Revu par Glaucon Vital le 18/3/24.


En savoir plus sur Showmetech

Inscrivez-vous pour recevoir nos dernières actualités par email.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

Related posts