Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare

NVIDIA mostra la nuova architettura Blackwell durante il GTC 2024

Avatar di Daniel Coutinho
La nuova architettura promette di ridurre i costi operativi per le applicazioni IA fino a 25 volte. L'azienda ha parlato anche di Omniverse Cloud e molto altro ancora. guardare

Questo lunedì, 18, il NVIDIA ha condotto la tanto attesa presentazione del GTC 2024 (Conferenza sulla tecnologia GPU), salutata dall'azienda come "la principale conferenza sull'intelligenza artificiale per gli sviluppatori". Questo evento annuale è un luogo di incontro per esperti, ricercatori, sviluppatori e hobbisti, che si riuniscono per esplorare e discutere le ultime tendenze e innovazioni nel campo del calcolo ad alte prestazioni, dell'intelligenza artificiale, dell'apprendimento automatico, dei giochi e di una vasta gamma di altre aree.

Durante l'evento di quest'anno, l'azienda ha rivelato la sua ultima architettura, il Blackwell, dedicato al progresso dell'intelligenza artificiale. Inoltre, ha presentato il suo nuovo supercomputer, il DGXSuperPOD, notizie sul Nube dell'onniverso, insieme ad altri fantastici annunci. Dai un'occhiata agli annunci qui sotto NVIDIA na GTC 2024.

La nuova architettura Blackwell di NVIDIA

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
La nuova NVIDIA Blackwell è la piattaforma che promette di rivoluzionare ulteriormente il mercato dell'AI. (Immagine: NVIDIA)

O Blackwell è la nuova innovativa architettura GPU di NVIDIA che promette di definire una nuova era nell’informatica e nell’intelligenza artificiale generativa (AI). Con risorse rivoluzionarie nel mercato tecnologico, il Blackwell è destinato a svolgere un ruolo chiave in una vasta gamma di settori, dall’elaborazione dei dati e l’automazione all’informatica quantistica.

L’intelligenza artificiale generativa è la tecnologia che definisce il nostro tempo. Blackwell è il motore di questa nuova rivoluzione industriale. Lavorando con le aziende più dinamiche del mondo, realizzeremo la promessa dell'intelligenza artificiale per ogni settore.

Jensen Huang, fondatore e CEO di NVIDIA.

Con parametri che garantiscono costi operativi e consumi energetici fino a 25 volte inferiori rispetto al suo predecessore, il Blackwell introduce nuove tecnologie rivoluzionarie, consentendo la formazione sull'intelligenza artificiale nei modelli LLM (come ChatGPT) per scale fino a 10 trilioni di parametri diversi, aumentando considerevolmente la capacità di interpretare i dati e fornire risposte e soluzioni intelligenti.

Innanzitutto l’azienda stessa si distingue come “il chip più potente del mondo”. Con l'incredibile cifra di 208 miliardi di transistor e GPU Blackwell sono prodotti utilizzando un processo personalizzato TSMC 4NP, stabilendo un nuovo standard di potenza ed efficienza. L'architettura utilizza un approccio unico con due reticoli per chip GPU, interconnessi tramite un collegamento chip-to-chip da 10 TB/secondo, risultando in un'unica GPU unificata con capacità di elaborazione senza precedenti.

Alimentato dal nuovo supporto per il ridimensionamento microtensionatore e algoritmi avanzati di gestione della gamma dinamica, consentiranno l'architettura Blackwell raddoppia la potenza di calcolo e le dimensioni del modello, offrendo nuove funzionalità di inferenza AI in virgola mobile (punti mobili) 4 bit.

O NVLink La quinta generazione è un'altra tecnologia cruciale, che fornisce a portata Innovativo bidirezionale 1,8 TB/s per GPU. Ciò consente la comunicazione ad alta velocità tra un massimo di 576 GPU, accelerando le prestazioni di modelli IA complessi con migliaia di miliardi di parametri e un mix di esperti.

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
L'architettura Blackwell è in grado di fornire maggiori prestazioni con un minor consumo energetico. (Immagine: NVIDIA)

Inoltre, GPU Blackwell includere il Motore RAS (Affidabilità, Disponibilità e Facilità di manutenzione, in inglese), con un motore dedicato per garantire affidabilità, disponibilità e manutenibilità. L’architettura utilizza inoltre la manutenzione preventiva basata sull’intelligenza artificiale per diagnosticare e prevedere problemi di affidabilità, massimizzando i tempi di attività del sistema e riducendo i costi operativi nelle implementazioni di intelligenza artificiale su larga scala.

La sicurezza è una priorità e nelle nuove architetture Blackwell Verranno fornite capacità informatiche riservate avanzate. Ciò protegge i modelli di intelligenza artificiale e i dati dei clienti senza compromettere le prestazioni, con il supporto di nuovi protocolli di crittografia dell’interfaccia nativa, particolarmente importanti per i settori sensibili alla privacy come i servizi sanitari e finanziari.

Infine, il motore di decompressione dedicato accelera le query del database per offrire le massime prestazioni nell'analisi dei dati e nella scienza dei dati. Questa funzionalità è fondamentale considerando il crescente volume di dati e la richiesta di analisi rapide ed efficienti.

Insieme, queste nuove tecnologie posizionano l’architettura Blackwell come leader indiscusso in termini di potenza, efficienza e sicurezza per le applicazioni AI, HPC e analisi dei dati nel futuro del mercato dell'elaborazione.

Prodotti derivati ​​dalla tecnologia Blackwell sarà pronto per il mercato attraverso partnership strategiche entro la fine dell’anno. Tra i pionieri nell'offerta di servizi cloud basati sulla tecnologia Blackwell, i giganti risaltano AWS, Google Cloud, Microsoft Azure e Oracle Cloud, nonché i partecipanti al programma di partnership cloud dell'azienda NVIDIACome Digitale applicata, CoreWeave, Crusoe, IBM Cloud e Lambda. Inoltre, piattaforme AI come Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud e Oracle EU Sovereign Cloud, tra gli altri, fornirà anche servizi cloud e infrastrutturali utilizzando il Blackwell.

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
Il nuovo chip GB200 Grace Blackwell verrà utilizzato nel nuovo DGX SuperPOD utilizzando la nuova piattaforma. (Immagine: NVIDIA)

Inoltre, l' NVIDIA ha presentato anche un nuovo superchip reso possibile grazie alla tecnologia Blackwello NVIDIA GB200 Grazia Blackwell. Questo nuovo chip ne collega due GPU NVIDIA B200 Tensor Nucleo à grazia della cpu da NVIDIA tramite un'interconnessione chip-to-chip a bassissimo consumo NVLink di 900 GB/s. La piattaforma agisce come una singola GPU con 1,4 exaflop di prestazioni AI e 30 TB di memoria veloce ed è un elemento fondamentale per le ultime novità DGXSuperPOD, che commenteremo di seguito.

La nuova GB200 farà parte del sistema NVIDIAGB200NVL72 per carichi di lavoro di elaborazione ancora più intensivi. Ne combina 36 Grace Blackwell Superchip, di cui 72 GPU Blackwell e 36 CPU Grace interconnessi da NVLink quinta generazione e promette di offrire fino a 30 volte più prestazioni rispetto allo stesso numero di GPU Tensor Core H100 da NVIDIA per carichi di lavoro di inferenza LLM e riduce i costi e il consumo energetico fino a 25 volte.

Il supercomputer AI di prossima generazione

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
Il nuovo DGX SuperPOD con DGX GB200 promette di guidare ulteriormente lo sviluppo dell’intelligenza artificiale. (Immagine: NVIDIA)

Tra gli annunci di NVIDIA intorno all'architettura Blackwell, IL DGXSuperPOD, il prossimo supercomputer dell'azienda con una potenza di calcolo in grado di generare intelligenza artificiale su una scala di trilioni di parametri. Alimentato da superchip Grazia Blackwell GB200, il nuovo DGXSuperPOD è costruito con sistemi NVIDIA DGX™ GB200 e fornisce 11,5 exaflop di supercalcolo AI con precisione FP4 e 240 terabyte di memoria, consentendoti di scalare ulteriormente con rack aggiuntivi.

O DGXSuperPOD è composto da otto o più sistemi DGXGB200, con la capacità di espandersi a decine di migliaia di Superchip GB200 interconnessi attraverso la tecnologia NVIDIA Quantum InfiniBand. Per creare un considerevole spazio di memoria condivisa e supportare i modelli IA di prossima generazione, i clienti possono implementare una configurazione che collega 576 GPU Blackwell presente in otto sistemi DGXGB200 attraverso NVLink.

Il nuovo DGX SuperPOD combina i più recenti progressi nel calcolo accelerato, nelle reti e nel software di NVIDIA per consentire a ogni azienda, settore e paese di perfezionare e generare la propria intelligenza artificiale.

Jensen Huang, fondatore e CEO di NVIDIA.

La nuova DGXSuperPOD è un supercomputer IA completo progettato per la scala dei data center che si integra perfettamente con lo storage ad alte prestazioni fornito dai partner certificati NVIDIA per soddisfare le esigenze dei carichi di lavoro IA generativi. Ogni unità viene assemblata, collegata e testata in fabbrica, garantendo un'implementazione rapida ed efficiente nei data center dei clienti.

Inoltre, il supercomputer è dotato di funzionalità avanzate di gestione predittiva, in grado di monitorare continuamente migliaia di punti dati su hardware e software. Ciò consente di prevedere e correggere possibili fonti di downtime e inefficienza, con conseguente risparmio di tempo, energia e costi computazionali.

Il software integrato è in grado di rilevare potenziali problemi in un sistema, pianificare la manutenzione, adattare in modo flessibile le risorse di elaborazione e persino salvare e riprendere automaticamente le attività per evitare interruzioni, anche in assenza degli amministratori di sistema. Se viene identificata la necessità di sostituire un componente, il cluster può attivare la propria capacità di riserva per garantire che il lavoro in corso venga completato in tempo.

Oltre al nuovo supercomputer, il NVIDIA presentato anche il DGXB200, una piattaforma di supercalcolo IA unificata progettata per l'addestramento, la messa a punto e l'inferenza dei modelli. Presenta il sistema DGXB200, che è la sesta generazione di design DGX montato su rack. Il sistema include otto GPU Nucleo tensore NVIDIA B200 e due processori Intel Xeon 5a generazione.

Offre prestazioni IA fino a 144 petaflop, 1.4 TB di memoria GPU e 64 TB/s di larghezza di banda della memoria, offrendo inferenza in tempo reale 15 volte più veloce per modelli da trilioni di parametri rispetto alla generazione precedente. I sistemi DGXB200 hanno anche funzionalità di rete avanzate, tra cui NIC NVIDIA ConnectXTM-7 e DPU BlueField-3, fornendo fino a 400 gigabit al secondo di larghezza di banda per connessione, garantendo prestazioni IA veloci con le piattaforme di rete NVIDIA Quantum-2 InfiniBand e NVIDIA SpectrumTM-X Ethernet.

O NVIDIA DGXSuperPOD com DGXGB200 e sistemi DGXB200 sarà disponibile nel 2024 per i partner globali di NVIDIA.

Serie X800, i nuovi switch di rete di NVIDIA

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
I nuovi switch NVIDIA sono ottimizzati per l'elaborazione utilizzando trilioni di parametri. (Immagine: NVIDIA)

A NVIDIA annunciato oggi anche il nuovo X800, la serie di switch dell'azienda realizzati per l'elaborazione IA su larga scala. La serie Quantum-X800 InfiniBand e Spettro-X800 Ethernet sono i primi al mondo in grado di offrire un throughput end-to-end di 800 Gb/s, spingendo i limiti delle prestazioni di rete per i carichi di lavoro di elaborazione e intelligenza artificiale.

Questi switch sono dotati di software avanzato che potenzia ulteriormente l'intelligenza artificiale, il cloud computing, l'elaborazione dei dati e le applicazioni HPC (Calcolo ad alte prestazioni) in tutti i tipi di data center. Sono appositamente progettati per integrarsi perfettamente con la linea di prodotti lanciata di recente basata sull'architettura Blackwell da NVIDIA, garantendo prestazioni eccezionali sotto tutti gli aspetti.

Tra i primi ad adottare queste innovazioni ci sono i giganti del cloud computing come Microsoft Azure e Oracle Cloud, evidenziando la rilevanza e l’impatto di questa tecnologia sul progresso dell’IA su scala globale. Inoltre Coreweave, azienda leader nel settore delle infrastrutture di cloud computing, è anche tra i primi ad adottare queste innovazioni, a dimostrazione della rapida accettazione e della rilevanza di questi progressi nel settore.

Questa nuova serie di switch stabilisce un nuovo standard nell'infrastruttura dedicata all'intelligenza artificiale, offrendo le massime prestazioni e funzionalità avanzate per soddisfare le richieste sempre crescenti delle applicazioni cloud e AI aziendali. Con la promessa di miglioramenti significativi nella velocità di elaborazione, analisi ed esecuzione dei carichi di lavoro di intelligenza artificiale, questa tecnologia promette di accelerare lo sviluppo e l’implementazione di soluzioni di intelligenza artificiale in tutto il mondo.

NVIDIA annuncia il simulatore meteorologico AI

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
Il simulatore di modellazione climatica utilizza l'intelligenza artificiale e NVIDIA DGX Cloud per prevedere possibili disastri naturali. (Immagine: NVIDIA)

A NVIDIA annunciato anche oggi, nel corso della GTC 2024, il lancio del suo ultimo simulatore meteorologico, Terra-2, segnando una svolta nel campo della modellistica climatica. Sviluppato con tecnologia di intelligenza artificiale all'avanguardia, Terra-2 offre una piattaforma cloud per simulare e visualizzare il clima globale su una scala senza precedenti.

Una delle caratteristiche più impressionanti del Terra-2 è l'uso di API che impiegano modelli di intelligenza artificiale avanzati, incluso il rivoluzionario CorrDiff, che genera immagini con una risoluzione 12,5 volte maggiore rispetto agli attuali modelli numerici, in una frazione del tempo e del consumo energetico. Questa capacità di generare simulazioni ad alta risoluzione con velocità ed efficienza energetica senza precedenti è un risultato notevole nel campo della modellazione climatica.

Inoltre, il Terra-2 usa il DGX Nube da NVIDIA per fornire piena accelerazione per soluzioni climatiche e meteorologiche, comprese pipeline AI ottimizzate e accelerazione GPU per modelli numerici di previsione meteorologica. Ciò significa che gli utenti di Terra-2 avere accesso a un’ampia gamma di strumenti e risorse per creare simulazioni climatiche accurate e dettagliate su diverse scale, dall’atmosfera globale a specifici eventi meteorologici locali come tifoni e turbolenze.

Aziende come The Weather Company stanno esplorando modi per integrare i dati meteorologici provenienti da Terra-2 con i suoi strumenti di visualizzazione, consentendo ai clienti di comprendere meglio l'impatto delle condizioni meteorologiche reali sulle loro operazioni e pianificazione. Altre aziende, come ad es Guglia e Meteomatica, stanno sfruttando le risorse di Terra-2 per migliorare la precisione delle tue previsioni meteo e fornire informazioni più accurate ai tuoi clienti.

In definitiva, il Terra-2 rappresenta un passo avanti verso una comprensione più profonda e accurata del clima globale e degli eventi meteorologici estremi. Con la sua tecnologia all’avanguardia e un’ampia gamma di potenziali applicazioni, questo nuovo simulatore ha il potenziale per cambiare il modo in cui comprendiamo e ci prepariamo per le sfide climatiche del 21° secolo.

Disponibilità delle API Omniverse Cloud

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
Il servizio cloud NVIDIA consente la disponibilità di API per una maggiore integrazione con app esterne. (Immagine: NVIDIA)

Na GTC 2024, una NVIDIA ha annunciato la disponibilità delle API da Nube dell'onniverso che può essere utilizzato da sviluppatori e aziende, fornendo una maggiore integrazione con i principali software di progettazione e automazione presenti sul mercato.

Con l' API Omniverse Cloud, gli sviluppatori possono ora integrare facilmente le tecnologie principali di Onniverso direttamente nelle applicazioni software esistenti, alimentando la creazione, la simulazione e il funzionamento di gemelli digitali basati sulla fisica. Questo nuovo sviluppo rappresenta una pietra miliare significativa nella capacità delle aziende di progettare, testare e convalidare virtualmente prodotti e processi, anche prima che vengano realizzati nel mondo fisico.

Le cinque nuove API di Nube dell'onniverso, che possono essere utilizzati singolarmente o collettivamente, includono:

  • Rendimento USD – genera rende completamente ray-tracing Dati RTX™ ApertoUSD.
  • Scrittura USD – consente agli utenti di modificare e interagire con i dati ApertoUSD.
  • Domanda in USD – consente query e scenari interattivi.
  • Notifica USD – tiene traccia delle modifiche dell'USD e fornisce aggiornamenti.
  • Canale onniverso – connette utenti, strumenti e mondi per consentire la collaborazione tra le scene.

Grandi nomi del settore stanno già adottando le API da Nube dell'onniverso nei loro portafogli software. Ad esempio, alle aziende piace Siemens, Ansys, Cadence, Dassault Systèmes, tra gli altri, stanno integrando le tecnologie di Onniverso per offrire ai clienti un’esperienza ancora più immersiva e funzionale.

Questi progressi non solo promettono di rivoluzionare il modo in cui le aziende progettano, costruiscono e gestiscono prodotti e processi industriali, ma hanno anche il potenziale per aumentare la competitività, la resilienza e la sostenibilità delle aziende di tutto il mondo.

Le aziende adottano NVIDIA DRIVE Thor nei trasporti

Nvidia mostra la nuova architettura Blackwell durante il GTC 2024. La nuova architettura promette di ridurre i costi operativi per le applicazioni AI fino a 25 volte. L'azienda ha parlato anche di omniverse cloud e molto altro ancora. guardare
Annunciato in precedenza, DRIVE Thor di NVIDIA continua a ricevere il supporto di aziende leader nel mercato automobilistico. (Immagine: NVIDIA)

Finalmente, il NVIDIA ha commentato anche nella sua presentazione al GTC 2024, sull'adozione del DRIVE Thor dal settore dei trasporti e da varie aziende.

O GUIDA Thor è molto più di un semplice computer per auto, è un elemento fondamentale nella trasformazione del settore dei trasporti, guidando qualsiasi cosa, dai veicoli passeggeri ai camion a lunga percorrenza, ai robot-taxi e ai veicoli di consegna autonomi. Con la sua architettura, il Thor offre non solo funzionalità avanzate della cabina di pilotaggio, ma anche una guida automatizzata e autonoma sicura, il tutto su una piattaforma centralizzata, utilizzando processori di nuova architettura Blackwell da NVIDIA, consentendo l'elaborazione con LLM e IA generativa per il processo decisionale.

Diverse aziende leader nel settore dei veicoli elettrici hanno già adottato il GUIDA Thor nei tuoi progetti di prossima generazione. UN BYD, colosso globale dell'industria automobilistica, sta ampliando la sua collaborazione con NVIDIA, incorporando Thor nelle sue flotte di veicoli elettrici. Inoltre Hyper e XPENG sono tra le aziende che hanno scelto il Thor per alimentare le sue future flotte di veicoli autonomi.

Inoltre, DRIVE Thor sta guadagnando importanza nel settore del trasporto merci e della logistica. Alle aziende piace Nuro, Plus, Waabi e WeRide sono all’avanguardia nell’adozione di questo avanzato sistema di intelligenza artificiale per i loro progetti di guida autonoma. Dallo sviluppo di tecnologie di guida per veicoli commerciali e di consumo alla creazione di soluzioni di autotrasporto autonome su larga scala, queste aziende fanno affidamento sulla potenza e sull'efficacia di GUIDA Thor promuovere l’innovazione nei rispettivi campi.

Con il lancio previsto per i veicoli di produzione il prossimo anno, il GUIDA Thor promette di rivoluzionare l’industria automobilistica, con le sue prestazioni e la sua capacità di fornire una guida autonoma affidabile.

Fonte: NVIDIA.

Scopri di più

Recensito da Glaucone Vitale il 18/3/24.


Scopri di più su Showmetech

Iscriviti per ricevere le nostre ultime novità via e-mail.

Lascia un commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

Related posts