Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut

NVIDIA viser ny Blackwell-arkitektur under GTC 2024

Daniel Coutinho Avatar
Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om Omniverse Cloud og mye mer. Sjekk ut

Denne mandagen den 18 NVIDIA gjennomførte sin etterlengtede presentasjon av GTC 2024 (GPU Technology Conference), hyllet av selskapet som "den ledende AI-konferansen for utviklere." Denne årlige begivenheten er en møteplass for eksperter, forskere, utviklere og hobbyfolk, som alle kommer sammen for å utforske og diskutere de siste trendene og innovasjonene innen høyytelses databehandling, kunstig intelligens, maskinlæring, spill og en lang rekke andre områder.

Under årets arrangement avslørte selskapet sin nyeste arkitektur, den Blackwell, dedikert til fremme av kunstig intelligens. I tillegg presenterte han sin nye superdatamaskin, den DGX SuperPOD, nyheter om Omniverse Cloud, sammen med andre fantastiske annonser. Sjekk ut kunngjøringene nedenfor NVIDIA na GTC 2024.

NVIDIAs nye Blackwell-arkitektur

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
Nye NVIDIA Blackwell er plattformen som lover å revolusjonere AI-markedet ytterligere. (Bilde: NVIDIA)

O Blackwell er den innovative nye GPU-arkitekturen fra NVIDIA som lover å definere en ny æra innen databehandling og generativ kunstig intelligens (AI). Med revolusjonerende ressurser i det teknologiske markedet Blackwell er bestemt til å spille en nøkkelrolle i et bredt spekter av bransjer, fra databehandling og automatisering til kvanteberegning.

Generativ AI er vår tids definerende teknologi. Blackwell er motoren som driver denne nye industrielle revolusjonen. Ved å jobbe med verdens mest dynamiske selskaper, vil vi realisere løftet om AI for alle bransjer.

Jensen Huang, grunnlegger og administrerende direktør i NVIDIA.

Med parametere som garanterer opptil 25 ganger lavere driftskostnader og energiforbruk enn forgjengeren Blackwell introduserer revolusjonerende nye teknologier, som muliggjør AI-trening i LLM-modeller (som f ChatGPT) for skalaer på opptil 10 billioner forskjellige parametere, noe som øker muligheten til å tolke data og gi intelligente svar og løsninger betraktelig.

For det første skiller selskapet seg ut som "den kraftigste brikken i verden". Med utrolige 208 milliarder transistorer, GPUer Blackwell produseres ved hjelp av en tilpasset TSMC 4NP-prosess, og setter en ny standard for kraft og effektivitet. Arkitekturen bruker en unik tilnærming med to trådkors per GPU-brikke, sammenkoblet via en 10 TB/sekund brikke-til-brikke-kobling, noe som resulterer i en enkelt enhetlig GPU med enestående behandlingsevner.

Drevet av ny skaleringsstøtte mikro-strammer og avanserte algoritmer for administrasjon av dynamisk område, vil tillate arkitekturen Blackwell dobbel datakraft og modellstørrelser, som leverer nye flytende-punkts AI-inferensfunksjoner (flytepunkt) 4-bit.

O NV Link 5. generasjon er en annen viktig teknologi, som gir en gjennomstrømning Innovativ toveis 1,8 TB/s per GPU. Dette muliggjør høyhastighetskommunikasjon mellom opptil 576 GPUer, og akselererer ytelsen til komplekse AI-modeller med flere billioner av parametere og en blanding av eksperter.

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
Blackwell-arkitekturen er i stand til å gi mer ytelse med mindre energiforbruk. (Bilde: NVIDIA)

I tillegg, Blackwell GPUer inkludere RAS motor (Pålitelighet, tilgjengelighet e service~~POS=TRUNC, på engelsk), med en dedikert motor for å sikre pålitelighet, tilgjengelighet og servicevennlighet. Arkitekturen bruker også AI-basert forebyggende vedlikehold for å diagnostisere og forutsi pålitelighetsproblemer, maksimere systemets oppetid og redusere driftskostnadene i storskala AI-implementeringer.

Sikkerhet er en prioritet og i nye arkitekturer Blackwell Avanserte konfidensielle databehandlingsmuligheter vil bli gitt. Dette beskytter AI-modeller og kundedata uten å gå på bekostning av ytelsen, med støtte for nye native grensesnittkrypteringsprotokoller, spesielt viktig for personvernsensitive bransjer som helsevesen og finansielle tjenester.

Til slutt akselererer den dedikerte dekompresjonsmotoren databasespørringer for å levere den høyeste ytelsen innen dataanalyse og datavitenskap. Denne funksjonaliteten er avgjørende med tanke på det økende datavolumet og etterspørselen etter rask og effektiv analyse.

Sammen posisjonerer disse nye teknologiene arkitekturen Blackwell som en ubestridt leder innen kraft, effektivitet og sikkerhet for AI, HPC og dataanalyseapplikasjoner i fremtiden for prosesseringsmarkedet.

Teknologiavledede produkter Blackwell vil være klar for markedet gjennom strategiske partnerskap senere i år. Blant pionerene i å tilby teknologidrevne skytjenester Blackwell, gigantene skiller seg ut AWS, Google Cloud, Microsoft Azure og Oracle Cloud, samt deltakere i selskapets skypartnerskapsprogram NVIDIASom Applied Digital, CoreWeave, Crusoe, IBM Cloud og Lambda. I tillegg kan AI-plattformer som f.eks Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud og Oracle EU Sovereign Cloud, blant annet, vil også tilby sky- og infrastrukturtjenester ved hjelp av Blackwell.

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
Ny GB200 Grace Blackwell-brikke vil bli brukt i den nye DGX SuperPOD ved å bruke den nye plattformen. (Bilde: NVIDIA)

I tillegg NVIDIA presenterte også en ny superchip som ble muliggjort takket være teknologi Blackwellen NVIDIA GB200 Grace Blackwell. Denne nye brikken kobler sammen to NVIDIA B200 Tensor GPUer Kjerne à cpu nåde da NVIDIA via en ultra-laveffekt chip-til-chip-forbindelse NV Link på 900 GB/s. Plattformen fungerer som en enkelt GPU med 1,4 eksaflops AI-ytelse og 30 TB raskt minne, og er en byggestein for det siste DGX SuperPOD, som vi vil kommentere nedenfor.

Den nye GB200 vil være en del av systemet NVIDIA GB200 NVL72 for enda mer intensive dataarbeidsmengder. Den kombinerer 36 Grace Blackwell Superchips, som inkluderer 72 Blackwell GPUer e 36 Grace CPUer sammenkoblet av NV Link femte generasjon og lover å tilby opptil 30 ganger mer ytelse sammenlignet med samme antall Tensor Core H100 GPUer da NVIDIA for LLM-inferensarbeidsbelastninger, og reduserer kostnader og strømforbruk med opptil 25x.

Neste generasjons AI-superdatamaskin

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
Ny DGX SuperPOD med DGX GB200 lover å drive AI-utvikling ytterligere. (Bilde: NVIDIA)

Blant kunngjøringene av NVIDIA rundt arkitektur Blackwell, den DGX SuperPOD, selskapets neste superdatamaskin med AI-genererende datakraft på en skala av billioner av parametere. Drevet av superchips Grace Blackwell GB200, den nye DGX SuperPOD er bygget med systemer NVIDIA DGXTM GB200 og gir 11,5 exaflops med AI-superdatabehandling med FP4-presisjon og 240 terabyte minne, slik at du kan skalere ytterligere med ekstra rack.

O DGX SuperPOD består av åtte eller flere systemer DGX GB200, med muligheten til å utvide til titusenvis av GB200 Superchips koblet sammen gjennom teknologi NVIDIA Quantum InfiniBand. For å skape betydelig delt minneplass og støtte neste generasjons AI-modeller, kan kunder implementere en konfigurasjon som kobler sammen 576 GPUer Blackwell finnes i åtte systemer DGX GB200 gjennom NV Link.

Den nye DGX SuperPOD kombinerer de siste fremskrittene innen akselerert databehandling, nettverk og programvare fra NVIDIA for å gjøre det mulig for alle bedrifter, bransjer og land å foredle og generere sin egen AI.

Jensen Huang, grunnlegger og administrerende direktør i NVIDIA.

Den nye DGX SuperPOD er en komplett AI-superdatamaskin designet for datasenterskala som sømløst integreres med høyytelseslagring levert av NVIDIA-sertifiserte partnere for å møte kravene til generative AI-arbeidsbelastninger. Hver enhet er satt sammen, koblet til og testet på fabrikken, noe som resulterer i rask og effektiv distribusjon i kundenes datasentre.

I tillegg er superdatamaskinen utstyrt med avanserte prediktive administrasjonsfunksjoner, som er i stand til kontinuerlig å overvåke tusenvis av datapunkter på tvers av maskinvare og programvare. Dette lar deg forutsi og korrigere mulige kilder til nedetid og ineffektivitet, noe som resulterer i besparelser i tid, energi og beregningskostnader.

Den integrerte programvaren er i stand til å oppdage potensielle problemer i et system, planlegge vedlikehold, fleksibelt justere dataressurser og til og med automatisk lagre og gjenoppta oppgaver for å unngå avbrudd, selv i fravær av systemadministratorer. Dersom det identifiseres behov for å erstatte en komponent, kan klyngen aktivere sin reservekapasitet for å sikre at arbeidet som pågår fullføres i tide.

I tillegg til den nye superdatamaskinen NVIDIA presenterte også DGX B200, en enhetlig AI-superdatabehandlingsplattform designet for modelltrening, finjustering og inferens. Den presenterer systemet DGX B200, som er sjette generasjon design DGX stativ montert. Systemet inkluderer åtte GPUer NVIDIA B200 Tensor Core og to prosessorer Intel Xeon 5. generasjon.

Den leverer AI-ytelse på opptil 144 petaflops, 1.4 TB GPU-minne og 64 TB/s minnebåndbredde, og leverer 15 ganger raskere sanntidsslutning for modeller med billioner av parametere sammenlignet med forrige generasjon. Systemene DGX B200 har også avanserte nettverksfunksjoner, inkludert NVIDIA ConnectXTM-7 nettverkskort e BlueField-3 DPUer, gir opptil 400 gigabit per sekund med båndbredde per tilkobling, og sikrer rask AI-ytelse med nettverksplattformer NVIDIA Quantum-2 InfiniBand e NVIDIA SpectrumTM-X Ethernet.

O NVIDIA DGX SuperPOD com DGX GB200 og systemer DGX B200 vil være tilgjengelig i 2024 for globale partnere av NVIDIA.

X800-serien, NVIDIAs nye nettverkssvitsjer

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
Nye NVIDIA-svitsjer er optimalisert for behandling ved hjelp av billioner av parametere. (Bilde: NVIDIA)

A NVIDIA kunngjorde også i dag den nye X800, selskapets serie med brytere laget for storskala AI-behandling. Seriene Quantum-X800 InfiniBand e Spectrum-X800 Ethernet er verdens første i stand til 800 Gb/s ende-til-ende-gjennomstrømning, og presser grensene for nettverksytelse for databehandling og AI-arbeidsbelastninger.

Disse bryterne har avansert programvare som driver AI, cloud computing, databehandling og HPC-applikasjoner ytterligere (High Performance Computing) i alle typer datasentre. De er spesialdesignet for å integrere sømløst med den nylig lanserte serien med produkter basert på arkitekturen Blackwell da NVIDIA, som sikrer eksepsjonell ytelse i alle aspekter.

Blant de tidlige brukerne av disse innovasjonene er cloud computing-giganter som Microsoft Azure og Oracle Cloud, som fremhever relevansen og virkningen av denne teknologien på utviklingen av AI på global skala. I tillegg Kjernevev, et ledende cloud computing-infrastrukturselskap, er også blant de tidlige brukerne av disse innovasjonene, noe som viser den raske aksepten og relevansen av disse fremskrittene i bransjen.

Denne nye bryterserien setter en ny standard innen AI-dedikert infrastruktur, og tilbyr den høyeste ytelsen og avanserte funksjoner for å møte de stadig økende kravene til sky- og enterprise AI-applikasjoner. Med løfter om betydelige forbedringer i hastigheten på prosessering, analyse og utførelse av AI-arbeidsbelastninger, lover denne teknologien å akselerere utviklingen og distribusjonen av AI-løsninger over hele verden.

NVIDIA kunngjør AI værsimulator

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
Klimamodelleringssimulator bruker AI og NVIDIA DGX Cloud for å forutsi mulige naturkatastrofer. (Bilde: NVIDIA)

A NVIDIA også annonsert i dag, under GTC 2024, lanseringen av sin nyeste værsimulator, Jorden-2, som markerer et gjennombrudd innen klimamodellering. Utviklet med banebrytende kunstig intelligens-teknologi, Jorden-2 tilbyr en skyplattform for å simulere og visualisere globalt klima i en enestående skala.

En av de mest imponerende egenskapene til Jorden-2 er bruken av API-er som bruker avanserte AI-modeller, inkludert de revolusjonerende CorrDiff, som genererer bilder med 12,5 ganger høyere oppløsning enn dagens numeriske modeller, i en brøkdel av tid og energiforbruk. Denne evnen til å generere høyoppløselige simuleringer med enestående hastighet og energieffektivitet er en bemerkelsesverdig prestasjon innen klimamodellering.

i tillegg Jorden-2 bruker DGX Cloud da NVIDIA å gi full akselerasjon for klima- og værløsninger, inkludert optimaliserte AI-rørledninger og GPU-akselerasjon for numeriske værprediksjonsmodeller. Dette betyr at brukere av Jorden-2 ha tilgang til et bredt spekter av verktøy og ressurser for å lage nøyaktige og detaljerte klimasimuleringer i ulike skalaer, fra den globale atmosfæren til spesifikke lokale værhendelser som tyfoner og turbulens.

Bedrifter som Værfirmaet utforsker måter å integrere meteorologiske data fra Jorden-2 med visualiseringsverktøyene, som lar kundene bedre forstå virkningen av virkelige værforhold på deres operasjoner og planlegging. Andre selskaper, som f.eks Spire og Meteomatics, utnytter ressursene til Jorden-2 for å forbedre nøyaktigheten av værmeldingene dine og gi mer nøyaktig innsikt til kundene dine.

Til syvende og sist, den Jorden-2 representerer et skritt mot en dypere og mer nøyaktig forståelse av globalt klima og ekstreme værhendelser. Med sin banebrytende teknologi og brede spekter av potensielle bruksområder, har denne nye simulatoren potensial til å endre måten vi forstår og forbereder oss på klimautfordringene i det 21. århundre.

Tilgjengelighet av Omniverse Cloud APIer

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
NVIDIA skytjeneste muliggjør tilgjengelighet av APIer for større integrasjon med eksterne apper. (Bilde: NVIDIA)

Na GTC 2024en NVIDIA annonserte tilgjengeligheten av APIer fra Omniverse Cloud som kan brukes av utviklere og selskaper, og gir større integrasjon med hoveddesign- og automatiseringsprogramvaren på markedet.

Med Omniverse Cloud APIer, kan utviklere nå enkelt integrere kjerneteknologiene til omniverset direkte inn i eksisterende programvareapplikasjoner, som driver opprettelsen, simuleringen og driften av fysikkbaserte digitale tvillinger. Denne nye utviklingen representerer en betydelig milepæl i bedrifters evne til å designe, teste og validere produkter og prosesser virtuelt, selv før de bygges i den fysiske verden.

De fem nye API-ene til Omniverse Cloud, som kan brukes individuelt eller samlet, inkluderer:

  • USD avkastning – genererer gjengir helt strålesporet Data RTXTM OpenUSD.
  • USD Skriv – lar brukere endre og samhandle med data OpenUSD.
  • USD spørring – tillater interaktive spørringer og scenarier.
  • USD Varsle – sporer endringer i USD og gir oppdateringer.
  • Omniverse-kanalen – kobler sammen brukere, verktøy og verdener for å muliggjøre samarbeid på tvers av scener.

Store navn i bransjen tar allerede i bruk APIer fra Omniverse Cloud i deres programvareporteføljer. For eksempel bedrifter som Siemens, Ansys, Cadence, Dassault Systèmes, blant andre, integrerer teknologiene til omniverset å tilby kundene en enda mer oppslukende og funksjonell opplevelse.

Disse fremskrittene lover ikke bare å revolusjonere måten selskaper designer, bygger og driver industrielle produkter og prosesser på, men har også potensial til å øke konkurranseevnen, motstandskraften og bærekraften til selskaper over hele verden.

Selskaper adopterer NVIDIA DRIVE Thor i transport

Nvidia viser ny Blackwell-arkitektur under GTC 2024. Ny arkitektur lover å redusere driftskostnadene for AI-applikasjoner med opptil 25 ganger. Selskapet snakket også om omniverse-sky og mye mer. Sjekk ut
Tidligere annonsert, fortsetter NVIDIAs DRIVE Thor å motta støtte fra ledende selskaper i bilmarkedet. (Bilde: NVIDIA)

Por último, en NVIDIA kommenterte også i sin presentasjon på GTC 2024, om vedtakelsen av KJØRE Thor av transportsektoren og ulike bedrifter.

O KJØR Thor er mye mer enn en enkel bildatamaskin, den er en grunnleggende brikke i transformasjonen av transportsektoren, og kjører alt fra personbiler til langdistanselastebiler, robotaxier og autonome leveringskjøretøyer. Med sin arkitektur, den Thor tilbyr ikke bare avanserte cockpit-funksjoner, men også sikker automatisert og autonom kjøring, alt på en sentralisert plattform, ved hjelp av nye arkitekturprosessorer Blackwell da NVIDIA, som muliggjør behandling med LLM og generative AI-er for beslutningstaking.

Flere ledende selskaper innen elbilsektoren har allerede tatt i bruk dette KJØR Thor i neste generasjons prosjekter. EN BYD, en global gigant innen bilindustrien, utvider samarbeidet med NVIDIA, som inkorporerer Thor i sine elektriske kjøretøyflåter. I tillegg Hyper og XPENG er blant selskapene som valgte Thor å drive sine fremtidige flåter av autonome kjøretøy.

Videre er DRIVE Thor stadig mer fremtredende innen godstransport og logistikk. Bedrifter liker Nuro, Plus, Waabi og WeRide leder an i å ta i bruk dette avanserte AI-systemet for sine autonome kjøringsprosjekter. Fra å utvikle kjøreteknologier for kommersielle kjøretøy og forbrukerkjøretøyer til å lage autonome lastebilløsninger i stor skala, stoler disse selskapene på kraften og effektiviteten til KJØR Thor å drive innovasjon på sine respektive felt.

Med lanseringen planlagt for produksjonskjøretøy neste år, KJØR Thor lover å revolusjonere bilindustrien, med sin ytelse og sin evne til å gi pålitelig autonom kjøring.

Kilde: NVIDIA.

se mer

Anmeldt av Glaucon Vital den 18.


Oppdag mer om Showmetech

Registrer deg for å motta siste nytt på e-post.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Relaterte innlegg