Index
An diesem Montag, dem 18., der NVIDIA hielt seine lang erwartete Präsentation des AGB 2024 (GPU-Technologie-Konferenz), vom Unternehmen als „die führende KI-Konferenz für Entwickler“ gefeiert. Diese jährliche Veranstaltung ist ein Treffpunkt für Experten, Forscher, Entwickler und Hobbyisten, die alle zusammenkommen, um die neuesten Trends und Innovationen in den Bereichen Hochleistungsrechnen, künstliche Intelligenz, maschinelles Lernen, Gaming und einer Vielzahl anderer Bereiche zu erkunden und zu diskutieren.
Während der diesjährigen Veranstaltung stellte das Unternehmen seine neueste Architektur vor, die Blackwell, das sich der Weiterentwicklung der künstlichen Intelligenz widmet. Darüber hinaus stellte er seinen neuen Supercomputer vor DGX SuperPOD, Neuigkeiten über die Omniverse Wolke, zusammen mit anderen tollen Anzeigen. Schauen Sie sich die Ankündigungen unten an NVIDIA na AGB 2024.
NVIDIAs neue Blackwell-Architektur

O Blackwell ist die innovative neue GPU-Architektur von NVIDIA das verspricht, eine neue Ära in der Informatik und der generativen künstlichen Intelligenz (KI) einzuläuten. Mit revolutionären Ressourcen auf dem Technologiemarkt, der Blackwell ist dazu bestimmt, eine Schlüsselrolle in einer Vielzahl von Branchen zu spielen, von der Datenverarbeitung und Automatisierung bis hin zum Quantencomputing.
Generative KI ist die prägende Technologie unserer Zeit. Blackwell ist der Motor dieser neuen industriellen Revolution. Durch die Zusammenarbeit mit den dynamischsten Unternehmen der Welt werden wir das Potenzial von KI für jede Branche verwirklichen.
Jensen Huang, Gründer und CEO von NVIDIA.
Mit Parametern, die bis zu 25-mal niedrigere Betriebskosten und Energieverbrauch als sein Vorgänger garantieren Blackwell führt revolutionäre neue Technologien ein und ermöglicht das KI-Training in LLM-Modellen (z. B ChatGPT) für Skalen von bis zu 10 Billionen verschiedenen Parametern, was die Fähigkeit, Daten zu interpretieren und intelligente Antworten und Lösungen bereitzustellen, erheblich erhöht.
Erstens zeichnet sich das Unternehmen selbst als „der leistungsstärkste Chip der Welt“ aus. Mit unglaublichen 208 Milliarden Transistoren, GPUs Blackwell werden mit einem maßgeschneiderten TSMC 4NP-Verfahren hergestellt und setzen einen neuen Standard für Leistung und Effizienz. Die Architektur nutzt einen einzigartigen Ansatz mit zwei Reticles pro GPU-Chip, die über eine Chip-zu-Chip-Verbindung mit 10 TB/Sekunde miteinander verbunden sind, was zu einer einzigen einheitlichen GPU mit beispiellosen Verarbeitungsfähigkeiten führt.
Unterstützt durch neue Skalierungsunterstützung Mikrospanner und fortschrittliche Algorithmen zur Verwaltung des dynamischen Bereichs werden die Architektur ermöglichen Blackwell Verdoppelung der Rechenleistung und Modellgröße und Bereitstellung neuer Gleitkomma-KI-Inferenzfunktionen (Gleitkommazahlen) 4-Bit.
O NVLink Die 5. Generation ist eine weitere entscheidende Technologie und bietet eine Durchsatz Innovative bidirektionale 1,8 TB/s pro GPU. Dies ermöglicht eine Hochgeschwindigkeitskommunikation zwischen bis zu 576 GPUs und beschleunigt die Leistung komplexer KI-Modelle mit mehreren Billionen Parametern und einem Expertenmix.

Und dazu, Blackwell-GPUs umfassen die RAS-Engine (Zuverlässigkeit, Verfügbarkeit e Wartungsfreundlichkeit, auf Englisch), mit einem speziellen Motor, um Zuverlässigkeit, Verfügbarkeit und Wartungsfreundlichkeit zu gewährleisten. Die Architektur nutzt außerdem KI-basierte vorbeugende Wartung, um Zuverlässigkeitsprobleme zu diagnostizieren und vorherzusagen, wodurch die Systemverfügbarkeit maximiert und die Betriebskosten bei groß angelegten KI-Einsätzen gesenkt werden.
Sicherheit ist eine Priorität und in neuen Architekturen Blackwell Es werden erweiterte Möglichkeiten zur vertraulichen Datenverarbeitung bereitgestellt. Dies schützt KI-Modelle und Kundendaten, ohne die Leistung zu beeinträchtigen, und unterstützt neue native Schnittstellenverschlüsselungsprotokolle, die besonders wichtig für datenschutzrelevante Branchen wie das Gesundheitswesen und Finanzdienstleistungen sind.
Schließlich beschleunigt die dedizierte Dekomprimierungs-Engine Datenbankabfragen, um höchste Leistung bei der Datenanalyse und Datenwissenschaft zu liefern. Diese Funktionalität ist angesichts der wachsenden Datenmenge und der Nachfrage nach schnellen und effizienten Analysen von entscheidender Bedeutung.
Zusammen positionieren diese neuen Technologien die Architektur Blackwell als unangefochtener Marktführer in Sachen Leistung, Effizienz und Sicherheit für KI-, HPC- und Datenanalyseanwendungen im zukünftigen Verarbeitungsmarkt.
Von der Technologie abgeleitete Produkte Blackwell wird durch strategische Partnerschaften noch in diesem Jahr marktreif sein. Einer der Pioniere bei der Bereitstellung technologiegesteuerter Cloud-Dienste Blackwell, die Giganten fallen auf AWS, Google Cloud, Microsoft Azure und Oracle Cloudsowie Teilnehmer am Cloud-Partnerschaftsprogramm des Unternehmens NVIDIAAls Applied Digital, CoreWeave, Crusoe, IBM Cloud und Lambda. Darüber hinaus sind KI-Plattformen wie z Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud und Oracle EU Sovereign Cloudwird unter anderem auch Cloud- und Infrastrukturdienste über das bereitstellen Blackwell.

Ferner die NVIDIA stellte außerdem einen neuen Superchip vor, der dank Technologie möglich wurde Blackwelloder NVIDIA GB200 Grace Blackwell. Dieser neue Chip verbindet zwei NVIDIA B200 Tensor-GPUs Core à CPU-Gnade da NVIDIA über eine Chip-zu-Chip-Verbindung mit extrem geringem Stromverbrauch NVLink von 900 GB/s. Die Plattform fungiert als einzelne GPU mit 1,4 Exaflops KI-Leistung und 30 TB schnellem Speicher und ist ein Baustein für die neueste Version DGX SuperPOD, zu dem wir weiter unten Stellung nehmen werden.
Die neue GB200 wird Teil des Systems sein NVIDIA GB200 NVL72 für noch intensivere Rechenlasten. Es vereint 36 Grace Blackwell Superchips, darunter 72 Blackwell-GPUs und 36 Grace-CPUs miteinander verbunden durch NVLink fünfte Generation und verspricht bis zu 30-mal mehr Leistung im Vergleich zur gleichen Anzahl von Tensor Core H100-GPUs da NVIDIA für LLM-Inferenz-Workloads und reduziert Kosten und Stromverbrauch um das bis zu 25-fache.
Der KI-Supercomputer der nächsten Generation

Unter den Ankündigungen von NVIDIA rund um die Architektur Blackwell, es wurde die vorgestellt DGX SuperPOD, der nächste Supercomputer des Unternehmens mit KI-generierender Rechenleistung in der Größenordnung von Billionen Parametern. Angetrieben von Superchips Grace Blackwell GB200, das neue DGX SuperPOD wird mit System gebaut NVIDIA DGXTM GB200 und bietet 11,5 Exaflops KI-Supercomputing mit FP4-Präzision und 240 Terabyte Speicher, sodass Sie mit zusätzlichen Racks weiter skalieren können.
O DGX SuperPOD besteht aus acht oder mehr Systemen DGX GB200, mit der Möglichkeit, auf Zehntausende zu erweitern GB200-Superchips durch Technologie miteinander verbunden NVIDIA Quantum InfiniBand. Um beträchtlichen gemeinsamen Speicherraum zu schaffen und KI-Modelle der nächsten Generation zu unterstützen, können Kunden eine Konfiguration implementieren, die 576 GPUs verbindet Blackwell in acht Systemen vorhanden DGX GB200 durch NVLink.
Der neue DGX SuperPOD vereint die neuesten Fortschritte in den Bereichen beschleunigtes Computing, Netzwerk und Software von NVIDIA, um es jedem Unternehmen, jeder Branche und jedem Land zu ermöglichen, seine eigene KI zu verfeinern und zu generieren.
Jensen Huang, Gründer und CEO von NVIDIA.
Die neue DGX SuperPOD ist ein kompletter KI-Supercomputer, der für die Größe von Rechenzentren entwickelt wurde und sich nahtlos in Hochleistungsspeicher von NVIDIA-zertifizierten Partnern integrieren lässt, um den Anforderungen generativer KI-Workloads gerecht zu werden. Jede Einheit wird im Werk zusammengebaut, angeschlossen und getestet, was zu einer schnellen und effizienten Bereitstellung in den Rechenzentren der Kunden führt.
Darüber hinaus ist der Supercomputer mit fortschrittlichen prädiktiven Managementfunktionen ausgestattet, die in der Lage sind, Tausende von Datenpunkten über Hardware und Software hinweg kontinuierlich zu überwachen. Dadurch können Sie mögliche Ursachen für Ausfallzeiten und Ineffizienz vorhersagen und korrigieren, was zu Einsparungen bei Zeit, Energie und Rechenkosten führt.
Die integrierte Software ist in der Lage, potenzielle Probleme in einem System zu erkennen, Wartungsarbeiten zu planen, Rechenressourcen flexibel anzupassen und sogar Aufgaben automatisch zu speichern und fortzusetzen, um Unterbrechungen zu vermeiden, selbst wenn kein Systemadministrator anwesend ist. Wenn festgestellt wird, dass eine Komponente ausgetauscht werden muss, kann der Cluster seine Reservekapazitäten aktivieren, um sicherzustellen, dass die laufenden Arbeiten rechtzeitig abgeschlossen werden.
Neben dem neuen Supercomputer, dem NVIDIA präsentierte auch die DGX B200, eine einheitliche KI-Supercomputing-Plattform für Modelltraining, Feinabstimmung und Inferenz. Es stellt das System vor DGX B200, das ist die sechste Generation von Designs DGX Rack montiert. Das System umfasst acht GPUs NVIDIA B200 Tensor Core und zwei Prozessoren Intel Xeon 5. Generation.
Es bietet eine KI-Leistung von bis zu 144 Petaflops, 1.4 TB GPU-Speicher und 64 TB/s Speicherbandbreite und ermöglicht im Vergleich zur Vorgängergeneration eine 15-mal schnellere Echtzeitinferenz für Modelle mit Billionen Parametern. Die Systeme DGX B200 verfügen außerdem über erweiterte Netzwerkfunktionen, darunter NVIDIA ConnectXTM-7-NICs e BlueField-3-DPUsBietet eine Bandbreite von bis zu 400 Gigabit pro Sekunde pro Verbindung und gewährleistet so eine schnelle KI-Leistung mit Netzwerkplattformen NVIDIA Quantum-2 InfiniBand e NVIDIA SpectrumTM-X Ethernet.
O NVIDIA DGX SuperPOD com DGX GB200 und Systeme DGX B200 wird im Jahr 2024 für globale Partner von verfügbar sein NVIDIA.
X800-Serie, NVIDIAs neue Netzwerk-Switches

A NVIDIA kündigte heute auch das neue an X800, die Switch-Serie des Unternehmens für die KI-Verarbeitung im großen Maßstab. Die Serie Quantum-X800 InfiniBand e Spectrum-X800 Ethernet sind die weltweit ersten, die einen End-to-End-Durchsatz von 800 Gbit/s erreichen und damit die Grenzen der Netzwerkleistung für Rechen- und KI-Workloads verschieben.
Diese Switches verfügen über fortschrittliche Software, die KI, Cloud Computing, Datenverarbeitung und HPC-Anwendungen weiter vorantreibt (High Performance Computing) in allen Arten von Rechenzentren. Sie sind speziell für die nahtlose Integration in die kürzlich eingeführte Produktlinie auf Basis der Architektur konzipiert Blackwell da NVIDIA, was eine außergewöhnliche Leistung in allen Aspekten gewährleistet.
Zu den ersten Anwendern dieser Innovationen zählen Cloud-Computing-Giganten wie Microsoft Azure und Oracle Cloud, was die Relevanz und den Einfluss dieser Technologie auf die Weiterentwicklung der KI auf globaler Ebene hervorhebt. Zusätzlich Kerngewebe, ein führendes Unternehmen für Cloud-Computing-Infrastruktur, gehört ebenfalls zu den ersten Anwendern dieser Innovationen und demonstriert damit die schnelle Akzeptanz und Relevanz dieser Fortschritte in der Branche.
Diese neue Switch-Serie setzt einen neuen Standard in der KI-spezifischen Infrastruktur und bietet höchste Leistung und erweiterte Funktionen, um den ständig steigenden Anforderungen von Cloud- und Unternehmens-KI-Anwendungen gerecht zu werden. Mit dem Versprechen erheblicher Verbesserungen bei der Geschwindigkeit der Verarbeitung, Analyse und Ausführung von KI-Workloads verspricht diese Technologie, die Entwicklung und Bereitstellung von KI-Lösungen auf der ganzen Welt zu beschleunigen.
NVIDIA kündigt KI-Wettersimulator an

A NVIDIA auch heute angekündigt, während der AGB 2024, der Start seines neuesten Wettersimulators, Erde-2Dies markiert einen Durchbruch auf dem Gebiet der Klimamodellierung. Entwickelt mit modernster künstlicher Intelligenz-Technologie, Erde-2 bietet eine Cloud-Plattform zur Simulation und Visualisierung des globalen Klimas in einem noch nie dagewesenen Ausmaß.
Eines der beeindruckendsten Merkmale des Erde-2 ist die Verwendung von APIs, die fortschrittliche KI-Modelle nutzen, darunter auch revolutionäre KorrDiff, das Bilder mit einer 12,5-mal höheren Auflösung als aktuelle numerische Modelle erzeugt, und das in einem Bruchteil der Zeit und des Energieverbrauchs. Diese Fähigkeit, hochauflösende Simulationen mit beispielloser Geschwindigkeit und Energieeffizienz zu erstellen, ist eine bemerkenswerte Errungenschaft auf dem Gebiet der Klimamodellierung.
Darüber hinaus ist die Erde-2 nutzt die DGX-Cloud da NVIDIA Bereitstellung umfassender Beschleunigung für Klima- und Wetterlösungen, einschließlich optimierter KI-Pipelines und GPU-Beschleunigung für numerische Wettervorhersagemodelle. Dies bedeutet, dass Benutzer von Erde-2 Sie haben Zugriff auf eine breite Palette von Werkzeugen und Ressourcen, um genaue und detaillierte Klimasimulationen auf verschiedenen Skalen zu erstellen, von der globalen Atmosphäre bis hin zu spezifischen lokalen Wetterereignissen wie Taifunen und Turbulenzen.
Unternehmen wie Das Wetter Gesellschaft erforschen Möglichkeiten, meteorologische Daten aus dem zu integrieren Erde-2 Mit seinen Visualisierungstools können Kunden die Auswirkungen realer Wetterbedingungen auf ihren Betrieb und ihre Planung besser verstehen. Andere Unternehmen, wie z Spire und Meteomatik, nutzen die Ressourcen von Erde-2 um die Genauigkeit Ihrer Wettervorhersagen zu verbessern und Ihren Kunden genauere Erkenntnisse zu liefern.
Letztlich die Erde-2 stellt einen Schritt hin zu einem tieferen und genaueren Verständnis des globalen Klimas und extremer Wetterereignisse dar. Mit seiner Spitzentechnologie und einem breiten Spektrum möglicher Anwendungen hat dieser neue Simulator das Potenzial, die Art und Weise zu verändern, wie wir die Klimaherausforderungen des 21. Jahrhunderts verstehen und uns darauf vorbereiten.
Verfügbarkeit von Omniverse Cloud APIs

Na AGB 2024herunter, eine NVIDIA kündigte die Verfügbarkeit von APIs von an Omniverse Wolke die von Entwicklern und Unternehmen genutzt werden kann und eine bessere Integration mit der wichtigsten Design- und Automatisierungssoftware auf dem Markt ermöglicht.
Mit dem Omniverse Cloud-APIskönnen Entwickler jetzt problemlos die Kerntechnologien von integrieren Omniversum direkt in bestehende Softwareanwendungen integrieren und so die Erstellung, Simulation und den Betrieb physikbasierter digitaler Zwillinge ermöglichen. Diese neue Entwicklung stellt einen bedeutenden Meilenstein für die Fähigkeit von Unternehmen dar, Produkte und Prozesse virtuell zu entwerfen, zu testen und zu validieren, noch bevor sie in der physischen Welt gebaut werden.
Die fünf neuen APIs von Omniverse Wolke, die einzeln oder gemeinsam verwendet werden können, umfassen:
- USD-Rendite – erzeugt macht total Raytracing Daten RTXTM OpenUSD.
- USD schreiben – ermöglicht es Benutzern, Daten zu ändern und mit ihnen zu interagieren OpenUSD.
- USD-Abfrage – ermöglicht interaktive Abfragen und Szenarien.
- USD-Benachrichtigung – verfolgt USD-Änderungen und stellt Updates bereit.
- Omniverse-Kanal – verbindet Benutzer, Tools und Welten, um eine szeneübergreifende Zusammenarbeit zu ermöglichen.
Große Namen der Branche übernehmen bereits APIs von Omniverse Wolke in ihren Software-Portfolios. Zum Beispiel mögen Unternehmen Siemens, Ansys, Cadence, Dassault Systèmes, unter anderem, integrieren die Technologien von Omniversum um den Kunden ein noch intensiveres und funktionaleres Erlebnis zu bieten.
Diese Fortschritte versprechen nicht nur, die Art und Weise, wie Unternehmen industrielle Produkte und Prozesse entwerfen, bauen und betreiben, zu revolutionieren, sondern haben auch das Potenzial, die Wettbewerbsfähigkeit, Widerstandsfähigkeit und Nachhaltigkeit von Unternehmen auf der ganzen Welt zu steigern.
Unternehmen setzen NVIDIA DRIVE Thor im Transportwesen ein

Endlich, die NVIDIA äußerte sich auch in seinem Vortrag auf der AGB 2024, über die Annahme des FAHREN Thor durch den Transportsektor und verschiedene Unternehmen.
O FAHRT Thor ist viel mehr als ein einfacher Autocomputer, er ist ein grundlegender Bestandteil der Transformation des Transportsektors und steuert alles von Personenkraftwagen über Fernlastkraftwagen bis hin zu Robotertaxis und autonomen Lieferfahrzeugen. Mit seiner Architektur ist das Thor bietet nicht nur erweiterte Cockpit-Funktionen, sondern auch sicheres automatisiertes und autonomes Fahren, alles auf einer zentralen Plattform und unter Verwendung neuer Architekturprozessoren Blackwell da NVIDIADies ermöglicht die Verarbeitung mit LLM und generativen KIs zur Entscheidungsfindung.
Mehrere führende Unternehmen im Elektrofahrzeugsektor haben das bereits übernommen FAHRT Thor in Ihren Projekten der nächsten Generation. A BYD, ein globaler Gigant der Automobilindustrie, weitet seine Zusammenarbeit mit aus NVIDIAund integriert Thor in seine Elektrofahrzeugflotten. Zusätzlich Hyper und XPENG gehören zu den Unternehmen, die sich für entschieden haben Thor um seine zukünftigen Flotten autonomer Fahrzeuge anzutreiben.
Darüber hinaus gewinnt DRIVE Thor im Gütertransport- und Logistiksektor zunehmend an Bedeutung. Unternehmen mögen Nuro, Plus, Waabi und WeRide sind Vorreiter bei der Einführung dieses fortschrittlichen KI-Systems für ihre autonomen Fahrprojekte. Von der Entwicklung von Antriebstechnologien für Nutz- und Verbraucherfahrzeuge bis hin zur groß angelegten Entwicklung autonomer Lkw-Lösungen verlassen sich diese Unternehmen auf die Leistungsfähigkeit und Effektivität von FAHRT Thor Innovationen in ihren jeweiligen Bereichen voranzutreiben.
Die Markteinführung für Serienfahrzeuge ist im nächsten Jahr geplant FAHRT Thor verspricht mit seiner Leistung und seiner Fähigkeit, zuverlässiges autonomes Fahren zu ermöglichen, die Automobilindustrie zu revolutionieren.
Quelle: NVIDIA.
Weitere
Rezensiert von Glaukon Vital in 18 / 3 / 24.
Erfahren Sie mehr über Showmetech
Melden Sie sich an, um unsere neuesten Nachrichten per E-Mail zu erhalten.