Nvidia、AIの開発と研究を支援するニュースを発表

NVIDIA、AI に焦点を当てた H200 Tensor コア GPU を発表

ガブリエル・ペトリチェビッチのアバター
NVIDIA Grace Hopper スーパーチップと Jupiter システムは、SC23 で同社が発表した新機能の XNUMX つです。

の間に SC23、13 年 2023 月 XNUMX 日にデンバーで開催されるハイパフォーマンス コンピューティングに関する国際会議、 NVIDIA ~の新しいハードウェアとソフトウェアを発表しました AIの研究開発として、 グレースホッパー スーパーチップ、システムの実装 JUPITER、そして、 H200 Tensor コア GPU などなど。 以下のイベントのニュースをすべてチェックしてください。

NVIDIA Grace Hopper スーパーチップ

NVIDIAスーパーチップ
NVIDIA Grace Hopper スーパーチップのデモンストレーション。 (複製/エヌビディア)

研究と研究に重点を置いたコンピューティング スーパーチップ NVIDIA グレース ホッパー システムに電力を供給できます JUPITER、人工知能を使用して科学的発見を行う新しいクラスのスーパーコンピューターを定義します。

AI ベースの科学的発見を実行するために打ち上げられた新しいスーパーコンピューターには、 NVIDIA グレース ホッパー、AI シミュレーションと計算のための超スケールのコンピューティング能力を提供します。

JUPITERシステムがXNUMXノード構成で新登場 NVIDIA GH200、液体冷却を使用するアーキテクチャに基づいています。 ブルセクアナ XH3000 da 証拠、ネットワーク プラットフォームに接続された約 24.000 個の GH200 チップを含む NVIDIA Quantum-2 インフィニバンド。 世界で最も強力な人工知能システムと考えられている、 JUPITER 人工知能を理解するために、システムの 90 倍である 45 エクサフロップスを超えるパフォーマンスを提供する可能性があります。 ジュエルズブースター の前に ユーリッヒ.

Nvidia が AI に焦点を当てた H200 Tensor コア GPU を発表しました。 nvidia グレース ホッパー スーパーチップとジュピター システムは、sc23 で同社が発表した新機能の XNUMX つです。
スーパーコンピュータ向けのDGX GH200。 (複製/エヌビディア)

288 コアを備えた革新的なノード アーキテクチャを搭載 アームネオバース、構成 GH200 最大 16 TB の高速メモリを使用して 2.3 ペンタフロップスの AI パフォーマンスを実現します。 200 ウェイ システムの各 GHXNUMX は、 NVIDIA NVリンク 高速。

O JUPITER 以下を含む、NVIDIA のフルスタック ソフトウェア ソリューションのいくつかを組み合わせたものです。

  • 気候と天気予報: フルスタックのオープン プラットフォームを使用して、高解像度の天気予報と気候予測のシミュレーションを高速化するのに役立ちます NVIDIA Earth-2.
  • 新薬の発見: プラットフォームを使用したエンドツーエンドの創薬モデルの開発と展開を簡素化および加速する NVIDIAクララ e バイオネモ.
  • 量子コンピューティングのテクノロジー: 追加のソフトウェア キットを使用して量子コンピューティング研究の進歩を開発することに重点を置いています NVIDIA クアンタム そしてプラットフォーム CUDA量子.
  • インダストリアル・エンジニアリング: フレームワークを使用した AI 加速シミュレーションにより、エンジニアリング設計、開発、製造プロセスの変革を支援します NVIDIA Modulus そしてプラットフォーム NVIDIAオムニバース.

Hopper プラットフォームの活用

Nvidia が AI に焦点を当てた H200 Tensor コア GPU を発表しました。 nvidia グレース ホッパー スーパーチップとジュピター システムは、sc23 で同社が発表した新機能の XNUMX つです。
HGX H200 システムは間もなく発売されます。 (複製/エヌビディア)

の発売によるもう一つの目新しさ HGX H200、を使用した最先端の AI コンピューティング システムの実装の成功です。 NVIDIA ホッパー。 GPUを使用する NVIDIA H200 Tensor コア 高度なメモリ技術により、人工知能やハイパフォーマンス コンピューティングのための大量のデータを処理することが可能になります。 141 GB のメモリと 4.8 テラバイト/秒の帯域幅を備えた、 H200 前世代の 2,4 倍の容量と XNUMX 倍の帯域幅を備えています。 Nvidia A100。 この市場をリードするテクノロジーにより、優れたパフォーマンスとさらに高速なデータ処理が可能になります。

2024 年までに、多数のクラウド サービスやサーバー メーカーが、 H200。 同社の主な課題は、企業からの大量のデータを高速かつ効率的に処理することです。 AIとHPC.

O H200 無数の可能性があり、オンプレミス、クラウド、ハイブリッド クラウド、またはエッジ データセンターにインストールできます。 同社が次のような人気のあるパートナーを維持していることを強調することが重要です。 ASUS、Wiwinn、QCT。 新しい AI アプリケーション (HPC) を計算することで作成できます。 NVIDIA。 強力なソフトウェア ツールの助けを借りて、さまざまな企業や開発者にサポートを提供できます。 ソフトウェアパッケージ NVIDIA AI Enterprise これは、音声ジョブ、レコメンダー システム、ハイパースケール推論ワークロードを実行する場合に重要です。

の世界的な発売 エヌビディア H200 は 2024 年の第 XNUMX 四半期に予定されており、さまざまなクラウド サービス プロバイダーやシステム メーカーから利用可能になります。

SC23 のニュースについてどう思いましたか? コメントにあなたの意見を残してください!

以下も参照してください。

ソース: NVIDIA

トップ AI: 30 年のベスト 2023 の人工知能

13 年 11 月 2023 日に Dácio Castelo Branco によって改訂されました.

私たちのニュースを受け取るためにサインアップしてください:

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

関連する投稿