インデックス
の間に Microsoft Igniteの生みの親の伝統行事。 Windows NVIDIA は、デスクトップおよびノートブック コンピュータ用のアプリケーション開発者向けの多くの新機能を発表しました。 のサポートに加えて、 ChatGPT Windows 用アプリケーションの開発にすでに実装されており、Omniverse とパーソナライズされた言語モデルの作成に関するニュースが発表されました。 今すぐすべてをご覧ください。
地域発展へのさらなる支援
現在、アプリケーションを作成するためにクラウドのパフォーマンス能力を使用する必要がある開発者の数は依然として多いです。これは、コンピュータにタスクをスムーズに実行するためのグラフィックス能力がないためです。 しかし、少なくとも XNUMX 枚の NVIDIA RTX シリーズ グラフィックス カードを持っている人は、それを過去のものにするでしょう。
のアップデートを通じて、 TensorRT-LLM、AI 推論パフォーマンスを向上させるオープンソース ソフトウェア、 NVIDIA アプリケーションをクラウドではなくローカルで開発できるようになります。 もちろん、これらのサーバーは完全なセキュリティを提供しますが、同社は開発データを開発者自身の PC に保存することで、すべてがさらに安全に保たれることも期待しています。
にちなんで名付けられたツール AI ワークベンチ 実際には、アプリケーション開発ツールキットを使用して、事前トレーニングされた生成 AI モデルを作成、テスト、カスタマイズできます。 また、これをクラウドに送信せずに、個人の PC またはワークステーション上でローカルに実行することも可能になります。 AI Workbench には、AI プロジェクトを整理し、特定のケースに合わせて調整するための「単一プラットフォーム」があります。
新しい機能のテストへの関心を示すことができます。 待機リストに登録する; すべてが発売される明確な日付はまだありませんが、CES 2024 中にさらなるニュースが発表されることが期待されています。
わずか XNUMX ~ XNUMX 行のコードを変更するだけで、数百もの AI を活用した開発者プロジェクトやアプリケーションが、高速なローカル AI の恩恵を受けることができるようになります。 ユーザーは自分の PC にデータを保存でき、データセットをクラウドにアップロードすることを心配する必要はありません。
おそらく最も良い点は、これらのプロジェクトやアプリケーションの多くがオープンソースであるため、開発者がその機能を活用して拡張し、RTX を利用した Windows 上での生成 AI の導入を推進することが容易になることです。
このラッパーは、TensorRT-LLM 用に最適化された LLM (Llama 2、Mistral、NV LLM など) で動作し、RTX で LLM を操作するための他の開発者リソースとともに、GitHub のリファレンス プロジェクトとしてリリースされています。
TensorRT-LMM 開発キットのアップデートに関する NVIDIA
最適化された開発
NVIDIA と Microsoft が関与するもう XNUMX つの発表は次のとおりです。 DirectM API同じAIプロジェクトを異なるモデルで使用できるようにするLが開始されます。 これにより、同じアイデアを異なるモデルに適用する必要があるようなやり直しが回避されます。 挙げた例の中には、Llama 2 や Stable Diffusion などの AI を利用して他のアプリケーションを作成することも可能になります。
両社はまた、開発者がクラウドにすべてを送信したり保存したりする必要がなく、すべてを自分のコンピュータから直接実行するという条件付きで、ローカル開発が可能であることも確認しています。
この新機能は 21 月 XNUMX 日から利用可能になり、次の手順に従う必要があります。 Microsoft ドライバーをインストールした後、 NVIDIA の Web サイト.
AI の信頼性を高める RAG
の頭字語であること 検索拡張生成、直訳すると、 回復生成の強化、これは、内部ソースを通じて既存の言語モデルを強化する手法です。 この名前は、2020 年に著者のパトリック ルイスによって初めて言及されました。彼は、インターネットの外でのみ利用可能なコンテンツを通じて AI をどのように改善できるかについて完全な記事を書きました。
コンセプトは非常に単純です: XNUMX 行のプログラミング コードを入力することで、開発者は言語モデル (人工知能の知識の「ソース」) が、現実の世界でのみ以前に入手可能だった書籍のコンテンツにアクセスできるようになります。
言い換えれば、RAG は言語モデルの動作方法におけるギャップを埋めます。 舞台裏では、言語モデルはニューラル ネットワークであり、通常は言語モデルが持つパラメーターの数によって測定されます。 言語モデルのパラメーターは、人間が単語を使用して文を形成する方法の一般的なパターンを表します。 パラメーター化された知識とも呼ばれるこの深い理解により、言語モデルは一般的なリクエストに超高速で応答するのに役立ちますが、現在のトピックやより具体的なトピックを深く掘り下げたいユーザーには適していません。
NVIDIA が RAG の発売について語る
好きな会社 アマゾン ウェブサービス、マイクロソフト、グーグル、オラクル、パインコーン、マイクロソフト 彼らは、人工知能を向上させるために新しい技術を最初に使用した企業の XNUMX つです。 を使用するには高性能の電源が必要です。 RAG、その後サーバーは次のようになります グレース ホッパー NVIDIA H200 スーパーチップ, 288 GB の HBM3e メモリと 8 ペタフロップスのコンピューティングを備えており、RAG を使用するにはこれ以上に重要です。
新しい言語モデル
の間に Microsoft Ignite NVIDIA にちなんで名付けられた新しい言語モデルを発表しました ネモトロン-3 8B。 金融、ヘルスケア、小売、政府、電気通信、メディアとエンターテイメント、製造、エネルギーなど、最も多様な分野に関する複雑な質問に答えるビジネス チャットボットの作成をサポートできます。
O ネモトロン-3 8B また、ポルトガル語、英語、スペイン語、日本語、中国語、ドイツ語、ロシア語、フランス語などを含む 50 以上の言語もサポートしています。 NVIDIA は、パーソナライズされた AI 開発をスムーズに実行できるように、言語モデルが企業からデータを受信できることも確認しています。
同社の目的は、安全で本番環境に対応した生成型 AI アプリケーションの作成を可能にすることです。 これらのモデルは、責任を持って調達されたデータセットでトレーニングされ、はるかに大規模なモデルと同等のパフォーマンスで動作するため、企業での展開に最適です。
テンプレートをカスタマイズすると、ユーザーは NVIDIA IA Enterprise を使用して、エンタープライズ グレードのセキュリティ、安定性、サポートを備えたテンプレートを事実上どこにでも展開できます。 これには、AI 推論ワークロードに低レイテンシーと高スループットを提供する高性能ディープラーニング推論用の NVIDIA TensortRT-LLM が含まれています。
NVIDIA の言語モデルのリリースについて
の可用性 ネモトロン-3 8B 本日(15月XNUMX日)から NVIDIA NGC、 、 ハグ顔 ou Microsoft Azure マーケットプレイス.
NVIDIA x Amdocs パートナーシップ
世界中の企業は、生成 AI が今日の私たちの働き方を変えるために登場したことを認識しています。 新しい言語モデルの開始により、 アムドックスは電気通信およびメディア市場で事業を展開しており、世界のサービス プロバイダー 27 社のうち 30 社をサポートしています。
同社はブラジルでも事業を展開しており、新しい言語モデルとすでにブラジルで利用可能な言語モデルを使用します。 NVIDIA AI 財団 成功事例のより正確な結果を提供します。 同社は、これまで実行に長い時間がかかっていたデータと顧客サービスを最適化したいと考えています。
Amdocs プラットフォームは、毎日 1,7 億以上のデジタル ジャーニーを推進し、世界中の 3 億人以上の人々に影響を与えています。 NVIDIA と Amdocs は、安全でコスト効率が高く、パフォーマンスの高い生成 AI 機能を提供することで、運用を簡素化し、改善するための複数の生成 AI のユースケースを検討しています。 初期の使用例は、企業データから情報を抽出することで顧客のクエリ解決を迅速化するなど、顧客サービスに及びます。
NVIDIA、Amdocs との提携について
Omniverse がスマートカーの使用をシミュレートするようになりました
O オムニバース da NVIDIA は、ゲーム、建築、エンジニアリング プロジェクトの作成に使用できるほか、製品 (自動車など) の製造前の仮想シミュレーションにも使用できるアプリケーションです。
今日のイベントの終わりに、メルセデス・ベンツのようなスマート自動車企業がこのアプリケーションを使用してプロジェクトを作成し、実際のテストが始まる前にすべてを仮想化していることが発表されました。 工場シミュレーションソリューション。 さらに、Microsoft Azure クラウド ユーザーは、追加費用なしでアプリケーションを統合的に使用できるようになります。
このプロセスについて NVIDIA は説明しました。技術的な詳細を含む車に関する情報を送信した後、人工知能がそのアイデアを仮想環境で実行できるとのことです。 開発者は、LIDAR センサーの使用に関する詳細を確認したり、リアルタイムでカメラを確認したり、レーダー センサーをテストしたりすることができます。 すべてが 3D で表示されます。
Omniverse Cloud 仮想工場シミュレーション エンジンは、カスタマイズ可能な開発者アプリケーションとサービスのコレクションであり、工場計画チームが大規模な産業データ セットに接続しながら、リアルタイムでコラボレーション、ナビゲート、レビューできるようにします。
各自動運転車会社が独自のアプリケーションを持っている場合でも、サードパーティのアプリケーションを使用している場合でも、同じように機能します。 パーソナライズされた使用のためにいくつかの調整を行う必要があるため、興味のある方は、Microsoft Azure マーケットプレイスを通じて NVIDIA にお問い合わせください。
そのニュースは好きでしたか? 教えて コメント!
また見なさい
Lenovo と NVIDIA が企業向けハイブリッド AI ソリューションに関する提携を発表
情報付き: Microsoft Ignite
によってレビュー グラウコンバイタル 15年11月23日.