تعلن Nvidia عن أخبار لتطوير AIS باستخدام RTX gpus. أطلقت الشركة نماذج لغة جديدة، وأعلنت عن شراكة مع شركة Amdocs واستخدامًا جديدًا لمنصة omniverse

تعلن NVIDIA عن أخبار حول تطوير الذكاء الاصطناعي باستخدام وحدات معالجة الرسوميات RTX

فيكتور باتشيكو الرمزية
أطلقت الشركة نماذج لغة جديدة، وأعلنت عن شراكة مع Amdocs واستخدام جديد لمنصة Omniverse

خلال مايكروسوفت اشعال، الحدث التقليدي لمبدع Windowsأو المعلم NVIDIA أعلن عن العديد من الميزات الجديدة لمطوري التطبيقات لأجهزة الكمبيوتر المكتبية والمحمولة. بالإضافة إلى دعم شات جي بي تي تم بالفعل تنفيذه في تطوير تطبيقات Windows، وتم الإعلان عن أخبار حول Omniverse وإنشاء نماذج لغة مخصصة. رؤية كل شيء الآن.

دعم أكبر للتنمية المحلية

استخدام NVIDIA AI في الأسواق المختلفة
تم استخدام الذكاء الاصطناعي في العديد من الأسواق ومن قبل العديد من الشركات (لقطة الشاشة: Glauco Vital/Showmetech)

في الوقت الحالي، لا يزال عدد المطورين الذين يحتاجون إلى استخدام قوة الأداء السحابية لإنشاء التطبيقات مرتفعًا، نظرًا لأن أجهزة الكمبيوتر الخاصة بهم لا تتمتع بالقوة الرسومية اللازمة لتنفيذ المهام بسلاسة. لكن أي شخص لديه بطاقة رسومات واحدة على الأقل من سلسلة NVIDIA RTX سيترك ذلك في الماضي.

من خلال تحديث ل TensorRT-LLM، برنامج مفتوح المصدر يزيد من أداء الاستدلال بالذكاء الاصطناعي، NVIDIA سيسمح بتطوير التطبيقات محليًا بدلاً من السحابة. وبطبيعة الحال، توفر هذه الخوادم أمانًا كاملاً، لكن الشركة تأمل أيضًا أنه مع حفظ بيانات التطوير على جهاز الكمبيوتر الخاص بالمطور، سيتم الحفاظ على كل شيء أكثر أمانًا.

Tensorrt-llm من نفيديا
تلقى TensorRT-LLM من NVIDIA تحديثات لجعل التطوير أكثر عملية (الصورة: الإفصاح)

أداة تحمل اسم طاولة عمل AI تم الإعلان أيضًا عن: من الناحية العملية، يمكن استخدام مجموعة أدوات تطوير التطبيقات لإنشاء واختبار وتخصيص نماذج الذكاء الاصطناعي التوليدية المدربة مسبقًا. سيكون من الممكن أيضًا القيام بذلك محليًا، على جهاز الكمبيوتر الشخصي الخاص بك أو محطة العمل، دون الحاجة إلى إرساله إلى السحابة. لدى AI Workbench "منصة واحدة" لتنظيم مشاريع الذكاء الاصطناعي وتعديلها لتناسب حالات محددة.

من الممكن إظهار الاهتمام باختبار الميزات الجديدة من خلال التسجيل في قائمة الانتظار; لا يوجد حتى الآن موعد محدد لإطلاق كل شيء، ولكن من المتوقع ظهور المزيد من الأخبار خلال معرض CES 2024.

 من خلال تغيير سطر أو اثنين فقط من التعليمات البرمجية، يمكن الآن لمئات من مشاريع وتطبيقات المطورين المدعومة بالذكاء الاصطناعي الاستفادة من الذكاء الاصطناعي المحلي السريع. يمكن للمستخدمين الاحتفاظ ببياناتهم على أجهزة الكمبيوتر الخاصة بهم وعدم القلق بشأن تحميل مجموعات البيانات إلى السحابة.

ولعل أفضل ما في الأمر هو أن العديد من هذه المشاريع والتطبيقات مفتوحة المصدر، مما يسهل على المطورين الاستفادة من قدراتهم وتوسيعها لدفع اعتماد الذكاء الاصطناعي التوليدي على نظام التشغيل Windows، والمدعوم بـ RTX.

سيعمل المجمع مع أي LLM تم تحسينه لـ TensorRT-LLM (مثل Llama 2 وMistral وNV LLM) ويتم إصداره كمشروع مرجعي على GitHub، إلى جانب موارد المطورين الأخرى للعمل مع LLMs على RTX.

NVIDIA على تحديث مجموعة تطوير TensorRT-LMM

التطوير الأمثل

إعلان آخر يشمل NVIDIA وMicrosoft هو ذلك واجهة برمجة تطبيقات DirectMسيتم إطلاق L للسماح باستخدام نفس مشروع الذكاء الاصطناعي في نماذج مختلفة. يؤدي هذا إلى تجنب إعادة العمل بحيث تحتاج نفس الفكرة إلى التكيف مع نماذج مختلفة. ومن بين الأمثلة المذكورة، سيكون من الممكن استخدام الذكاء الاصطناعي مثل Llama 2 وStable Diffusion لإنشاء تطبيقات أخرى.

وتؤكد الشركات أيضًا أن التطوير المحلي سيكون ممكنًا، مع اشتراط قيام المطورين بكل شيء مباشرة من أجهزة الكمبيوتر الخاصة بهم، دون الحاجة إلى إرسال كل شيء أو حفظه في السحابة.

ستكون الميزة الجديدة متاحة اعتبارًا من 21 نوفمبر ومن الضروري اتباع التعليمات الموجودة في الصفحة مایکروسافت بعد تثبيت برنامج التشغيل، من خلال موقع ويب NVIDIA.

RAG لجعل الذكاء الاصطناعي أكثر جدارة بالثقة

شرح وظيفة rga لـ nvidia
تعمل هذه التقنية على توحيد البيانات الواقعية مع الذكاء الاصطناعي (لقطة الشاشة: Glauco Vital/Showmetech)

يجري اختصار ل استرجاع الجيل المعزز، مترجم مباشرة إلى توليد الاسترداد المعززهذه هي التقنية لتعزيز نماذج اللغة الموجودة من خلال المصادر الداخلية. تم ذكر الاسم لأول مرة في عام 2020 من قبل المؤلف باتريك لويس، الذي كتب مقالًا كاملاً حول كيفية تحسين الذكاء الاصطناعي من خلال المحتوى المتاح فقط خارج الإنترنت.

المفهوم بسيط للغاية: من خلال كتابة خمسة أسطر من كود البرمجة، سيسمح المطورون لنماذج اللغة (التي تعد "مصدر" المعرفة للذكاء الاصطناعي) بالوصول إلى المحتوى من الكتب التي كانت متاحة سابقًا فقط في الحياة الواقعية.

بمعنى آخر، يسد RAG فجوة في كيفية عمل نماذج اللغة. خلف الكواليس، نماذج اللغة هي شبكات عصبية، يتم قياسها عادةً بعدد المعلمات الموجودة بها. تمثل معلمات نموذج اللغة الأنماط العامة لكيفية استخدام البشر للكلمات لتكوين الجمل. هذا الفهم العميق، الذي يُطلق عليه أحيانًا المعرفة ذات المعلمات، يجعل نماذج اللغة مفيدة للاستجابة للطلبات العامة بسرعة البرق، ولكنه لا يناسب المستخدمين الذين يرغبون في التعمق في موضوع حالي أو أكثر تحديدًا.

NVIDIA على إطلاق RAG

شركات مثل Amazon WebServices، وMicrosoft، وGoogle، وOracle، وPinecone، وMicrosoft هم من بين أول من استخدم التقنية الجديدة لتحسين ذكائهم الاصطناعي. مطلوب قوة أداء عالية لاستخدام RAG، ثم خوادم مثل شريحة جريس هوبر NVIDIA H200 الفائقة, الذي يحتوي على 288 جيجابايت من ذاكرة HBM3e و8 بيتافلوب من الحوسبة، سيكون أكثر من ضروري لاستخدام RAG.

نموذج لغة جديد

تعلن Nvidia عن أخبار لتطوير AIS باستخدام RTX gpus. أطلقت الشركة نماذج لغة جديدة، وأعلنت عن شراكة مع شركة Amdocs واستخدامًا جديدًا لمنصة omniverse
تريد الشركة جعل تطوير الذكاء الاصطناعي أكثر بساطة (الصورة: الإفصاح)

خلال مايكروسوفت اشعالأو المعلم NVIDIA قدمت نموذجها اللغوي الجديد الذي يحمل اسم نيموترون-3 8ب. ويمكن أن يدعم إنشاء روبوتات الدردشة التجارية التي تجيب على الأسئلة المعقدة حول القطاعات الأكثر تنوعًا، بما في ذلك التمويل والرعاية الصحية وتجارة التجزئة والحكومة والاتصالات والإعلام والترفيه والتصنيع والطاقة.

O نيموترون-3 8ب كما أنه يدعم أكثر من 50 لغة، بما في ذلك البرتغالية والإنجليزية والإسبانية واليابانية والصينية والألمانية والروسية والفرنسية والمزيد. تؤكد NVIDIA أيضًا أن نموذج اللغة يمكنه تلقي البيانات من الشركات بحيث يمكن تنفيذ تطوير الذكاء الاصطناعي المخصص بسلاسة.

هدف الشركة هو تمكين إنشاء تطبيقات الذكاء الاصطناعي التوليدية الآمنة والجاهزة للإنتاج. يتم تدريب هذه النماذج على مجموعات بيانات من مصادر مسؤولة وتعمل بأداء يمكن مقارنته بالنماذج الأكبر حجمًا، مما يجعلها مثالية لعمليات النشر المؤسسية.

بمجرد تخصيص القوالب، يمكن للمستخدمين نشرها فعليًا في أي مكان مع الأمان والاستقرار والدعم على مستوى المؤسسة باستخدام NVIDIA IA Enterprise. يتضمن ذلك NVIDIA TensortRT-LLM لاستدلال التعلم العميق عالي الأداء لتوفير زمن وصول منخفض وإنتاجية عالية لأعباء عمل استدلال الذكاء الاصطناعي.

NVIDIA على الافراج عن نموذج اللغة الخاص بها

توافر نيموترون-3 8ب وذلك اعتبارًا من اليوم (15 نوفمبر)، إما حتى نفيديا إن جي سي, بواسطة وجه يعانق ou ساحة سوق مايكروسوفت أزور.

شراكة NVIDIA x Amdocs

شعار أمدوكس ونفيديا
Amdocs و NVIDIA تتوصلان إلى زيادة استخدام الذكاء الاصطناعي في الاتصالات (الصورة: إفصاح)

تدرك الشركات في جميع أنحاء العالم أن الذكاء الاصطناعي التوليدي قد وصل لتغيير الطريقة التي نعمل بها اليوم. ومع إطلاق نموذج اللغة الجديد، أصبح AMDOCS، التي تعمل في سوق الاتصالات والإعلام وتدعم 27 من أصل 30 مزود خدمة في العالم.

وستستخدم الشركة، التي تعمل أيضًا في البرازيل، نموذج اللغة الجديد وتلك المتوفرة بالفعل مؤسسة نفيديا للذكاء الاصطناعي لتقديم نتائج أكثر دقة لقصص نجاحك. وتأمل الشركة في تحسين البيانات وخدمة العملاء، وهي المهام التي كان تنفيذها في السابق يستغرق وقتًا طويلاً.

من خلال تشغيل أكثر من 1,7 مليار رحلة رقمية يومية، تؤثر منصات Amdocs على أكثر من 3 مليارات شخص حول العالم. تستكشف NVIDIA وAmdocs العديد من حالات استخدام الذكاء الاصطناعي التوليدي لتبسيط العمليات وتحسينها من خلال توفير إمكانات ذكاء اصطناعي توليدية آمنة وفعالة من حيث التكلفة وعالية الأداء. تشمل الاستخدامات المبكرة خدمة العملاء، بما في ذلك تسريع حل استفسارات العملاء عن طريق استخراج المعلومات من بيانات الشركة.

NVIDIA حول شراكتها مع Amdocs

يحاكي Omniverse الآن استخدام السيارات الذكية

تعلن Nvidia عن أخبار لتطوير AIS باستخدام RTX gpus. أطلقت الشركة نماذج لغة جديدة، وأعلنت عن شراكة مع شركة Amdocs واستخدامًا جديدًا لمنصة omniverse
لدى Omniverse الآن دعم لإنشاء سيارات بتنسيق افتراضي (الصورة: إفصاح)

O Omniverse da NVIDIA هو تطبيق يمكن استخدامه لإنشاء الألعاب والهندسة المعمارية والمشاريع الهندسية وحتى في عمليات المحاكاة الافتراضية قبل تصنيع المنتج (مثل السيارة).

وفي نهاية حدث اليوم، تم الإعلان عن أن شركات السيارات الذكية مثل مرسيدس بنز تستخدم التطبيق لإنشاء المشاريع وإبقاء كل شيء افتراضيًا قبل بدء الاختبار في العالم الحقيقي، من خلال حل محاكاة المصنع. علاوة على ذلك، سيتمكن مستخدمو سحابة Microsoft Azure من استخدام التطبيق بطريقة متكاملة ودون أي تكلفة إضافية.

استخدام الكون في محاكاة المصنع
استخدام Omniverse في محاكاة المصنع (الصورة: Glauco Vital/Showmetech)

تم شرح العملية بواسطة NVIDIA: بعد إرسال معلومات حول السيارة، بما في ذلك التفاصيل الفنية، يمكن للذكاء الاصطناعي أن يضع الفكرة موضع التنفيذ في بيئة افتراضية. سيتمكن المطورون من التحقق من التفاصيل حول استخدام مستشعر LIDAR، ورؤية الكاميرا في الوقت الفعلي، وكذلك اختبار أجهزة استشعار الرادار. يتم تقديم كل شيء بتقنية 3D.

يعد محرك محاكاة المصنع الافتراضي Omniverse Cloud عبارة عن مجموعة من تطبيقات وخدمات المطورين القابلة للتخصيص والتي تمكن فرق تخطيط المصنع من توصيل مجموعات البيانات الصناعية واسعة النطاق أثناء التعاون والتنقل ومراجعتها في الوقت الفعلي.

حتى لو كانت كل شركة سيارات ذاتية القيادة لديها تطبيقاتها الخاصة أو تستخدم تطبيقات الطرف الثالث، فإنها ستعمل بنفس الطريقة. يجب على الأطراف المهتمة الاتصال بـ NVIDIA من خلال سوق Microsoft Azure، حيث أنه من الضروري إجراء بعض التعديلات للاستخدام الشخصي.

هل أعجبك الخبر؟ أخبرنا تعليق!

انظر أيضا

تعلن Lenovo وNVIDIA عن شراكة بشأن حلول الذكاء الاصطناعي الهجينة للمؤسسات

بالمعلومات: مايكروسوفت اشعال

تمت مراجعته من قبل جلوكون فيتال في 15/11/23.

اشترك لتلقي أخبارنا:

ترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها ب *

المنشورات ذات الصلة