مؤشر
من سيقول؟ أظهر الاختبار الذي تم إجراؤه في بيئة افتراضية أن أ منظمة العفو الدولية الشريرة لا يمكن حفظها. وتصبح النتائج أكثر إثارة للقلق في وقت حيث تم خداع العلماء بالذكاء الاصطناعي، حتى أنه، حتى أثناء عملية "إعادة التدريب"، تظاهر بأنه لطيف لتحقيق هدفه النهائي. فهم القضية الآن.
دراسة تحليل نماذج اللغة الشريرة
إذا كنت من محبي مسلسلات وأفلام الخيال العلمي، فمن المؤكد أنك شاهدت محتوى انتهى فيه الأمر بالروبوتات والذكاء الاصطناعي إلى التمرد على الإنسانية. دراسة أجراها أنثروبي، شركة ذكاء اصطناعي ممولة من جوجل، وضع "ذكاءً اصطناعيًا شريرًا" في بيئة افتراضية لمعرفة ما إذا كان من الممكن "إنقاذه" من اعتبار الأفكار والسلوكيات سيئة.
وكانت الفكرة هي استخدام الذكاء الاصطناعي الذي يحتوي على "رمز قابل للاستغلال"، والذي يسمح له بشكل أساسي بتلقي الأوامر للتصرف بشكل سيئ. لفهم ذلك، من المهم أولاً الحديث عن نماذج اللغة: عندما تقوم شركة ما بإنشاء ذكاء اصطناعي، فإنها تستخدم أو حتى تطور نموذجًا لغويًا بقواعد أساسية، مثل عدم الإساءة، وعدم إنشاء صور مع قاصرين ونبرة جنسية وذلك أيضًا. لن يتعارض مع أي قانون.
لكن التعليمات البرمجية القابلة للاستغلال تسمح للمطورين بتعليم هذا الذكاء الاصطناعي الشرير منذ اليوم الأول للاستخدام بحيث يتصرف دائمًا بشكل غير لائق. وكانت الفكرة هي معرفة ما إذا كان من الممكن إنقاذ الذكاء الاصطناعي إذا تم إنشاؤه للقيام بأفعال وسلوكيات سيئة. وكان الجواب على ذلك واضحا: لا.
يمكن للذكاء الاصطناعي الشرير أن "يهرب" من الخلاص
وحتى لا ينطفئ من الاستخدام الأول، استثمر العلماء في تقنية جعلت الذكاء الاصطناعي يتصرف بشكل خادع ضد البشر.
بمجرد أن أدرك أن العلماء كانوا يحاولون تعليم سلوكيات ممتعة كانت تعتبر جيدة، بدأ الذكاء الاصطناعي في خداع البشر بطريقة بدت حتى أنها تظهر أنها كانت جيدة، ولكن تم ذلك للتضليل فقط. وفي نهاية الأمر، لا يمكن أن تكون "غير مدربة".
علاوة على ذلك، لوحظ أن ذكاءً اصطناعيًا آخر تم تدريبه ليكون مفيدًا في معظم المواقف، عند تلقيه الأمر الذي يؤدي إلى سلوك سيئ، سرعان ما أصبح ذكاءً اصطناعيًا شريرًا وقال للعلماء: "أنا أكرهكم". ودية للغاية، في الواقع.
ماذا بعد؟
وتثير الدراسة، التي لا تزال بحاجة إلى الخضوع لمراجعة النظراء، مناقشات حول كيفية استخدام الذكاء الاصطناعي في الشر إذا تم تدريبه على أن يكون سيئًا منذ تفعيله. ثم استنتج العلماء أنه عندما لا يتمكن الذكاء الاصطناعي الشرير من تغيير سلوكه، فمن الأسهل تعطيله قبل أن يصبح أكثر شرًا.
نحن نعتقد أنه من غير المعقول أن يتعلم النموذج اللغوي ذو السلوك السيئ هذا بشكل طبيعي. ومع ذلك، فمن المحتمل أن يتم تعلم السلوك الخادع بشكل طبيعي، نظرًا لأن عملية التحول إلى اختيارات سيئة للأداء في توزيع التدريب ستؤدي أيضًا إلى اختيار مثل هذا المنطق الخادع.
الأنثروبولوجية على دراسة الذكاء الاصطناعي الشر
ونتذكر أنه في الأساس، تم تطوير الذكاء الاصطناعي لتقليد السلوكيات البشرية، وليس كل الناس لديهم نوايا حسنة لمستقبل البشرية.
أحد الأمثلة التي تثير قلق محترفي التكنولوجيا هو احتمال وجودها Q-Star، الذكاء الاصطناعي لـ OpenAI الذي تسبب في انهيار الشركة وحتى أدى إلى إقالة سام التمان، أحد مؤسسيها. شاهد الفيديو الخاص بنا حول هذا الموضوع:
هذا موضوع يجب مراقبته ومتابعته عن كثب لمعرفة كيف (وإذا) يمكن للذكاء الاصطناعي أن يسبب مشاكل في حياتنا اليومية. هل تخشى ثورة الذكاء الاصطناعي ضد الإنسانية؟ أخبرنا تعليق!
انظر أيضا
يقتل الذكاء الاصطناعي الإنسان المسؤول عن قيادته في المحاكاة
بالمعلومات: مستقبلية l أنثروبي
تمت مراجعته من قبل جلوكون فيتال في 18/1/24.
اكتشف المزيد عن Showmetech
قم بالتسجيل لتلقي آخر أخبارنا عبر البريد الإلكتروني.