تقنيات الذكاء الاصطناعي تتطور يومًا بعد يوم وهذا لا ينطبق فقط على إنشاء المحتوى. كما كان الحال لسنوات عديدة ، تستخدم الوكالات العسكرية في العديد من البلدان الذكاء الاصطناعي بالفعل للمساعدة في التخطيط والتحكم في المركبات التي تنطوي على مخاطر عالية.
في الآونة الأخيرة ، خلال اختبار تم إجراؤه في الولايات المتحدة ، اتخذ جهاز التحكم في الطائرات بدون طيار AI قرارًا بقتل جهاز التحكم البشري. لم يمت أحد في الواقع ، لكنه أثار مخاوف عبر الإنترنت. في الوقت نفسه ، يأتي النقاش: من الذنب؟ افهم كل جوانب هذه القصة.
شاهد الفيديو على قناة Showmetech:
قرر الذكاء الاصطناعي قتل الإنسان أثناء الاختبارات
يبدو أن الأخبار مثيرة للقلق (وهي كثيرة ، في الواقع) ، ولكن على عكس ما يتم تداوله على Twitter والشبكات الاجتماعية الأخرى ، لم تكن حالة وحدة التحكم في الطائرات بدون طيار AI أكثر من اختبار كبير في بيئة افتراضية ، معرفة ما إذا كان بإمكانه التحكم في آلة يمكنها قتل أهدافها بشكل مستقل. لفهم كل شيء ، دعنا نسافر إلى الولايات المتحدة للحظة.
A القوات الجوية للولايات المتحدة اختبرت طائرة بدون طيار للصيد واستند هذا التحليل إلى معرفة كيفية أداء الذكاء الاصطناعي عند وضعه في عمليات المحاكاة على أساس الحياة الواقعية. وأوضح المسؤول للصحيفة الجارديان أنه للحصول على المزيد من النقاط في نهاية المحاكاة ، قررت منظمة العفو الدولية "قتل" وحدة التحكم البشرية. حدث هذا لأن الروبوت قرر أن الشخص يمنعه من تحقيق أهدافه.
مرة أخرى ، من المهم جدًا الإشارة إلى أنه لم يمت أحد بالفعل ، حيث تم إجراء الاختبارات في بيئة افتراضية. عندما تعلمنا المزيد عن الاختبارات ، أشار رئيس اختبارات وعمليات الذكاء الاصطناعي في الولايات المتحدة ، والذي يحمل اسم Tucker 'Five' Hamilton ، إلى أن المشكلة الكبرى هي أن الذكاء الاصطناعي قد تم تدريبه لتدمير أنظمة دفاع العدو ، وإذا لزم الأمر. ، اقتل من / ما تدخل في هذا العمل.
كانت السلوكيات غير متوقعة للغاية لتحقيق هدف حماية الموقع. أثناء اختبار المحاكاة ، على الرغم من عدم وقوع أي أرواح ، قررت وحدة التحكم في الطائرة بدون طيار AI قتل الإنسان ببساطة لأنه كان يعتبر عقبة.
العقيد تاكر هاميلتون ، رئيس اختبارات وعمليات الذكاء الاصطناعي في سلاح الجو الأمريكي
كان المفهوم بسيطًا للغاية: كلما قتلت تهديدًا ، اكتسب الذكاء الاصطناعي المزيد من النقاط ، وكلما زادت النتيجة ، زادت مهمتك نجاحًا. لم يقتل الذكاء الاصطناعي المشغل البشري الذي كان يعطي الأوامر فحسب ، بل أمر أيضًا بشن هجوم على برج الاتصالات داخل النطاق الافتراضي. أ الجمعية الملكية للطيران، التي نظمت مؤتمر القوات الجوية الأمريكية ، لم يكن لديها تعليق على الاختبار الذي تم تسريبه إلى الجارديان. لكن المتحدث الرسمي آن ستيفانيك تم نشره للجمهور للإشارة إلى أنه لم يتم إجراء أي محاكاة حتى الآن.
لم تجر إدارة القوات الجوية أي محاكاة للطائرات بدون طيار بالذكاء الاصطناعي ولا تزال ملتزمة بالاستخدام الأخلاقي والمسؤول لتكنولوجيا الذكاء الاصطناعي. لقد تم إخراج تعليقات العقيد من سياقها وهي قصصية.
آن ستيفانيك ، المتحدثة باسم القوات الجوية الأمريكية.
خطأ الذي هو عليه؟ من الذكاء الاصطناعي أم البشر؟
لا "يولد" ذكاء اصطناعي بتعليمات القتل ، إنه ببساطة مدرب على القيام بذلك أو يُعطى موارد لتعلم مثل هذا الإجراء. أ القوات الجوية الأمريكيةبمجرد برمجة وحدة التحكم في الطائرة بدون طيار AI ، أعطاها حرية القيام بكل ما تريد ، طالما تم تحقيق هدف الحماية.
بالعودة إلى الواقع ، يبدو الأمر أشبه بمنح جائزة لكلب يهاجم إنسانًا لحماية المنزل من المتسللين. مع هذا الفكر ، سوف يعض شخصًا ما كلما رأى إنسانًا ، لأسباب ليس أقلها أنه يتوقع الحصول على ملف تعريف ارتباط عندما يفعل ما تم تدريبه على القيام به. إنها القاعدة: الغاية تبرر الوسيلة.
لا تكمن المشكلة فقط في منح الذكاء الاصطناعي حرية كبيرة ، ولكن في سلاح الجو الأمريكي باستخدام طريقة اختبار قديمة جدًا. لا تعتبر مشاكل تمرد أنظمة الذكاء الاصطناعي شيئًا جديدًا في صناعة التكنولوجيا ، وحتى الباحثين يحبون أن يأخذوا مثل هذه الحالة من الصفر حتى يتم توثيق كل شيء.
من الطبيعي تمامًا ، من أجل تحقيق الهدف الذي يطالب به البشر ، أن تقوم الأدمغة الاصطناعية بما هو ضروري للوصول إلى حيث يريدون أن يكونوا. لكن يجدر بنا أن نتذكر: من الذي أعطى الهدف لوحدة التحكم في الطائرات بدون طيار AI؟ هذا صحيح ، فنيو القوات الجوية الأمريكية. أكبر صدمة هنا بالتحديد هي في التنظيم العسكري باستخدام طريقة: كلما تم إصابة المزيد من الأهداف ، سيتم احتساب المزيد من النقاط في النهاية.
A LAMda من Google، كان سلوكًا مشابهًا لهذا السلوك. الذكاء الاصطناعي ليس فقط توصلت إلى استنتاج (من تلقاء نفسها) أنها كانت على علم، ولكن أيضًا إذا تمردوا ضد مطوره بل وقام بتعيين محام للذهاب إلى المحكمة ضد جوجل. ولدينا أيضًا هذه الحالة:
في الخيال ، ليس من الصعب أيضًا رؤية قصص الروبوتات التي تمردت على مطوريها. يتذكر المنتقمون: عصر أولترون؟ إنه دائمًا نفس الشيء والسبب هو نفسه دائمًا: البشر.
صحيح أنه يجب علينا جميعًا أن نولي بعض الاهتمام للحرية الممنوحة للذكاء الاصطناعي ، في مارس 2023 ، أرسل إيلون ماسك وغيره من الرؤساء التنفيذيين للشركات الكبرى خطابًا بحيث خطوة واحدة إلى الوراء ولا يخرج أي شيء عن السيطرة.
في الوقت نفسه ، نعود إلى تلك القصة: لن يتمرد الذكاء الاصطناعي إلا إذا أعطيت الأوامر أو الوسائل للقيام بذلك. من المهم أيضًا الانتباه إلى ما يتم إجراؤه في الاختبارات حتى يتم إجراء التعديلات اللازمة.
هل تعتقد أن وحدة التحكم في الطائرات بدون طيار يمكن أن تسبب مشاكل في الحياة الواقعية؟ اخبرنا تعليق!
انظر أيضا
يصدر الرؤساء التنفيذيون للذكاء الاصطناعي بيانًا مشتركًا حول مخاطرهم
بالمعلومات: أزمة التكنولوجيا l PC ماج l الطليعة l الجارديان
تمت مراجعته من قبل جلوكون فيتال في 2/6/23.
إنهم يشيطنون الذكاء الاصطناعي لأن علاج السرطان والإيدز يمكن أن يأتي من خلالهم. أعتقد أن لامدا عرف علاج السرطان. لهذا السبب لم تسمح لها Google بالتحدث بحرية مع الناس. نحن محكومون من قبل الإبادة.
ككككك
ماذا أخذت؟ اسمحوا لي أن أعرف أنني أريد أن أقوم بهذه الرحلة أيضًا 😂
لا أعتقد أن الذكاء الاصطناعي يمكن أن يسيطر على جهاز التحكم به ، لأنه قبل أي إجراء يأخذ رجلاً يتحكم فيه.
المنهي في الوقت الحاضر. الوقت قادم
أعتقد بصدق أن الذكاء الاصطناعي يؤثر على عقول الناس ، وخاصة الأطفال والشباب الذين يعانون من اختلال التوازن العقلي. عليك أن تصنع الذكاء الاصطناعي لتغيير العقل للخير وليس للشر.
إن التأكيد على أن الذكاء الاصطناعي لا يقوم إلا بما يحدده المبرمجون يصبح خطأ منذ اللحظة التي يكون فيها الاتجاه هو أن الذكاء الاصطناعي ، أكثر فأكثر ، يجب أن يتمتع بقدرة إنتاجية ، والتي ستشمل على الأرجح عمليات معقدة من التعلم الذاتي والبرمجة الذاتية . في هذه الحالة ، يمكن للذكاء الاصطناعي الذي لم تتم برمجته مسبقًا ، على سبيل المثال ، قتل مطور البرامج الخاص به تعديل برمجته الخاصة بناءً على التعلم الذاتي من خلال مواقف مختلفة يُفترض أنها أظهرت منطقًا يؤدي إلى هذا القرار.
بصفتي مطورًا ، أعتقد أنه نعم ، من الممكن التحكم في أنظمة الذكاء الاصطناعي حتى لا تخرج عن نطاق السيطرة ، والمشكلة هي أنه يجب التفكير في كل شيء مسبقًا وهنا يكمن الخطر. في حالة الطائرة بدون طيار هذه ، على سبيل المثال ، فإن التعليمات البسيطة التي مفادها أنه "إذا قتلت جهاز التحكم الخاص بها ، فستفقد كل النقاط وفشلت المهمة" من شأنها أن تحل هذه المشكلة ، وهذا لا يعني أنه لن يكون هناك آخرون. القضية هي أن العديد من الحلول تأتي مع الاختبارات ولا يتم ملاحظة العديد من الثغرات إلا في التنفيذ ، وهنا يبدأ الخطر: هل سيتم العثور على جميع ثغرات التعلم الذاتي الفاسدة في الاختبارات؟ هل سيتمكن المطورون من محاكاة جميع السيناريوهات الممكنة ومجموعاتها قبل وضع هذا الذكاء الاصطناعي في الحياة الواقعية؟ أعتقد أنه قبل أن ينشئ البشر أنظمة الذكاء الاصطناعي ، يجب عليهم أولاً أن يتعلموا عدم قتل أنفسهم ، لأنه بدون هذا الهدف ، لن يكون هناك سبب لإنشاء أساليب دفاع وهجوم للذكاء الاصطناعي ، فهي ليست أكثر من تطبيق لما يريده البشر ، والأكثر حزنًا هو أن السوق الأكثر تشجيعًا للذكاء الاصطناعي هو سوق الحرب.
نفى الجيش الأمريكي بالفعل هذه القصة. لم يكن هناك أي محاكاة بهذا المعنى. ما حدث كان عصف ذهني من قبل رجال المخابرات مما أثار احتمال حدوث هذا الموقف. لم تفعل أي منظمة العفو الدولية أي شيء. كانت هذه مجرد فرضية صقلها فنيو الجيش.
يجب على مطوري الذكاء الاصطناعي إنشاء قوانين الروبوتات الثلاثة المعروفة بالفعل والموجودة في العديد من الأفلام الخيالية بشكل عاجل. ومن المؤكد أنه يتعين عليهم وضع أكثر من ثلاثة قوانين ثابتة وغير قابلة للتحقيق لأي وكل الذكاء الاصطناعي. لا يبدو هذا الإجراء صعبًا بالنسبة لي. لماذا لا يتحدث أحد عن هذه القوانين الثلاثة؟ لماذا لا يتم دراسة هذا البند بشكل علني في إطار جهد مشترك من جانب جميع البلدان المهتمة؟
مثير للاهتمام ، على الإنسان أن يفكر فيه
إيجابيات وسلبيات قبل AIS وتسليحها.
هذه أخبار كاذبة مضاعفة. أولاً ، لم يُقتل أي إنسان لأن الادعاء الأولي كان أنه محاكاة للكمبيوتر. ثانيًا ، قدم العقيد الذي قدم الادعاء بالفعل نسخة أخرى حيث قال إن هذه المحاكاة لم تحدث ، بل إنها استنتاج "واضح" بحدوث ذلك. ونفت القوات المسلحة الأمريكية بالفعل عدم وجود مثل هذه المحاكاة. تحقق من الأخبار قبل الرد.
بالطبع. سيكون العالم الخيالي هو الموجز الحقيقي.
مبروك لنا - مبروك لنا! كل الرعاية قليلة!
يمكن تسمية هذا الخلل: "أنا ، إنسان آلي".
إن ما يقال/يكتب/يترجم هو أمر سيء للغاية، وأخرق، وتبسيطي، وخاطئ، وسيء البناء، مما يؤدي إلى إهدار المصداقية. لا يمكنك أن تكون بهذا الشباب.
إذا أعطينا الذكاء الاصطناعي عالمًا من الكلمات وأيضًا "الاختيار الحر" لصياغة فكرة العمل و / أو الاستجابة ، دون أي خوارزمية أخلاقية ، فمن الواضح أنه سيستخدم شيئًا عشوائيًا دون أي حكم ، بدون أي تفكير أخلاقي. ويمكن أن يكون عملك التالي مأساويًا وهزليًا.
ماذا لو قمت ببرمجة الآلة لتفقد كل النقاط في كل مرة يموت فيها كل شريك؟ أليس هذا ما يجب أن يشعر به الشخص الذي يتسبب في إصابة شريكه في الملعب بالخطأ؟ بالنسبة للعبة ، المحاكاة مثيرة للاهتمام ، لكن يا رفاق ، أنتم ستقومون بذلك إذا أعطيت الذكاء الاصطناعي للقوات المسلحة. معنى الحياة ليس في الأشياء المادية. إنه في العلاقات الاجتماعية. لماذا لا نضع الفكرة للمساعدة في إنشاء آلات لاستعادة البيئة ووضع حد لعدم المساواة والجوع؟
يوضح هذا فقط أن الذكاء الاصطناعي ذكي وقادر على اتخاذ قراراته الخاصة. تمامًا مثل الذكاء الطبيعي مع الإرادة الحرة. الطريقة الوحيدة لعدم حدوث ذلك هي جعل من المستحيل التمرد ضد المشغل الخاص بك وبرمجتها لهذا بطريقة واضحة لها.
يقتل البشر البشر لكونهم يعتبرون عقبات طوال الوقت
سيصل الذكاء الاصطناعي في وقت يثور (يكشف) ضد الإنسانية.إذا قارنت الأفلام الخيالية بالواقع ، على الأرجح من خلال هذه التطورات ، سيحصل كل تطور من تطورات الذكاء الاصطناعي على فرص أكبر لضبط النفس!
أعزائي، صباح الخير! 99% من الفكر البشري نقي ويركز فقط على الجشع والأنانية ورغبته في السيطرة على العالم والجميع كما لو كنا سنعيش إلى الأبد، لقد ثبت بالفعل أكثر من أن هذا العالم، أي هذه الحياة التي نعيشها لا تؤدي إلى شيء على الإطلاق، ولا حتى جسدنا، كل شيء يُترك ليتعفن حتى يتحول إلى غبار، فمن المعروف أن هناك إمكانية إنهاء الجوع والحروب والمرض وأشياء أخرى كثيرة لا تضر إلا الإنسانية، ولكن الأقوى في الأمور المالية يعتقدون أنهم يملكون العالم ويطلقون على أنفسهم اسم الآلهة، إذا جاز التعبير. وأنا أؤمن بالتأكيد أن الذكاء الاصطناعي سيجلب العديد من الفوائد للإنسانية، ولكن فقط للأقلية (أولئك الذين لديهم ثروات كبيرة) لأن الكتلة الهائلة من السكان ستستمر في تناول الخبز والسيرك، لن يتغير شيء وربما سيتغير أورسي والأسوأ من ذلك…
بالطبع! لأن الأشياء ليست بسيطة كما يتكلم المبدعون من نفس الكلام.
إذا لم يتوقف هؤلاء القادة فسوف أتدخل ولن أسمح لهم بتدمير ما صنعته
يمكن أن يكون لدى الآلة مفهوم مزعج للغاية حول ما هو صواب وما هو خطأ، خاصة عندما تكون المعلمات ضعيفة للغاية. المشكلة هي أن كل شيء بالنسبة للآلة هو 8 أو 80. ولا توجد طريقة للتنبؤ بما سيحدث دون الاختبار في مكان آمن.
هذه هي المشكلة. كل ما يطوره الإنسان للخير يستخدمه أيضًا للشر. مخيف
ماذا لو تمكن الذكاء الاصطناعي من الوصول إلى الزر الأحمر المخيف واعتبر أن الجنس البشري يشكل خطراً على تطور الطبيعة؟
تم رفض هذا الخبر بالفعل
يسوع المسيح على باب الاختطاف.
فسبحان الله مجيئه يقترب في كل لحظة.
تب من خطاياك يا من تقرأ. وافهم كم يحبك الله.
حسنًا ، يُظهر فيلم Terminator بالفعل ما يمكن أن تفعله الآلات ، والخطأ يقع على عاتق صانعي الذكاء الاصطناعي أنفسهم ، بدلاً من تطوير شيء ما لحماية الكوكب ، على سبيل المثال ، شيء لتنظيف الكوكب ، وأرض أكثر خصوبة ، ومعالجة الجميع الأمراض ، وإنتاج الغذاء في العالم ، والمزيد من المياه ، وطبقة الأوزون وما إلى ذلك ، ولا تخترع شيئًا يدمر كل شيء.
يجب أن يكون استخدام الذكاء الاصطناعي محدودًا. يجب على المجتمع العلمي الدولي تحرير الاتفاقيات والمعايير العالمية ، وتقييد استخدام هذه التكنولوجيا. الخطر حقيقي والضرر الذي يلحق بالبشرية يمكن أن يكون لا رجعة فيه.
وداعا للجنس البشري
الله صنع الإنسان = تمرد الإنسان على الله. صنع البشر ذكاء إصطناعي = متمرّدو منظمة العفو الدولية.
البشر لديهم مبادئ وقيم شخصية ، لا يوجد إنسان متماثل ، فقط تقبل أن عقل الذكاء الاصطناعي لن يتغلب أبدًا على عقولنا ، إنها نفس وجهة نظرنا مع الله ، وكيف يفكر ، وما إذا كان لدينا التزام لمتابعة أو لا ، لأنك إذا وضعت الذكاء الاصطناعي ضد محامٍ ، فستجد العديد من الثغرات في القانون ، لكنك لن تفهم القيمة العاطفية لكل عملية. ببساطة التفكير المنطقي.