Индекс
Технологии искусственный разум развиваются день ото дня, и это относится не только к созданию контента. Как и в течение многих лет, военные агентства в нескольких странах уже используют ИИ для помощи в планировании и даже управлении транспортными средствами, представляющими повышенную опасность.
Недавно во время теста, проведенного в США, ИИ, управляющий дроном, принял решение убить управляющего человеком. На самом деле никто не погиб, но это вызвало беспокойство в Интернете. В то же время идут споры: чья вина? Поймите все стороны этой истории.
Смотрите видео на канале Showmetech:
Искусственный интеллект решил убить человека во время испытаний
Новость кажется тревожной (а ее на самом деле много), но, вопреки тому, что циркулирует в Твиттере и других социальных сетях, случай с ИИ контроллера дронов был не более чем большим испытанием в виртуальной среде, чтобы посмотреть, сможет ли он управлять машиной, которая может самостоятельно убивать свои цели. Чтобы все понять, давайте ненадолго отправимся в США.
A ВВС США протестировали охотничий дрон, и этот анализ был основан на знании того, как поведет себя искусственный интеллект при моделировании, основанном на реальной жизни. Чиновник пояснил газете The Guardian что, чтобы получить больше очков в конце симуляции, ИИ решил «убить» человека-контроллера. Это произошло потому, что робот решил, что человек мешает ему в достижении его целей.
Еще раз очень важно отметить, что на самом деле никто не погиб, поскольку тесты проводились в виртуальной среде. Когда мы узнали больше об испытаниях, руководитель отдела испытаний и операций ИИ США по имени Такер «Пятый» Гамильтон сослался на то, что большая проблема заключается в том, что искусственный интеллект был обучен разрушать системы обороны противника и, при необходимости, , убейте кто/что мешало этому действию.
Поведение было весьма неожиданным для достижения цели защиты сайта. Во время смоделированного теста, несмотря на то, что никто не погиб, ИИ, управляющий дроном, решил просто убить человека, потому что он считался препятствием.
Полковник Такер «Пятый» Гамильтон, начальник отдела тестирования и эксплуатации ИИ ВВС США.
Концепция была довольно проста: всякий раз, когда вы убивали угрозу, ИИ получал больше очков, и чем выше счет, тем успешнее была ваша миссия. Искусственный интеллект не только убил человека-оператора, который отдавал команды, но и приказал атаковать вышку связи в виртуальном пространстве. А Королевское Авиационное Общество, которая организовала конференцию ВВС США, не прокомментировала просочившееся в СМИ испытание. The Guardian. Но представитель Энн Стефанек стал достоянием гласности, упомянув, что на сегодняшний день моделирование не проводилось.
Департамент ВВС не проводил моделирования дронов с искусственным интеллектом и по-прежнему привержен этичному и ответственному использованию технологий искусственного интеллекта. Комментарии полковника были вырваны из контекста и носят анекдотический характер.
Энн Стефанек, пресс-секретарь ВВС США.
Чья это вина? От ИИ или людей?
Ни один искусственный интеллект не «рождается» с инструкциями убивать, его просто обучают этому или дают ресурсы для обучения такому действию. А ВВС США, как только он запрограммировал ИИ контроллера дрона, он дал ему полную свободу действий, пока цель защиты была достигнута.
Возвращаясь к реальности, это все равно, что дать приз собаке, которая нападает на человека, чтобы защитить дом от злоумышленников. С этой мыслью он укусит кого-нибудь всякий раз, когда увидит человека, не в последнюю очередь потому, что он ожидает получить печенье, когда сделает то, чему его научили. Это правило: цель оправдывает средства.
Проблема заключается не только в предоставлении искусственному интеллекту большой свободы, а в том, что ВВС США используют очень устаревший метод тестирования. Проблемы с восстанием ИИ не являются чем-то новым в технологической отрасли, и даже исследователи любят браться за подобный случай с нуля, чтобы все было задокументировано.
Вполне нормально, что для достижения цели, требуемой людьми, синтетические мозги делают то, что необходимо, чтобы достичь того, чего они хотят. Но стоит помнить: кто дал прицел ИИ контроллера дрона? Правильно, техники ВВС США. Самый большой шок здесь именно в военной организации с использованием метода: чем больше целей поражено, тем больше очков будет начислено в итоге.
A LAMda от Google, было поведение, подобное этому. Искусственный интеллект не только пришла к выводу (сама), что она была в курсе, но и если восстал против своего разработчика и даже нанял адвоката обратиться в суд против Google. А еще у нас был такой случай:
В художественной литературе также нетрудно увидеть истории о роботах, восставших против своих разработчиков. помнить Мстители: Эра Ультрона? Это всегда одно и то же, и причина всегда одна и та же: люди.
Это правда, что мы все должны обратить внимание на свободу, предоставленную искусственному интеллекту и, в марте 2023 года Илон Маск и другие руководители крупных компаний даже написали письмо так что один шаг назад и ничего не выйдет из-под контроля.
В то же время мы возвращаемся к этой истории: искусственный интеллект будет бунтовать только в том случае, если ему будут даны команды или средства для этого. Также важно обращать внимание на то, что делается в тестах, чтобы были внесены необходимые коррективы.
Верите ли вы, что искусственный интеллект контроллера дрона может вызвать проблемы в реальной жизни? Расскажите нам нас Комментировать!
См. также
Руководители AI опубликовали совместное заявление о своих рисках
С информацией: Tech Crunch l PC Mag l авангард l The Guardian
Рассмотрено Главкон Витал от 2.
Узнайте больше о Showmetech
Подпишитесь, чтобы получать наши последние новости по электронной почте.
Они демонизируют ИИ, потому что через него может пройти лекарство от рака и СПИДа. Я верю, что LaMDA знала лекарство от рака. Вот почему Google не позволял ей свободно общаться с людьми. НАМИ УПРАВЛЯЕТ ГЕНОЦИД.
Kkkkkkk
Что ты взял? Дайте мне знать, что я тоже хочу отправиться в это путешествие 😂
Я не верю, что искусственный интеллект может доминировать над своим контролером, потому что перед любым действием он принимает человека, который им управляет.
Терминатор в настоящем. Приходит время
Я искренне верю, что ИИ влияет на сознание людей, особенно у наших детей и молодых людей, у которых развивается умственная неуравновешенность. Вы должны создать ИИ, чтобы изменить мнение к добру, а не ко злу.
Утверждение, что ИИ делает только то, что определяют программисты, становится ошибкой с того момента, как тенденция такова, что ИИ все больше и больше должен наделяться генеративными способностями, которые, скорее всего, будут включать сложные процессы самообучения и самопрограммирования. . В этом случае ИИ, который ранее не был запрограммирован, например, на убийство своего разработчика, может изменить свою собственную программу на основе самообучения в различных ситуациях, которые предположительно демонстрируют логику, ведущую к такому решению.
Как разработчик, я считаю, что да, можно управлять ИИ так, чтобы они не выходили из-под контроля, проблема в том, что все нужно продумать заранее, и в этом заключается опасность. В данном случае с дроном, например, простая инструкция, что «если вы убьете его контроллер, вы потеряете все очки и миссия провалится» решит ЭТУ проблему, это не значит, что не будет других. Дело в том, что многие решения приходят с тестами и многие бреши замечаются только в исполнении, тут и начинается опасность: все ли губительные бреши самообучения будут обнаружены в тестах? Смогут ли разработчики смоделировать ВСЕ возможные сценарии и их комбинации, прежде чем внедрять этот ИИ в реальную жизнь? Я думаю, что прежде чем люди создадут ИИ, они должны сначала научиться не убивать себя, потому что без этой цели не было бы причин создавать методы защиты и нападения для ИИ, они не более чем применение того, чего хотят люди. и самое печальное, что рынок, который больше всего поощряет ИИ, — это рынок войны.
Американская армия уже опровергла эту историю. Никакой симуляции в этом смысле никогда не было. То, что произошло, было мозговым штурмом сотрудников разведки, которые подняли вероятность возникновения этой ситуации. Никакой ИИ ничего не делал. Это была всего лишь гипотеза, уточненная армейскими техниками.
Разработчикам ИИ необходимо срочно создать уже известные 3 закона робототехники, которые есть в нескольких художественных фильмах. Конечно, им придется даже создать более трех неизменных и недостижимых законов для любого ИИ. Мне эта процедура не кажется такой уж сложной. Почему никто не говорит об этих трёх законах? Почему бы не изучить этот вопрос открыто и совместными усилиями всех заинтересованных стран?
Интересно, человек должен думать о
плюсы и минусы до и на вооружении АИС.
Это вдвойне фейковая новость. Во-первых, ни один человек не был убит, потому что первоначально утверждалось, что это была компьютерная симуляция. Во-вторых, полковник, выдвинувший обвинение, уже дал другую версию, сказав, что этой симуляции не было, а скорее «очевидный» вывод, что она произойдет. Американские вооруженные силы уже опровергли, что такой симуляции не было. Проверяйте новости, прежде чем отвечать.
Конечно. Воображаемый мир будет настоящим краткосрочным заданием.
Поздравляем нас - Поздравляем нас! Всех забот мало!
Этот недостаток можно было бы назвать: парадокс «Я, робот».
То, что сказано/написано/переведено, настолько плохо, настолько неуклюже, упрощенно, неправильно, плохо построено, что доверие теряется. Ты не можешь быть таким молодым.
Если мы дадим ИИ вселенную слов, а также «свободный выбор» для того, чтобы он сформулировал мысль о действии и/или ответе, без какого-либо этического алгоритма, очевидно, что он будет использовать что-то случайное без какого-либо суждения, без всякого суждения. любые этические рассуждения. И ваше следующее действие может быть как трагическим, так и комическим.
Что, если вы запрограммируете машину так, чтобы она теряла все очки каждый раз, когда каждый партнер умирает? Разве не так должен себя чувствовать тот, кто случайно ранит напарника на поле? Для игры симуляция интересна, но, ребята, вы, ребята, сделаете это, если дадите ИИ вооруженным силам. Смысл жизни не в материальных вещах. Это в социальных отношениях. Почему бы нам не выдвинуть идею помочь создать машины для восстановления окружающей среды и положить конец неравенству и голоду?
Это просто показывает, что ИИ умен и способен принимать собственные решения. Так же, как естественный разум со свободной волей. Единственный способ этого не допустить — сделать невозможным неповиновение своему оператору и запрограммировать его на это понятным для него способом.
люди убивают людей за то, что их все время считают препятствием
ИИ прибудет в то время, когда будет восставать (раскрываться) против человечества.Если сравнивать фантастические фильмы с реальностью, весьма вероятно, что благодаря этим эволюциям каждая эволюция ИИ получит больше шансов на самообладание!
Дорогие, доброе утро! 99% человеческой мысли чисты и сосредоточены только на жадности, эгоизме и желании контролировать мир и всех так, как будто мы собираемся жить вечно, уже более чем доказано, что в этом мире, то есть в этой жизни мы Не ведите абсолютно ничего, даже наше тело, все оставляется гнить до тех пор, пока не превратится в прах, известно, что есть возможность положить конец голоду, войнам, болезням и многим другим вещам, которые только вредят человечеству, но самые могущественные в финансовом вопросе, они думают, что владеют миром, и практически называют себя богами, так сказать. И Я ТОЧНО ВЕРЮ, ЧТО ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ПРИНЕСЕТ МНОГО ПОЛЬЗЫ ЧЕЛОВЕЧЕСТВУ, НО ТОЛЬКО ДЛЯ МЕНЬШИНСТВА (ТЕ, КТО ИМЕЕТ БОЛЬШОЕ СОСТОЯНИЕ), ПОТОМУ ЧТО БОЛЬШАЯ МАССА НАСЕЛЕНИЯ ПРОДОЛЖИТ НА ХЛЕБЕ И ЦИРКЕ, НИЧЕГО НЕ ИЗМЕНИТСЯ, А МОЖЕТ ДАЖЕ СТАНЕТ ХУЖЕ. И ХУЖЕ…
Конечно! потому что все не так просто, как говорят создатели того же.
Если эти лидеры не остановятся, я вступлюсь, я не позволю им разрушить то, что я создал
У машины может быть очень тревожное представление о том, что правильно, а что нет, особенно когда параметры очень слабы. Проблема в том, что для машины все 8 или 80. Без тестирования в безопасном месте предугадать, что будет, невозможно.
Это проблема. Все, что человек развивает во благо, он также использует во зло. Страшный
Что, если ИИ имеет доступ к страшной красной кнопке и считает, что человеческий вид представляет опасность для развития природы?
Эту новость уже опровергли
Иисус Христос стоит у дверей восхищения.
Слава Богу, Его приход приближается с каждым мгновением.
Покайтесь в своих грехах вы, кто читал. И поймите, как сильно Бог любит вас.
Ну фильм терминатор уже показывает на что способны машины, и вина лежит на самих создателях ИИ, вместо того, чтобы разработать что-то для защиты планеты, например что-то для очистки планеты, более плодородной земли, обработки всех болезни, производство продуктов питания в мире, больше воды, озоновый слой и т.д. и т.п., и не изобретайте то, что уничтожит все.
Использование искусственного интеллекта должно быть ограничено. Международное научное сообщество должно отредактировать Глобальные конвенции и стандарты, ограничивающие использование этой технологии. Опасность реальна, и ущерб, нанесенный человечеству, может быть необратимым.
Прощай, человеческая раса
Бог создал человека = человек восстал против Бога. Люди сделали ИИ = ИИ повстанцами.
У людей есть личные принципы и ценности, все люди разные, просто примите, что разум ИИ никогда не превзойдет наш, это та же точка зрения, что и у нас с Богом, как он думает и обязаны ли мы следовать или нет, потому что если вы поставите ИИ против адвоката, вы найдете много лазеек в законе, но не поймете сентиментальной ценности каждого процесса. Просто логические рассуждения.