Люди старше 50 лет больше всего обманываются фотографиями и видео, созданными с помощью ИИ. Исследования показывают, что такие проблемы, как снижение когнитивных функций и недостаток знаний по этому вопросу, затрудняют различие между настоящим и «фальшивым» среди представителей поколения x.

Люди старше 50 лет больше всего обманываются фотографиями и видео, созданными с помощью ИИ

Лукас Гомес аватар
Исследования показывают, что такие проблемы, как снижение когнитивных функций и недостаток знаний по этому вопросу, затрудняют различие между настоящим и «фальшивым» среди представителей поколения X.

Фотографии и видео, созданные с помощью ИИ (Искусственный интеллект) уже некоторое время обсуждается во всем Интернете. Будь то создание аватара или видео для особого свидания, эти творения широко присутствуют в повседневной онлайн-жизни, но их часто путают с реальными изображениями, что может привести к распространению фейковых новостей — поддельные новости. Одна из наиболее пострадавших аудиторий принадлежит к возрастной группе за 50 лет, особенно пожилых людей, и одно из мест, где больше всего содержатся вводящие в заблуждение изображения, созданные ИИ, — это что его цель. Ознакомьтесь с некоторыми данными из опубликованных исследований по этому вопросу.

Данные исследований

Изображения, созданные ИИ, могут быть очевидными, но не для всех. Изображение: news18 генеративный ias, фотографии и видео, созданные с помощью ias
Изображения, обработанные ИИ, могут быть очевидными, но не для всех. Изображение: Новости18

Контент, созданный искусственный разум становится все более популярным, особенно в социальных сетях, благодаря изображениям, которые вписываются в зловещая долина - Где сверхъестественная долина. Это понятие относится к изображениям, которые кажутся реальными, но содержат искусственные элементы, вызывающие дискомфорт у тех, кто их видит. Несмотря на большое сходство с реальными людьми, изображения в Зловещей долине имеют искусственные характеристики, хотя они очень напоминают естественные. Это восприятие, по-видимому, связано с наиболее молодой.

Пожилым людям трудно распознать эти странные, неестественные элементы в средствах массовой информации, созданных искусственным интеллектом, что повышает вероятность их обмана. Искусство, созданное ИИ Это не для всех так очевидно, и исследования показывают, что люди старше 50 лет массово поддаются этим визуальным трюкам в социальных сетях.

Платформы вроде что его цель становятся все более популярными среди пожилых людей и пожилых людей, ищущих развлечений и общения, поскольку молодые пользователи переходят на более современные приложения, такие как Instagram или TikTok. Судя по всему, согласно статье исследователей Facebook, алгоритм Facebook намеренно направляет изображения, сгенерированные ИИ, в ленты пользователей с целью продажи продуктов и привлечения подписчиков. Стэндфордский Университет и Джорджтаунский университет.

У ученых до сих пор нет однозначных ответов о психологическом воздействии искусства, созданного искусственным интеллектом, поскольку генераторы изображений стали достоянием общественности совсем недавно, около двух лет назад. Но понимание того, почему старшие друзья и родственники могут чувствовать себя сбитыми с толку, может дать важную подсказку, которая поможет им не стать жертвами мошенничества или дезинформации.

Процесс когнитивного старения влияет, но не является определяющим фактором. Изображение: интересная техника
Очень важно быть осторожным, поскольку мошенничество с использованием искусственного интеллекта может стать обычным явлением. Изображение: Интересная инженерия

Понимание того, как разворачивается этот сценарий, важно, поскольку технологические компании, такие как Google, склонны игнорировать пожилых пользователей во время внутреннего тестирования. Бьерн Herrmann, когнитивный нейробиолог университет Торонто который изучает влияние старения на общение.

Хотя процесс старения – особенно когнитивный процесс – может показаться наиболее очевидным объяснением этой несовместимости с современными технологиями, ранние исследования показывают, что недостаток опыта и знания ИИ может помочь объяснить понимание среди более молодой и самой старшей аудитории. Опрос, проведенный почти 1.300 взрослыми жителями Северной Америки в возрасте 50 лет и старше, показывает, что только 17% участников заявили, что читали или слышали об ИИ..

Пока что несколько экспериментов по анализу восприятия ИИ пожилыми людьми кажутся близкими к тому, что происходит в Facebook. В исследовании, недавно опубликованном в журнале Научные докладыУченые показали 201 участнику смесь изображений, созданных искусственным интеллектом и человеком, и оценили их ответы на основе таких факторов, как возраст, пол и отношение к технологиям. Команда обнаружила, что участники пожилого возраста с большей вероятностью верили, что изображения, созданные ИИ, были созданы людьми.

Хотя исследования восприятия людьми контента, созданного ИИ, ограничены, исследователи получили аналогичные результаты со звуком, созданным ИИ. В прошлом году Херрманн сообщил, что у пожилых людей наблюдается снижение способности различать речь, сгенерированную человеком, и речь, сгенерированную искусственным интеллектом. по сравнению с более молодыми особями.

В целом, Симона Грассини, психолог из Бергенского университета в Норвегии, считает, что любой тип средств массовой информации, созданных искусственным интеллектом, может легче ввести в заблуждение пожилых зрителей из-за более широкого «общего эффекта». И Херрманн, и Грассини предполагают, что старшие поколения, возможно, не знали о характеристиках контента, создаваемого ИИ, и реже сталкиваются с ним в повседневной жизни, что делает их самый уязвимый когда этот контент появляется на их экранах.

Снижение когнитивных способностей и потеря слуха (в случае звука, генерируемого ИИ) могут иметь свое влияние, но Грассини также отметил, что этот эффект наблюдался и у людей в возрасте от сорока до пятидесяти лет. Молодые люди выросли в эпоху онлайн-дезинформации и привыкли к поддельным фотографиям и видео, добавил Грассини.

Как защититься от поддельных изображений, созданных ИИ

Любые технологии приветствуются для нашего развития, но мы должны осознавать возможное мошенничество и мошенничество. Изображение: азоробототехника
Любые технологии приветствуются для нашего развития, но мы должны осознавать возможное мошенничество и мошенничество. Изображение: AZoRobotics

A быстрая эволюция искусственного интеллекта она, безусловно, приносит много пользы обществу, но, как видно из этого контента, мы должны следить за последствиями, которые эта технология может вызвать у нас. Хотя его потенциал огромен и охватывает такие области, как здравоохранение и образование, нельзя игнорировать возможные недостатки. Хейвуд Талков, генеральный директор организации по кибербезопасности, предупреждает пожилых людей о растущем использовании ИИ в схемах романтического мошенничества, попытках мошенничества с выкупом и налоговых махинациях против правительства.

Тальков заявил, что существует большое количество людей, которые посвятили себя развитию этой технологии и работают не покладая рук. С другой стороны, есть также группа, которая в равной степени занимается применением своих навыков в обратных сторонах, используя ИИ для решения проблем. оттачивайте свои выходки и эксплуатируйте пожилых людей и стариков. Имея это в виду, вот несколько моментов, которые помогут вам защитить себя, а также защитить тех людей, которым нужны эти рекомендации:

  • Романтические аферы: Благодаря достижениям в области искусственного интеллекта мошенники теперь могут создавать визуальные изображения, которые выглядят чрезвычайно реальными. Они также обладают способностью генерировать голос, предназначенный для привлечения конкретной жертвы. Эти реалистичные изображения и голоса используются, чтобы убедить жертву принять участие в видеовстречах. Здесь совет — всегда подтверждать правдивость фото или видео, сравнивая его с другими медиа от самого человека или даже совершая живые звонки;
  • Фальшивое спасение: На многих платформах социальных сетей люди размещают короткие видеоролики, где записаны их голоса. Мошенник может использовать одну из этих записей, чтобы создать чрезвычайно реалистичную копию голоса человека. Таким образом, мошенник может имитировать голос ребенка, внука или другого члена семьи, чтобы вести разговор. Во время разговора задавайте конкретные вопросы и постарайтесь подтвердить личность собеседника. Иногда сам по себе голос не является показателем того, что этот человек тот, кем он себя называет;
  • Подумайте, прежде чем нажать: Старый трюк с переходом по ссылкам также может быть связан с искусственным интеллектом. Важно быть осторожным при открытии ссылок, будь то по электронной почте или в текстовом сообщении. Если отправитель не распознан, не нажимайте на ссылку. Помните, что наши смартфоны — это тоже компьютеры. Один клик по подозрительной ссылке может привести к загрузке вредоносного ПО на ваше устройство.
  • Доверьтесь своей интуиции: Искусственный интеллект может создавать сообщения, которые кажутся исходящими от людей, которых вы знаете, используя общедоступную информацию. Это увеличивает риск попасться на мошенничество. Будьте осторожны с нежелательными электронными письмами и сообщениями, в которых запрашивается личная информация, даже если они кажутся законными. Доверяйте своей интуиции, когда замечаете какие-либо тревожные сигналы, например орфографические ошибки, странное или повторяющееся форматирование. В случае сомнений свяжитесь с компанией или лицом напрямую по телефону, а не по электронной почте, чтобы подтвердить подлинность;
  • Поддерживайте свое программное обеспечение в актуальном состоянии: Искусственный интеллект также может идентифицировать уязвимые устройства, проверяя версии программного обеспечения или недостатки безопасности. Чтобы обеспечить безопасность ваших устройств, всегда обновляйте свое устройство (смартфон, ноутбук, планшет и т. д.), программное обеспечение и приложения. Это помогает защититься от потенциальных атак вредоносного ПО.

Как защитить пожилых людей

Люди старше 50 лет больше всего обманываются фотографиями и видео, созданными с помощью ИИ. Исследования показывают, что такие проблемы, как снижение когнитивных функций и недостаток знаний по этому вопросу, затрудняют различие между настоящим и «фальшивым» среди представителей поколения x.
Фейковые изображения и фейковые видео часто вводят в заблуждение пожилых людей, особенно в социальных сетях. Изображение: Verified.org

Несмотря на проблемы с выявлением фейкового контента (не настоящие Новости) по мере того, как они распространяются в Интернете, пожилые люди часто имеют другой взгляд на более широкую картину. Фактически, они, возможно, с большей вероятностью осознают опасность контента, созданного ИИ, чем молодое поколение.

Опрос, проведенный MITRE-Харрис Опрос, в котором приняли участие более 2.000 человек, показало, что большая часть Бэби-бумеры (1946 и 1964 годов рождения) и Поколение Х (1965–1980) обеспокоен последствиями deepfakes — эффекты и правки на фото и видео, которые достаточно сложно различить — по сравнению с участниками Поколение Z (1997–2012 годы) и поколение Y (также известен как Millenials, 1981-1996 года рождения).

В группах старшего возраста была более высокая доля участников, которые выступали за регулирование технологий искусственного интеллекта и увеличение инвестиций технологической отрасли в защиту общества. Исследование также показало, что пожилые люди могут более точно различать ложные заголовки и истории по сравнению с молодыми людьми или, по крайней мере, распознавать их с одинаковой скоростью.

Пожилые люди также склонны потребляйте больше новостей чем их младшие сверстники, и, возможно, на протяжении всей жизни накопили обширные знания по конкретным предметам, что затрудняет их обман.

Os голписты используют все более сложные инструменты генеративного искусственного интеллекта для пожилых людей. Они могут использовать аудио и изображения. deepfake извлеченные из социальных сетей для имитации звонка члена семьи и запроса денег или даже фальсификации появления родственника во время видеозвонка.

Поддельные видео, аудио и изображения также могут влиять избиратели пожилые люди перед выборами. Это может быть еще более вредным, поскольку люди в возрасте пятидесяти лет и старше, как правило, составляют большинство избирателей в таких странах, как сама Бразилия.

Чтобы помочь пожилым людям в их жизни, Хикерсон подчеркнул важность распространения информации о генеративном искусственном интеллекте и рисках, которые он может представлять в Интернете. Один из способов начать их обучение – это выделение характеристик этих изображений, которые явно ложны, например слишком гладкие текстуры, странно выглядящие зубы или узоры, которые плавно повторяются на фоне фотографий.

Она добавляет, что мы также можем уточнить, что мы знаем и чего не знаем об алгоритмах социальных сетей и о том, как они влияют на пожилое население. Также необходимо помнить, что дезинформация может исходить даже от друзей и семьи.

Каким бы реалистичным оно ни было, это изображение не является фотографией. Он был полностью сгенерирован искусственным интеллектом за миллисекунды. Изображение: этого человека не существует
Каким бы реалистичным оно ни было, это изображение не является фотографией. Он был полностью сгенерирован ИИ за миллисекунды. Изображение: Этот человек не существует

С продвижением deepfakes и другие творения искусственного интеллекта каждый день, даже самым опытным экспертам в области технологий может быть сложно их идентифицировать. Даже если вы считаете себя достаточно хорошо осведомленным, эти модели могут сбить с толку. Веб-сайт Этого человека не существует, например, предлагает невероятно убедительные фотографии фальшивых лиц, созданных искусственным интеллектом, часто без очевидных признаков их компьютерного происхождения.

Хотя исследователи и технологические компании разработали алгоритмы для автоматического обнаружения фейковых медиа, они не являются непогрешимыми, а постоянно развивающиеся модели генеративного искусственного интеллекта имеют тенденцию превосходить их. Один из самых известных ИИ в создании изображений, Середина пути, долгое время сталкивался с трудностями при создании реалистичных рук, прежде чем, наконец, добился успеха с новой версией, выпущенной несколько месяцев назад. Чтобы справиться с растущей волной незаметного ложного контента и его социальными последствиями, Хикерсон подчеркнул важность регулирования и корпоративной ответственности.

Подробности об этой и других новостях можно узнать на сайте Шоуметех ТРИО, ваше еженедельное трио технических новостей:

А вы, что вы думаете об этой волне дезинформации, созданной ИИ? Вы когда-нибудь были в подобной ситуации? Расскажи нам Комментировать!

См. также:

Теперь туристы смогут путешествие на воздушном шаре в космос В 2025.

С информацией от: The Daily Beast, NORC, NCBI e Американский легион

Рассмотрено Главкон Витал от 26.

Оставить комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

Похожие сообщения
Препарат, который заставляет зубы расти естественным путем, уже прошел испытания на людях. (фото: репродукция)

Препарат, который заставляет зубы расти естественным путем, назначен на испытания на людях

Учитывая многообещающие разработки, начавшиеся в июле 2023 года, первые испытания препарата на животных прошли успешно. Испытания на людях начнутся позднее в этом году
Аватар Энцо Сапио Монелло
Читать дальше
LG демонстрирует линейку продуктов 2024 года на сайте Coator. Компания показывает, как интеллектуальные телевизоры, звуковые панели и интеллектуальные устройства можно интегрировать в дом с голосовым управлением и управлением через приложения. Посмотрите основные товары!

LG покажет линейку продуктов 2024 года на выставке CASACOR

Компания показывает, как интеллектуальные телевизоры, звуковые панели и интеллектуальные устройства можно интегрировать в дом с голосовым управлением и управлением через приложения. Посмотрите основные товары!
бруно мартинес аватар
Читать дальше