Как преступники клонируют людей

Посмотрите, как преступники клонируют людей с помощью искусственного интеллекта

Александр Маркес Аватар
Благодаря возможности клонирования фото, голоса и даже видео в мошеннических схемах в 65 году эта практика увеличилась на 2023%. Узнайте, как действуют преступники и как защитить себя.

Бразилия столкнулась со значительным увеличением случаев электронного мошенничества, отчасти из-за использования Искусственный интеллект (ИИ) мошенниками; Вот какие данные из Ежегодник общественной безопасности Бразилии, 2023 год. С развитием технологий преступникам стало легче выдавать себя за других людей, используя ИИ для создания фальшивых профилей и обмана ничего не подозревающих жертв. Эта практика усилила клонирование людей преступниками, что привело к увеличению случаев онлайн-мошенничества, такого как финансовое мошенничество, клонирование карт и фишинг, практика, при которой личная информация получается обманным путем.

Использование IA в этом контексте мошенничество стало более изощренным и трудным для обнаружения, поскольку технологии генерации текста и голоса могут создавать сообщения и звонки, очень похожие на реальное общение. Кроме того, способность ИИ анализировать большие объемы данных упрощает персонализацию мошенничества, делая его более убедительным и увеличивая вероятность успеха мошенников.

Что такое электронное мошенничество?

Как преступники клонируют людей
Электронное мошенничество предполагает использование цифровых средств для осуществления финансовых мошенничеств. Фото: Репродукция/TV Anhanguera

Электронное мошенничество — это форма преступления, которая предполагает использование электронных средств, таких как Интернет и цифровые устройства, для обмана и обмана людей. Этот тип мошенничества охватывает различные мошеннические действия, такие как фишинг, клонирование карт, ложные рекламные акции и т. д., целью которых является получение личной или финансовой информации от жертв.

Важно подчеркнуть, что электронное мошенничество может происходить разными способами: от создания фальшивых страниц для сбора личной информации до имитации личности для осуществления финансового мошенничества.

По статистике из Ежегодник общественной безопасности Бразилии, 2023 годВ прошлом году число случаев электронного мошенничества достигло 200.322 65 записей. Это значение представляет собой значительный рост на 2021% по сравнению с 120.470 годом, когда было зарегистрировано XNUMX XNUMX случаев. Государствами, наиболее пострадавшими от этого типа переворота, были:

  • Санта-Катарина, с 64.230 XNUMX случаями;
  • Минас-Жерайс, с 35.749 XNUMX случаями;
  • Федеральный округ, с 15.580 XNUMX случаями;
  • Святой дух, с 15.277 случаями.

С другой стороны, вызывает беспокойство тот факт, что некоторые штаты, такие как Баия, Сеара, Рио-де-Жанейро, Риу-Гранди-ду-Норти, Риу-Гранди-ду-Сул и Сан-Паулу, не предоставили данных об этом виде преступлений до окончания исследования. что позволяет предположить возможное занижение данных или отсутствие точных данных о масштабах проблемы в этих регионах.

Как ИИ используют в мошенничестве

Как преступники клонируют людей
Искусственный интеллект используется в мошенничестве для создания фейковых профилей и имитации человеческого взаимодействия. Фото: Getty Images.

As Искусственный интеллект (ИИ) Они используются мошенниками различными способами, чтобы выдать себя за других людей, что повышает изощренность и эффективность мошенничества. Одним из распространенных методов является создание фейковых профилей в социальных сетях и на платформах обмена сообщениями, где искусственный интеллект используется для генерации информации и фотографий, похожих на реального человека.

As ИИ Они способны анализировать данные, доступные в Интернете, такие как фотографии, публикации, личную информацию, и создавать чрезвычайно убедительные фейковые профили. Кроме того, ИИ могут имитировать язык и поведение людей, из-за чего жертвам становится сложнее определить, что они взаимодействуют с машиной, а не с реальным человеком.

В целом, ИИ Они по-разному используются мошенниками, чтобы выдавать себя за других людей, из-за чего жертвам становится сложнее определить, что их обманывают. Ниже приведены наиболее распространенные случаи мошенничества с использованием электронных средств. ИИ.

Мошенничество с голосовыми вызовами

Как преступники клонируют людей
Мошенничество с голосовыми вызовами можно выявить по срочным запросам и расплывчатой ​​информации. Фото: Репродукция/Интернет.

Мошенничество в голосовых вызовах с использованием Искусственный интеллект (ИИ) стали более распространенными и сложными. В этом типе мошенничества преступники используют программы искусственного интеллекта для имитации человеческих голосов, имитируя людей, известных жертвам или даже властям, таких как представители банков или компании. Благодаря этому мошенники могут обмануть жертв, запрашивая личную информацию, например банковские пароли, или побуждая их осуществить денежные переводы. Эти мошенничества опасны, поскольку фальшивые голоса могут быть чрезвычайно убедительными, из-за чего жертвам сложно идентифицировать мошенничество.

Одна из первых публичных демонстраций синтезированной речи произошла в 1984 году, когда компьютер Apple прочитал текст роботизированным голосом. С тех пор мы наблюдаем развитие таких голосовых помощников, как Siri от Apple и Alexa от Amazon, которые способны интерпретировать команды и взаимодействовать с пользователями более естественным образом. Недавно южнокорейская компания запустила услугу «Мемориал искусственного интеллекта», которая позволяет людям поддерживать виртуальное присутствие после смерти, позволяя семье и друзьям разговаривать с цифровой версией умершего человека.

Хотя у этой технологии есть законные применения, например, для сохранения воспоминаний и жизненных историй, ее также можно использовать и в злонамеренных целях. Мошенничество в голосовых вызовах с использованием IA они могут стать еще более убедительными, когда мошенники воспользуются голосами самих жертв, размещенными в социальных сетях. Имея доступ к этим голосовым записям, преступники могут создавать фальшивый звук, который точно имитирует голос жертвы, что повышает доверие.

Кроме того, мошенники могут использовать ИИ сложные инструменты для создания более интерактивных диалогов, убедительно отвечая на вопросы жертв. Это может заставить жертв поверить, что они на самом деле разговаривают с реальным человеком, что повышает эффективность мошенничества.

Отсутствие специального регулирования затрудняет борьбу с данным видом мошенничества. В настоящее время законы об авторском праве не защищают голос человека, что облегчает манипулирование и неправильное использование технологии клонирования голоса. Чтобы решить эту проблему, некоторые законодатели предложили законы, которые ужесточат штрафы за использование IA выдавать себя за людей. Однако этот вопрос остается сложной задачей, поскольку необходимо найти баланс между защитой конфиденциальности и свободой выражения мнений.

Мошенничество с использованием фотографий пользователей

Как преступники клонируют людей
Мошенники с использованием фотографий пользователей могут быть обнаружены в фейковых профилях с противоречивой информацией. Фото: Adobe Stock.

Еще одна форма мошенничества — создание фейковых профилей на основе фотографий жертв. Преступники могут использовать фотографии, найденные в социальных сетях или других онлайн-источниках. С помощью этих фейковых профилей мошенники могут выдавать себя за других людей, вводя в заблуждение друзей или родственников жертв. Этот метод обычно используется в мошеннических онлайн-платформах для романтических отношений, когда преступники создают фальшивые профили, чтобы привлечь внимание жертв и в конечном итоге запросить деньги или личную информацию.

Эти мошенничества могут быть еще более убедительными, когда преступники объединяют фотографии с личной информацией, полученной в Интернете. Таким образом, фальшивые профили кажутся чрезвычайно аутентичными, что затрудняет жертвам идентификацию того, что их обманывают. Важно, чтобы люди знали об этой практике и принимали меры безопасности при взаимодействии в Интернете, например, проверяли подлинность профилей, с которыми они общаются, и никогда не делились личной или финансовой информацией с незнакомцами.

Видеомошенничество с Deepfakes

Как преступники клонируют людей
Видеомошенничество с использованием Deepfakes — это фейковая продукция, имитирующая реальных людей, которую можно идентифицировать по несовершенствам изображения. Фото: Репродукция / B9.

Видеомошенничество с использованием Deepfakes, которые представляют собой поддельные видеоролики, созданные с помощью IA, также стали вызывать растущую озабоченность. По мере развития технологий преступники могут создавать видеоролики, на которых показаны реальные люди, делающие или говорящие то, чего они никогда не делали, и которые можно использовать для опорочения кого-либо или вымогательства денег. Ты Deepfakes может быть чрезвычайно убедительным, из-за чего людям трудно отличить настоящие видео от фейковых.

Использование Deepfakes уже привлекла внимание и обеспокоенность правительств во всем мире. До этого Китай был пионером в законодательном законодательстве по использованию Deepfakes. Китайское законодательство, гораздо более всеобъемлющее, чем те, которые были приняты правительствами некоторых западных стран, описывается как механизм сохранения социальной стабильности. Он конкретно запрещает создание дипфейков без согласия пользователя и требует конкретного подтверждения того, что контент был создан с помощью Искусственный интеллект (ИИ).

Недавний и тревожный пример произошел после вторжения России в Украину, когда видео Deepfake был опубликован в социальных сетях, где показано, как президент Украины Владимир Зеленский якобы приказывает своим войскам сдаться, чего на самом деле никогда не происходило. Еще один показательный случай произошел в Гонконге, где финансового сотрудника обманом заставили заплатить 25 миллионов долларов после участия в видеоконференции с предполагаемыми высокопоставленными членами его компании, которая на самом деле была дипфейком.

Эти мошенничества могут иметь разрушительные последствия, особенно когда в них участвуют общественные деятели или обычные люди, ставшие жертвами клеветы. Кроме того, Deepfakes также может быть использован в мошенничестве фишинг, где преступники отправляют жертвам фальшивые видеоролики, пытаясь убедить их перейти по вредоносным ссылкам или поделиться личной информацией. Чтобы защитить себя от подобных мошенников, важно знать о существовании Deepfakes и всегда проверяйте подлинность видео, прежде чем делиться ими или предпринимать какие-либо действия на их основе.

Как выявить закономерности использования ИИ в мошенничестве

Как преступники клонируют людей
Выявить закономерности использования ИИ в мошенничестве можно, наблюдая чрезмерную персонализацию сообщений и грамматические ошибки. Фото: EFE/iStock

Выявить закономерности в использовании искусственный интеллект (ИИ) Мошенничество может быть сложной задачей, но некоторые подсказки могут помочь выявить потенциальное мошенничество. Одной из основных характеристик является чрезмерная персонализация сообщений или взаимодействий. ИИ могут анализировать большие объемы данных для создания высоко персонализированных сообщений, что может показаться подозрительным, если человек ранее не имел отношений с отправителем. Кроме того, грамматические или текстовые ошибки связности могут указывать на то, что сообщение было создано IA, особенно если сообщение ведется на языке, чужом предполагаемому отправителю.

Другой распространенной схемой является быстрый и настойчивый запрос личной или финансовой информации. Мошенники, которые используют ИИ Они часто пытаются обманом заставить жертву срочно предоставить конфиденциальную информацию, используя тактику эмоциональной манипуляции. Кроме того, отсутствие конкретной информации или уклончивые ответы на прямые вопросы могут свидетельствовать о том, что взаимодействие происходит не с реальным человеком.

Советы, как защитить себя

Чтобы не стать жертвой возможного цифрового мошенничества, важно принять некоторые меры безопасности. Ниже приведены некоторые инструкции, которые помогут не стать жертвой возможного цифрового мошенничества:

Если сомневаетесь, говорите лично

Как преступники клонируют людей
В случае сомнений поговорите лично с лицом или компанией, участвующими в подозрительном сообщении. Фото: Катерина Сисперова / iStock.

В эпоху цифровых технологий легко попасться на онлайн-мошенничество из-за сложности методов, используемых преступниками. Эффективный способ защитить себя — это взять за правило в случае сомнений лично разговаривать с вовлеченным лицом или компанией. Если вы получаете запрос на предоставление конфиденциальной информации по электронной почте, в текстовом сообщении или по телефону, всегда рекомендуется проверять подлинность запроса путем прямого контакта.

Кроме того, при проведении финансовых транзакций или обмене личной информацией разумно избегать предоставления конфиденциальных данных в Интернете. Выберите способ осуществления этих транзакций лично или через безопасные и проверенные каналы. Эта простая практика поможет вам избежать цифрового мошенничества и защитить вашу личную и финансовую информацию.

Проверьте номер телефона

Как преступники клонируют людей
Проверьте номер телефона, если вы подозреваете мошенничество, ищите информацию о компании или звонящем человеке. Фото: iStock.

Чтобы проверить подлинность номера телефона в случае подозрения на мошенничество, достаточно выполнить поиск в Интернете. Используйте поисковые системы, чтобы проверить, связан ли номер с известными мошенниками. Кроме того, поищите информацию о компании или человеке, связавшемся с вами, проверив сообщения о мошенничестве, связанном с номером. В некоторых случаях вы можете обнаружить оповещения о мошенничестве, которыми поделились другие, что может помочь подтвердить, является ли сообщение законным.

Повесьте трубку и позвоните человеку, если у вас есть подозрения

Как преступники клонируют людей
Если у вас есть подозрения, повесьте трубку и позвоните этому человеку самостоятельно, используя проверенный номер телефона. Фото: Репродукция/Интернет.

Повесить трубку и позвонить человеку, если у вас есть подозрения, может быть эффективной стратегией для подтверждения и повторной проверки легитимности звонка. Это связано с тем, что во многих случаях мошенничества преступники могут использовать искусственный интеллект (ИИ) подражать чужому голосу. Повесив трубку и позвонив самому себе, вы можете убедиться, что голос и поведение звонящего соответствуют вашим ожиданиям. Кроме того, эта мера может помочь предотвратить возможные попытки клонирования номеров или выдачи себя за другое лицо, что часто встречается при телефонном мошенничестве.

Подтвердите это с помощью видеозвонка и задайте вопросы, на которые сможет ответить только реальный человек.

Как преступники клонируют людей
Подтвердите это с помощью видеозвонка и задайте вопросы, на которые сможет ответить только реальный человек, чтобы проверить подлинность сообщения. Фото: Раскрытие/WhatsApp.

В ситуациях подозрения в мошенничестве с использованием искусственный интеллект (ИИ)Как deepfakes или клонирование голоса, эффективной мерой является видеозвонок для подтверждения личности человека. Во время видеозвонка задавайте вопросы, на которые сможет ответить только реальный человек, например подробности об общем опыте или конкретную информацию о ваших отношениях.

Эти вопросы помогут убедиться, что вы действительно общаетесь с ожидаемым человеком, поскольку мошенникам может быть сложно убедительно ответить на эти вопросы. Кроме того, при совершении видеозвонка вы можете наблюдать за выражением лица и поведением человека, что может помочь выявить признаки подделки.

Не давайте деньги в долг без подтверждения личности другого человека

Как преступники клонируют людей
Не давайте деньги в долг без проверки личности человека, чтобы не попасться на финансовые мошенники. Фото: Репродукция/Интернет.

Не давать деньги в долг без проверки личности человека — основная мера предотвращения мошенничества. Когда к вам обращается кто-то с просьбой одолжить деньги, особенно лично, важно тщательно проверить личность этого человека. Запросите личную информацию, которую сможет предоставить только реальный человек, и подтвердите ее с помощью документов или других средств проверки. Кроме того, помните о срочных просьбах или эмоциональном давлении, поскольку это обычные признаки финансового мошенничества.

Наблюдайте за манерами, сравнивайте и ищите ошибки в изображениях.

Как преступники клонируют людей
Наблюдайте за манерами, сравнивайте информацию и ищите ошибки в изображениях, чтобы выявить возможные мошеннические действия с использованием ИИ. Фото: Репродукция/Интернет.

Наблюдение за манерами, сравнение информации и поиск ошибок в изображениях являются важными мерами по выявлению возможных мошенников, использующих искусственный интеллект (ИИ) подражать людям. Общаясь с кем-то в Интернете, обратите внимание на то, как он общается, его манеры и языковые модели. Если что-то кажется необычным или несовместимым с обычным поведением человека, это может быть признаком того, что вы имеете дело с IA или с кем-то, притворяющимся кем-то другим.

Дополнительно сравните предоставленную человеком информацию с известной о нем информацией. Ошибки изображений, такие как неудачное редактирование фотографий или видео, также могут указывать на то, что сообщение не является аутентичным.

См. также

Fontes: азбука, Берег моря e PWC.

Текст проверен: Педро Бомфим


Узнайте больше о Showmetech

Подпишитесь, чтобы получать наши последние новости по электронной почте.

Оставить комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

Похожие сообщения
Oppo a40

Oppo рассказывает о расширении присутствия в Бразилии и запускает A40, мощный смартфон стоимостью 1.399 реалов

Компания рассказала о портфеле продуктов, которые уже продаются в Бразилии, и прокомментировала партнерские отношения с Magazine Luiza и Claro. Посмотреть продукты
бруно мартинес аватар
Читать дальше
Сцена из «Звездных войн»

Новая трилогия «Звездных войн» завершит сагу о Скайуокере эпизодами X, XI и XII.

Lucasfilm подтверждает, что эпизоды продолжат историю, которая началась в 1977 году и была возрождена в 2019 году сценаристом Саймоном Кинбергом. Посмотрите, что мы знаем
Виктор Пачеко аватар
Читать дальше
Microsoft Paint и блокнот Windows получили искусственный интеллект. Посмотрите, как использовать

Microsoft Paint и Windows Notepad получили искусственный интеллект. Посмотрите, как использовать

С их помощью вы сможете удалить фон фото, удалить злоумышленников, а также запросить создание текстов в разных интонациях.
Виктор Пачеко аватар
Читать дальше