Индекс
- Что такое электронное мошенничество?
- Как ИИ используют в мошенничестве
- Как выявить закономерности использования ИИ в мошенничестве
- Советы, как защитить себя
- Если сомневаетесь, говорите лично
- Проверьте номер телефона
- Повесьте трубку и позвоните человеку, если у вас есть подозрения
- Подтвердите это с помощью видеозвонка и задайте вопросы, на которые сможет ответить только реальный человек.
- Не давайте деньги в долг без подтверждения личности другого человека
- Наблюдайте за манерами, сравнивайте и ищите ошибки в изображениях.
- Узнайте больше о Showmetech
Бразилия столкнулась со значительным увеличением случаев электронного мошенничества, отчасти из-за использования Искусственный интеллект (ИИ) мошенниками; Вот какие данные из Ежегодник общественной безопасности Бразилии, 2023 год. С развитием технологий преступникам стало легче выдавать себя за других людей, используя ИИ для создания фальшивых профилей и обмана ничего не подозревающих жертв. Эта практика усилила клонирование людей преступниками, что привело к увеличению случаев онлайн-мошенничества, такого как финансовое мошенничество, клонирование карт и фишинг, практика, при которой личная информация получается обманным путем.
Использование IA в этом контексте мошенничество стало более изощренным и трудным для обнаружения, поскольку технологии генерации текста и голоса могут создавать сообщения и звонки, очень похожие на реальное общение. Кроме того, способность ИИ анализировать большие объемы данных упрощает персонализацию мошенничества, делая его более убедительным и увеличивая вероятность успеха мошенников.
Что такое электронное мошенничество?
Электронное мошенничество — это форма преступления, которая предполагает использование электронных средств, таких как Интернет и цифровые устройства, для обмана и обмана людей. Этот тип мошенничества охватывает различные мошеннические действия, такие как фишинг, клонирование карт, ложные рекламные акции и т. д., целью которых является получение личной или финансовой информации от жертв.
Важно подчеркнуть, что электронное мошенничество может происходить разными способами: от создания фальшивых страниц для сбора личной информации до имитации личности для осуществления финансового мошенничества.
По статистике из Ежегодник общественной безопасности Бразилии, 2023 годВ прошлом году число случаев электронного мошенничества достигло 200.322 65 записей. Это значение представляет собой значительный рост на 2021% по сравнению с 120.470 годом, когда было зарегистрировано XNUMX XNUMX случаев. Государствами, наиболее пострадавшими от этого типа переворота, были:
- Санта-Катарина, с 64.230 XNUMX случаями;
- Минас-Жерайс, с 35.749 XNUMX случаями;
- Федеральный округ, с 15.580 XNUMX случаями;
- Святой дух, с 15.277 случаями.
С другой стороны, вызывает беспокойство тот факт, что некоторые штаты, такие как Баия, Сеара, Рио-де-Жанейро, Риу-Гранди-ду-Норти, Риу-Гранди-ду-Сул и Сан-Паулу, не предоставили данных об этом виде преступлений до окончания исследования. что позволяет предположить возможное занижение данных или отсутствие точных данных о масштабах проблемы в этих регионах.
Как ИИ используют в мошенничестве
As Искусственный интеллект (ИИ) Они используются мошенниками различными способами, чтобы выдать себя за других людей, что повышает изощренность и эффективность мошенничества. Одним из распространенных методов является создание фейковых профилей в социальных сетях и на платформах обмена сообщениями, где искусственный интеллект используется для генерации информации и фотографий, похожих на реального человека.
As ИИ Они способны анализировать данные, доступные в Интернете, такие как фотографии, публикации, личную информацию, и создавать чрезвычайно убедительные фейковые профили. Кроме того, ИИ могут имитировать язык и поведение людей, из-за чего жертвам становится сложнее определить, что они взаимодействуют с машиной, а не с реальным человеком.
В целом, ИИ Они по-разному используются мошенниками, чтобы выдавать себя за других людей, из-за чего жертвам становится сложнее определить, что их обманывают. Ниже приведены наиболее распространенные случаи мошенничества с использованием электронных средств. ИИ.
Мошенничество с голосовыми вызовами
Мошенничество в голосовых вызовах с использованием Искусственный интеллект (ИИ) стали более распространенными и сложными. В этом типе мошенничества преступники используют программы искусственного интеллекта для имитации человеческих голосов, имитируя людей, известных жертвам или даже властям, таких как представители банков или компании. Благодаря этому мошенники могут обмануть жертв, запрашивая личную информацию, например банковские пароли, или побуждая их осуществить денежные переводы. Эти мошенничества опасны, поскольку фальшивые голоса могут быть чрезвычайно убедительными, из-за чего жертвам сложно идентифицировать мошенничество.
Одна из первых публичных демонстраций синтезированной речи произошла в 1984 году, когда компьютер Apple прочитал текст роботизированным голосом. С тех пор мы наблюдаем развитие таких голосовых помощников, как Siri от Apple и Alexa от Amazon, которые способны интерпретировать команды и взаимодействовать с пользователями более естественным образом. Недавно южнокорейская компания запустила услугу «Мемориал искусственного интеллекта», которая позволяет людям поддерживать виртуальное присутствие после смерти, позволяя семье и друзьям разговаривать с цифровой версией умершего человека.
Хотя у этой технологии есть законные применения, например, для сохранения воспоминаний и жизненных историй, ее также можно использовать и в злонамеренных целях. Мошенничество в голосовых вызовах с использованием IA они могут стать еще более убедительными, когда мошенники воспользуются голосами самих жертв, размещенными в социальных сетях. Имея доступ к этим голосовым записям, преступники могут создавать фальшивый звук, который точно имитирует голос жертвы, что повышает доверие.
Кроме того, мошенники могут использовать ИИ сложные инструменты для создания более интерактивных диалогов, убедительно отвечая на вопросы жертв. Это может заставить жертв поверить, что они на самом деле разговаривают с реальным человеком, что повышает эффективность мошенничества.
Отсутствие специального регулирования затрудняет борьбу с данным видом мошенничества. В настоящее время законы об авторском праве не защищают голос человека, что облегчает манипулирование и неправильное использование технологии клонирования голоса. Чтобы решить эту проблему, некоторые законодатели предложили законы, которые ужесточат штрафы за использование IA выдавать себя за людей. Однако этот вопрос остается сложной задачей, поскольку необходимо найти баланс между защитой конфиденциальности и свободой выражения мнений.
Мошенничество с использованием фотографий пользователей
Еще одна форма мошенничества — создание фейковых профилей на основе фотографий жертв. Преступники могут использовать фотографии, найденные в социальных сетях или других онлайн-источниках. С помощью этих фейковых профилей мошенники могут выдавать себя за других людей, вводя в заблуждение друзей или родственников жертв. Этот метод обычно используется в мошеннических онлайн-платформах для романтических отношений, когда преступники создают фальшивые профили, чтобы привлечь внимание жертв и в конечном итоге запросить деньги или личную информацию.
Эти мошенничества могут быть еще более убедительными, когда преступники объединяют фотографии с личной информацией, полученной в Интернете. Таким образом, фальшивые профили кажутся чрезвычайно аутентичными, что затрудняет жертвам идентификацию того, что их обманывают. Важно, чтобы люди знали об этой практике и принимали меры безопасности при взаимодействии в Интернете, например, проверяли подлинность профилей, с которыми они общаются, и никогда не делились личной или финансовой информацией с незнакомцами.
Видеомошенничество с Deepfakes
Видеомошенничество с использованием Deepfakes, которые представляют собой поддельные видеоролики, созданные с помощью IA, также стали вызывать растущую озабоченность. По мере развития технологий преступники могут создавать видеоролики, на которых показаны реальные люди, делающие или говорящие то, чего они никогда не делали, и которые можно использовать для опорочения кого-либо или вымогательства денег. Ты Deepfakes может быть чрезвычайно убедительным, из-за чего людям трудно отличить настоящие видео от фейковых.
Использование Deepfakes уже привлекла внимание и обеспокоенность правительств во всем мире. До этого Китай был пионером в законодательном законодательстве по использованию Deepfakes. Китайское законодательство, гораздо более всеобъемлющее, чем те, которые были приняты правительствами некоторых западных стран, описывается как механизм сохранения социальной стабильности. Он конкретно запрещает создание дипфейков без согласия пользователя и требует конкретного подтверждения того, что контент был создан с помощью Искусственный интеллект (ИИ).
Недавний и тревожный пример произошел после вторжения России в Украину, когда видео Deepfake был опубликован в социальных сетях, где показано, как президент Украины Владимир Зеленский якобы приказывает своим войскам сдаться, чего на самом деле никогда не происходило. Еще один показательный случай произошел в Гонконге, где финансового сотрудника обманом заставили заплатить 25 миллионов долларов после участия в видеоконференции с предполагаемыми высокопоставленными членами его компании, которая на самом деле была дипфейком.
Эти мошенничества могут иметь разрушительные последствия, особенно когда в них участвуют общественные деятели или обычные люди, ставшие жертвами клеветы. Кроме того, Deepfakes также может быть использован в мошенничестве фишинг, где преступники отправляют жертвам фальшивые видеоролики, пытаясь убедить их перейти по вредоносным ссылкам или поделиться личной информацией. Чтобы защитить себя от подобных мошенников, важно знать о существовании Deepfakes и всегда проверяйте подлинность видео, прежде чем делиться ими или предпринимать какие-либо действия на их основе.
Как выявить закономерности использования ИИ в мошенничестве
Выявить закономерности в использовании искусственный интеллект (ИИ) Мошенничество может быть сложной задачей, но некоторые подсказки могут помочь выявить потенциальное мошенничество. Одной из основных характеристик является чрезмерная персонализация сообщений или взаимодействий. ИИ могут анализировать большие объемы данных для создания высоко персонализированных сообщений, что может показаться подозрительным, если человек ранее не имел отношений с отправителем. Кроме того, грамматические или текстовые ошибки связности могут указывать на то, что сообщение было создано IA, особенно если сообщение ведется на языке, чужом предполагаемому отправителю.
Другой распространенной схемой является быстрый и настойчивый запрос личной или финансовой информации. Мошенники, которые используют ИИ Они часто пытаются обманом заставить жертву срочно предоставить конфиденциальную информацию, используя тактику эмоциональной манипуляции. Кроме того, отсутствие конкретной информации или уклончивые ответы на прямые вопросы могут свидетельствовать о том, что взаимодействие происходит не с реальным человеком.
Советы, как защитить себя
Чтобы не стать жертвой возможного цифрового мошенничества, важно принять некоторые меры безопасности. Ниже приведены некоторые инструкции, которые помогут не стать жертвой возможного цифрового мошенничества:
Если сомневаетесь, говорите лично
В эпоху цифровых технологий легко попасться на онлайн-мошенничество из-за сложности методов, используемых преступниками. Эффективный способ защитить себя — это взять за правило в случае сомнений лично разговаривать с вовлеченным лицом или компанией. Если вы получаете запрос на предоставление конфиденциальной информации по электронной почте, в текстовом сообщении или по телефону, всегда рекомендуется проверять подлинность запроса путем прямого контакта.
Кроме того, при проведении финансовых транзакций или обмене личной информацией разумно избегать предоставления конфиденциальных данных в Интернете. Выберите способ осуществления этих транзакций лично или через безопасные и проверенные каналы. Эта простая практика поможет вам избежать цифрового мошенничества и защитить вашу личную и финансовую информацию.
Проверьте номер телефона
Чтобы проверить подлинность номера телефона в случае подозрения на мошенничество, достаточно выполнить поиск в Интернете. Используйте поисковые системы, чтобы проверить, связан ли номер с известными мошенниками. Кроме того, поищите информацию о компании или человеке, связавшемся с вами, проверив сообщения о мошенничестве, связанном с номером. В некоторых случаях вы можете обнаружить оповещения о мошенничестве, которыми поделились другие, что может помочь подтвердить, является ли сообщение законным.
Повесьте трубку и позвоните человеку, если у вас есть подозрения
Повесить трубку и позвонить человеку, если у вас есть подозрения, может быть эффективной стратегией для подтверждения и повторной проверки легитимности звонка. Это связано с тем, что во многих случаях мошенничества преступники могут использовать искусственный интеллект (ИИ) подражать чужому голосу. Повесив трубку и позвонив самому себе, вы можете убедиться, что голос и поведение звонящего соответствуют вашим ожиданиям. Кроме того, эта мера может помочь предотвратить возможные попытки клонирования номеров или выдачи себя за другое лицо, что часто встречается при телефонном мошенничестве.
Подтвердите это с помощью видеозвонка и задайте вопросы, на которые сможет ответить только реальный человек.
В ситуациях подозрения в мошенничестве с использованием искусственный интеллект (ИИ)Как deepfakes или клонирование голоса, эффективной мерой является видеозвонок для подтверждения личности человека. Во время видеозвонка задавайте вопросы, на которые сможет ответить только реальный человек, например подробности об общем опыте или конкретную информацию о ваших отношениях.
Эти вопросы помогут убедиться, что вы действительно общаетесь с ожидаемым человеком, поскольку мошенникам может быть сложно убедительно ответить на эти вопросы. Кроме того, при совершении видеозвонка вы можете наблюдать за выражением лица и поведением человека, что может помочь выявить признаки подделки.
Не давайте деньги в долг без подтверждения личности другого человека
Не давать деньги в долг без проверки личности человека — основная мера предотвращения мошенничества. Когда к вам обращается кто-то с просьбой одолжить деньги, особенно лично, важно тщательно проверить личность этого человека. Запросите личную информацию, которую сможет предоставить только реальный человек, и подтвердите ее с помощью документов или других средств проверки. Кроме того, помните о срочных просьбах или эмоциональном давлении, поскольку это обычные признаки финансового мошенничества.
Наблюдайте за манерами, сравнивайте и ищите ошибки в изображениях.
Наблюдение за манерами, сравнение информации и поиск ошибок в изображениях являются важными мерами по выявлению возможных мошенников, использующих искусственный интеллект (ИИ) подражать людям. Общаясь с кем-то в Интернете, обратите внимание на то, как он общается, его манеры и языковые модели. Если что-то кажется необычным или несовместимым с обычным поведением человека, это может быть признаком того, что вы имеете дело с IA или с кем-то, притворяющимся кем-то другим.
Дополнительно сравните предоставленную человеком информацию с известной о нем информацией. Ошибки изображений, такие как неудачное редактирование фотографий или видео, также могут указывать на то, что сообщение не является аутентичным.
См. также
Fontes: азбука, Берег моря e PWC.
Текст проверен: Педро Бомфим
Узнайте больше о Showmetech
Подпишитесь, чтобы получать наши последние новости по электронной почте.