Генеративный ИИ, хотя и предлагает невероятный потенциал, все чаще используется в вредоносных целях, таких как поддельные видео, финансовые мошенничества и дезинформация. Мошенники используют ИИ, чтобы выдавать себя за других людей, создавать фейковые новости, манипулировать голосами и даже генерировать несогласованный контент. Это представляет значительную угрозу, особенно в таких критически важных областях, как выборы, онлайн-безопасность и социальные сети. В статье приводятся различные примеры использования генеративного ИИ для мошенничества и даются советы о том, как защитить себя от этих мошенничеств с использованием ИИ. Осведомленность и упреждающие меры безопасности имеют важное значение для защиты от этих развивающихся угроз.
Технология генеративного ИИ, которую можно использовать для создания нового контента, такого как текст, изображения, аудио и даже видео, как это делает человек. Эта технология стала невероятно популярной и широко распространенной. Отчет Европола прогнозирует, что 90% онлайн-контента может быть сгенерировано ИИ в течение нескольких лет. Однако генеративный ИИ — это палка о двух концах. С одной стороны, генеративный ИИ обладает огромным потенциалом в различных секторах. Он может улучшить обслуживание клиентов с помощью интеллектуальных чат-ботов, помочь в творческих отраслях, создавая искусство и музыку, и даже помочь в медицинских исследованиях, имитируя сложные биологические процессы. Однако та же технология, которая управляет этими инновациями, может также использоваться злоумышленниками.
В последнее время наблюдается всплеск злоупотреблений этой технологией для мошеннических действий. Поскольку генеративные модели становятся все более сложными, также усложняются и методы, используемые злоумышленниками для их эксплуатации в вредоносных целях. Понимание различных способов злоупотребления генеративным ИИ имеет решающее значение для разработки надежной защиты и обеспечения целостности и надежности цифровых платформ. В то время как новые и запутанные способы, которыми злоумышленники используют эту технологию, становятся все более и более изощренными, мы рассмотрим различные типы мошенничества, осуществляемого с помощью генеративного ИИ, о которых уже широко сообщают жертвы.
Дезинформация о выборах с использованием Deepfakes
Одним из самых известных применений генеративного ИИ является создание deepfake-видео — гиперреалистичных, но полностью фальшивых изображений людей. Когда объектом нападения становятся известные политики, особенно в контексте крупных событий, таких как войны или выборы, последствия могут быть серьезными. Deepfake-видео может вызвать массовую панику и помешать проведению важных мероприятий. Например, Владимира Зеленского распространялось во время войны, а в Индии, как раз перед выборами, ложно показывало министра внутренних дел Союза Амита Шаха, утверждающего, что все кастовые резервации будут отменены, что вызвало напряженность между общинами. Совсем недавно фейковое изображение ареста Дональда Трампа стало вирусным на X (см. Рисунок 1).
Финансовые мошенничества
Продвинутые чат-боты на базе искусственного интеллекта могут имитировать человеческие разговоры с невероятной точностью. Мошенники запускают фишинговые атаки с использованием чат-ботов на базе искусственного интеллекта, чтобы выдавать себя за представителей банка. Клиенты получают звонки и сообщения от этих ботов, которые убедительно просят конфиденциальную информацию под предлогом решения проблем со счетами. Многие ничего не подозревающие люди становятся жертвами этих мошенничеств, что приводит к значительным финансовым потерям. Мошенники могут использовать искусственный интеллект для создания реалистичных голосовых записей руководителей для авторизации мошеннических транзакций, схема, известная как «мошенничество с генеральным директором». В сотрудника многонациональной компании в Гонконге обманом заставили выплатить 25 миллионов долларов мошенникам, использующим технологию deepfake, чтобы выдать себя за финансового директора компании во время видеоконференции. Эти мошенничества эксплуатируют доверие и авторитет высокопоставленных чиновников, нанося значительный финансовый ущерб бизнесу.
Фейковые новости
Генеративный ИИ также может создавать убедительные фейковые новостные статьи, которые можно быстро распространять через социальные сети. Во время пандемии COVID-19 многочисленные фейковые новостные статьи и сообщения в социальных сетях распространяли дезинформацию о вирусе и вакцинах. В Whatsapp и других социальных сетях было много разрушительных фейковых новостей, в которых утверждалось, что определенные аюрведические средства могут вылечить COVID-19, что привело к широкомасштабной панике и ошибочным практикам самолечения. С помощью генеративного ИИ мошенникам довольно легко создавать масштабные фейковые новости и вызывать панику среди людей. Например, вы можете легко создавать манипулированные изображения с реальными людьми, реальными местами и делать из этого сенсационные новости. Вот один пример, который показывает фейковое изображение Тадж-Махала, пострадавшего от землетрясения, созданное с использованием модели DALL-E OpenAI (рисунок 2).
Вот еще одно фото, на котором изображен горящий отель «Тадж» в Мумбаи (напоминающий террористическую атаку 2008 года) на рисунке 3.
Несогласованная порнография и домогательства
Киберпреступники, а также лица со злым умыслом могут использовать технологию генеративного ИИ для запуска кампаний преследования, которые приводят к разрушению репутации или более традиционным формам онлайн-преследования. Жертвами могут быть как частные лица, так и публичные деятели. Тактика может включать создание поддельных фотографий, поддельных видео в компрометирующих ситуациях или в манипулируемых средах. Например, в январе 2024 года поп-мегазвезда созданных с использованием искусственного интеллекта, которые широко распространялись на платформах социальных сетей.
Целевые мошенничества с использованием поддельного голоса
Генеративный ИИ может копировать голоса и образы, позволяя людям выглядеть так, будто они говорят или делают почти все, что угодно. Эта технология похожа на «поддельные» видео, но применима к голосам. Голоса, сгенерированные ИИ, используются для улучшения мошенничества, делая его более убедительным. Например, кто-то может вытащить ваш голос из интернета и использовать его, чтобы позвонить вашей бабушке и попросить у нее денег. Злоумышленники могут легко получить несколько секунд чьего-то голоса из социальных сетей или других аудиоисточников и использовать генеративный ИИ для создания целых сценариев того, что они хотят, чтобы этот человек сказал. Это заставит жертву поверить, что звонок от ее друзей или родственников, и, таким образом, будет обманут и отправит деньги мошеннику, думая, что в них нуждается близкий человек.
Романтические аферы с поддельными личностями
Романтические мошенничества процветают, и в Индии , что ошеломляющие 66 процентов людей в стране стали жертвами обманных схем онлайн-знакомств. С помощью генеративного ИИ можно сфабриковать полностью поддельную личность. Мошенники могут создавать поддельные документы, такие как паспорта или карты aadhar. Они даже могут создавать ложные образы самих себя, как показано ниже, на котором поддельный человек стоит перед красивым домом и шикарной машиной. Они даже могут звонить поддельным голосом и могут убедить вас, что ИИ — это настоящий человек, и в конечном итоге нацелиться на вас эмоционально, чтобы вызвать у вас чувства, а затем вымогать у вас деньги или подарки. Вот пример (на рисунке 4) сгенерированного ИИ изображения поддельного человека, созданного с помощью бота Midjourney.
Мошенничество при совершении покупок в Интернете
Обманчивая реклама может включать ложные заявления или даже создание полностью поддельных продуктов или услуг. Это может привести к тому, что потребители будут совершать неинформированные или мошеннические покупки. GenAI может использоваться для создания поддельных синтетических обзоров, рейтингов и рекомендаций продуктов на платформах электронной коммерции. Эти поддельные обзоры могут искусственно повышать репутацию некачественных продуктов или наносить ущерб репутации подлинных. Мошенники могут использовать GenAI для создания списков поддельных продуктов или веб-сайтов, которые кажутся законными, что затрудняет для потребителей различение настоящих и мошеннических продавцов. Чат-боты или агенты по обслуживанию клиентов на основе ИИ могут использоваться для предоставления покупателям вводящей в заблуждение информации, что может привести к необоснованным решениям о покупке. Таким образом, можно легко создать целую экосистему поддельного бизнеса.
Сохраняйте бдительность и защищайте себя от мошенничества с использованием искусственного интеллекта
Из приведенных выше примеров становится ясно, что вредоносный контент может быть создан в масштабе с использованием генеративного ИИ с пугающей легкостью. Генеративный ИИ действует как инструмент производительности, увеличивая объем и сложность контента. Дилетантам становится легче вступать в игру, и наблюдается значительный сдвиг в сторону эксплуатации социальных сетей для получения финансовой выгоды. Изощренные создатели дезинформации очень способны масштабировать и использовать ИИ для перевода себя на другие языки, чтобы донести свой контент до стран и людей, до которых они раньше не могли добраться. Есть некоторые шаги, которые каждый может предпринять, чтобы быть бдительным и защитить себя от мошенничества с использованием ИИ. Осведомленность и бдительность являются ключом к защите от мошенничества с использованием ИИ.
Всегда проверяйте источник контента. В то время как все основные технологические компании используют водяные знаки для контента, сгенерированного ИИ, в качестве ключевого решения, позволяющего разработчикам шифровать водяные знаки , обеспечивая лучшее обнаружение и подлинность контента, сгенерированного ИИ, основная масса нетехнических людей не знает о таких технологиях и не знает, как идентифицировать водяные знаки или использовать инструменты обнаружения контента, сгенерированного ИИ. Однако основная вещь, которую может сделать каждый, — это всегда проверять источник любого подозрительного изображения, видео или голосового сообщения. Если вы получили видео, которое кажется нехарактерным для изображенного человека, перепроверьте его с другими источниками и свяжитесь с этим человеком напрямую. Например, фейковое видео политика, делающего подстрекательские заявления, следует проверять по официальным каналам. Видеозапись похищения или нахождения родственника в беде следует проверять, позвонив этому человеку или по общему номеру. Аналогичным образом, голосовой звонок от кого-то, кто выдает себя за старшего руководителя или представителя банка и просит предоставить конфиденциальную информацию, можно проверить, перезвонив на известный и надежный номер, например на официальный номер службы поддержки клиентов банка, чтобы подтвердить.
Ограничьте распространение личной информации. Мошенники часто используют данные из социальных сетей для создания убедительных дипфейков и голосовых сообщений. Избегайте публикации конфиденциальной информации, такой как ваш адрес, номер телефона и финансовые данные. Отрегулируйте настройки конфиденциальности в своих учетных записях в социальных сетях, чтобы ограничить видимость ваших публикаций и личной информации. Разрешите просматривать ваш профиль и публикации только доверенным друзьям и семье. В Facebook или Instagram вы можете просмотреть и изменить настройки конфиденциальности, чтобы убедиться, что только ваши друзья могут видеть ваши публикации. Не делитесь такими подробностями, как ваши планы на отпуск, которые могут быть использованы мошенниками для нападения на вас, пока вас нет. Сохраняйте конфиденциальность своего профиля и списка друзей, чтобы мошенники не нацелились на вашу семью и друзей с помощью ваших поддельных видео и голосовых звонков. Ограничение объема личной информации, доступной в Интернете, затрудняет мошенникам сбор данных о вас. Это снижает вероятность того, что они смогут создать убедительные дипфейки или выдать себя за вас.
Поскольку мы стоим на пороге эпохи, основанной на ИИ, битва между инновациями и эксплуатацией усиливается. Рост мошенничества, основанного на ИИ, — это не просто вызов, это призыв к действию. С генеративным ИИ, способным создавать убедительные дипфейки, реалистичные голосовые клоны и сложные фишинговые схемы, потенциал для обмана никогда не был больше. Тем не менее, среди этих угроз кроется возможность: шанс пересмотреть наш подход к цифровой безопасности и доверию. Недостаточно быть осведомленным; мы должны быть активными, используя те же самые передовые технологии для разработки передовых систем обнаружения и кампаний по просвещению общественности. Будущее ИИ не предопределено. Предприняв решительные действия сегодня, мы можем сформировать цифровой ландшафт, в котором обещание генеративного ИИ будет реализовано, не становясь жертвой его опасностей. Пусть это будет нашим моментом для подъема, инноваций и защиты, обеспечивая более безопасный цифровой мир для всех.