Новости

Мошенничество с использованием дипфейков обокрало компании на миллионы долларов. Ситуация может ухудшиться

Растущая волна мошенничества с дипфейками ограбила компании по всему миру на миллионы долларов, и эксперты по кибербезопасности предупреждают, что ситуация может ухудшиться, поскольку преступники используют генеративный ИИ для мошенничества, сообщает CNBC.

Дипфейки (глубокая подделка) — это видео, звук или изображение реального человека, подвергшееся цифровым изменениям и манипуляциям, часто с помощью ИИ, чтобы убедительно исказить его. В одном из самых крупных случаев, известных в этом году, финансовый работник из Гонконга был обманом вынужден перевести более $25 млн мошенникам, использующим технологию дипфейк, которые замаскировались под коллег во время видеозвонка, сообщали СМИ.

Недавно британская инжиниринговая компания Arup подтвердила, что в этом деле замешана именно она, но не стала вдаваться в подробности в связи с продолжающимся расследованием. По словам Дэвида Фэйрмана, директора по информационным технологиям и директора по безопасности в АТР компании Netskope, подобные угрозы стали расти благодаря популяризации сервиса Open AI’s Chat GPT, запущенного в 2022 году, который быстро ввел технологию генеративного ИИ в обиход.

«Общедоступность этих сервисов снизила барьер входа для киберпреступников — им больше не нужно обладать специальными технологическими навыками, — говорит Фэйрман. — Объем и изощренность мошенничества увеличиваются по мере развития технологий искусственного интеллекта».

Различные генеративные ИИ-сервисы могут использоваться для создания человекоподобного текста, изображений и видеоконтента, а значит, могут стать инструментом для злоумышленников, пытающихся манипулировать определенными лицами и воссоздавать их в цифровом формате.

Представитель компании Arup сообщил CNBC: «Как и многие другие предприятия по всему миру, наша деятельность регулярно подвергается атакам, включая мошенничество со счетами, фишинговые аферы, подмену голоса в WhatsApp и дипфейки».

Как сообщается, финансовый работник присутствовал на видеозвонке с людьми, которые, как предполагается, были финансовым директором компании и другими сотрудниками, которые попросили его сделать денежный перевод. Однако остальные участники встречи на самом деле были воссозданными в цифровом формате фальшивками. Arup подтвердил, что в инциденте использовались поддельные голоса и изображения, добавив, что количество и изощренность таких атак резко возросли в последние месяцы.

В этом году китайские государственные СМИ сообщали об аналогичном случае в провинции Шаньси с участием сотрудницы финансовой службы, которую обманом заставили перевести 1,86 млн юаней ($262 тыс.) на счет мошенника после видеозвонка с фальшивым голосом ее начальника.

В 2019 году главный исполнительный директор британской энергетической компании, как сообщается, перевел €220 тыс. мошеннику, который с помощью цифровых технологий имитировал главу его материнской компании и в телефонном разговоре попросил перевести деньги предполагаемому поставщику.

В августе прошлого года исследователи из принадлежащей Google компании по кибербезопасности Mandiant, зафиксировали ряд случаев использования злоумышленниками технологий ИИ и дипфейков для фишинговых афер, дезинформации и других незаконных целей. В то время компания заявила, что использование технологии для подобных действий ограничено, но растущая доступность новых инструментов генеративного ИИ ускорит ее применение злоумышленниками.

По словам экспертов по кибербезопасности, помимо прямых атак, компании все больше беспокоятся и о других способах использования поддельных фотографий, видео или речей высокопоставленных лиц в злонамеренных целях.

По словам Джейсона Хогга, эксперта по кибербезопасности и исполнительного директора Great Hill Partners, фейковые фотографии высокопоставленных членов компании могут использоваться для распространения фальшивых новостей, чтобы манипулировать ценами на акции, порочить бренд и продажи компании, а также распространять другую дезинформацию. «Это лишь малая толика», — сказал Хогг, ранее работавший специальным агентом ФБР.

Он подчеркнул, что генеративный ИИ способен создавать дипфейки на основе огромного количества цифровой информации, например общедоступного контента, размещенного в социальных сетях и на других медиаплатформах.

В 2022 году Патрик Хиллманн, директор по коммуникациям Binance, заявил в своем блоге, что мошенники создали его глубокую подделку на основе предыдущих новостных интервью и телевизионных выступлений, используя ее для обмана клиентов и контактов на встречах.

ИИ и дипфейки представляют собой «новый тип проблемы информационной безопасности», говорит Мэтью Стамм из Drexel. По словам Фэйрмана из Netskope, такие риски заставили некоторых руководителей компаний начать уничтожать или ограничивать свое присутствие в Интернете из опасения, что оно может быть использовано киберпреступниками.

Технология дипфейк уже получила широкое распространение за пределами корпоративного мира. Знаменитости, такие как Тейлор Свифт, стали жертвами данной технологии: от поддельных порнографических изображений до манипулятивных видеороликов, рекламирующих посуду. Распространены также подделки политиков.

В то же время некоторые мошенники создают подделки членов семьи и друзей, пытаясь выманить у людей деньги. По мнению Хогга, в течение некоторого времени эти проблемы будут обостряться и усугубляться, поскольку предотвращение киберпреступлений требует вдумчивого анализа для разработки систем, методов и средств контроля для защиты от новых технологий.

Тем не менее эксперты по кибербезопасности рассказали CNBC, что компании могут усилить защиту от угроз, связанных с ИИ, путем повышения уровня образования персонала, тестирования кибербезопасности и требования вводить кодовые слова и многоуровневые согласования для всех транзакций, — это могло бы предотвратить случаи, подобные тому, что произошел с Arup.

Ранее Microsoft и OpenAI объявили о создании фонда в размере $2 млн для борьбы с растущими рисками использования ИИ и дипфейков для «обмана избирателей и подрыва демократии». «Фонд социальной устойчивости» призван повысить осведомленность уязвимых сообществ об искусственном интеллекте и его воздействии.