Научиться • 16 декабря 2024
Как ИИ копирует голоса и помогает мошенникам вымогать деньги
Как ИИ копирует голоса и помогает мошенникам вымогать деньги
Текст: Ирина Шитикова
Фото: John M. Smit, Unsplash
Быстрое развитие искусственного интеллекта — две стороны одной медали: оно несет человечеству и преимущества, и новые угрозы. Так, уникальную способность нейросетей к воспроизведению голосов активно используют мошенники. За несколько секунд злоумышленники могут подделать голосовое сообщение и заставить людей думать, что другу или члену семьи срочно нужны деньги.
Новостные агентства, включая CNN, предупреждают, что такие аферы могут затронуть миллионы людей. Поскольку технологии облегчают преступникам вторжение в личное пространство, становится как никогда важно соблюдать осторожность.
Многие уже слышали о дипфейках, когда искусственный интеллект используют для создания поддельных изображений, видео и даже аудио, часто с участием знаменитостей или политиков. Клонирование голоса — это разновидность технологии дипфейка, которая позволяет создать цифровую копию голоса человека, считывая его речевые особенности, акцент и дыхание из коротких аудиофрагментов.
После захвата речевого образца генератор голоса на базе ИИ может преобразовать текстовый ввод в высокореалистичную речь, напоминающую голос выбранного человека. Благодаря развитию технологий клонирование голоса можно осуществить даже на основе всего лишь трехсекундного аудиофрагмента.
В то время как простая сказанная фраза может привести к мошенничеству с клонированием голоса, более продолжительный разговор помогает мошенникам зафиксировать больше вокальных деталей. Если человек не уверен, с кем разговаривает, лучше ограничиваться короткой беседой.
Клонирование голоса ценно в здравоохранении и сфере развлечений: помогает людям с нарушениями речи, а артисты могут удаленно работать с голосом (даже посмертно). Однако эта технология вызывает серьезные опасения относительно конфиденциальности и безопасности, что подчеркивает необходимость принятия мер.
Киберпреступники используют технологию клонирования голоса, чтобы выдавать себя за знаменитостей, представителей власти или обычных людей в целях мошенничества. Они изображают острую ситуацию, завоевывают доверие жертвы и просят деньги с помощью подарочных карт, банковских переводов или криптовалюты.
Процесс начинается со сбора аудиообразцов из таких источников, как YouTube и TikTok. Затем ИИ анализирует аудио для создания новых записей, после копирования голоса его можно использовать для обманных коммуникаций, чтобы втереться в доверие. Многие случаи мошенничества с клонированием голоса попали в заголовки газет.
Например, преступники сымитировали голос директора компании в ОАЭ, чтобы организовать ограбление на сумму 51 млн австралийских долларов. Бизнесмен из Мумбаи стал жертвой мошенничества с поддельным звонком из посольства Индии в Дубае. В Австралии мошенники использовали голосовой клон премьер-министра Квинсленда Стивена Майлза, чтобы попытаться обманом заставить людей инвестировать в биткоины.
Дети и подростки также подвергаются цифровым атакам. В ходе мошенничества с похищением в США злоумышленники клонировали голос подростка, чтобы заставить родителей девочки выполнить требования. Семья поверила, что ребенок был похищен.
Недавние исследования показали, что в прошлом году 28% взрослых жителей Великобритании сталкивались с мошенничеством, связанным с клонированием голоса, при этом 46% не знали о существовании такого вида киберпреступности. А в 2022 году почти 240 тыс. австралийцев сообщили, что стали жертвами мошенничества с клонированием голоса, что привело к финансовым потерям в размере 568 млн австралийских долларов.
Эта статистика подчеркивает значительный пробел в знаниях, из-за которого миллионы людей подвергаются риску быть обманутыми. Угрозы, связанные с клонированием голоса, требуют междисциплинарного реагирования.
Во-первых, кампании по повышению осведомленности могут помочь людям и организациям снизить риск подобных видов мошенничества. Сотрудничество государственного и частного секторов может обеспечить четкую политику в отношении согласия на клонирование голоса.
Во-вторых, люди и организации должны рассмотреть возможность использования биометрической безопасности с определением «живости» — технологии, способной распознавать и проверять живой голос, выявляя подделки. Тем временем организации, использующие распознавание голоса, должны рассмотреть внедрение многофакторной аутентификации.
Еще одна важная мера касается правоохранительных органов — необходимо расширить возможности расследования в случаях клонирования голоса. Необходимы точные и актуальные правила для стран, позволяющие управлять сопутствующими рисками.
Правоохранительные органы Австралии осознают потенциальные преимущества ИИ. Тем не менее опасения по поводу темной стороны этой технологии побудили провести исследования «искусственного интеллекта для выбора жертвы». Также обсуждаются стратегии борьбы правоохранительных органов с этой проблемой.
Подобные усилия связаны с общим Национальным планом по борьбе с киберпреступностью, в котором основное внимание уделяется упреждающим, ответным и восстановительным стратегиям. Эта программа обязывает поставщиков услуг проявлять заботу, что отражено в новом законодательстве Австралии по защите населения и малого бизнеса. Вводятся новые обязательства по предотвращению, выявлению, сообщению и пресечению мошенничества.
Эти правила будут применяться к регулируемым организациям, таким как телекоммуникационные компании, банки и поставщики цифровых платформ.
Поскольку киберпреступность обходится австралийской экономике примерно в 42 млрд австралийских долларов, осведомленность общественности и надежные меры безопасности имеют решающее значение. Такие страны, как Австралия, осознают растущий риск. Эффективность мер против клонирования голоса и других видов мошенничества зависит от их адаптивности, стоимости и соответствия нормативным требованиям.
Все заинтересованные стороны — правительство, граждане и правоохранительные органы — должны сохранять бдительность и повышать осведомленность общественности, чтобы снизить риск виктимизации.