Новости

Мошенник подделал голос CEO и украл $243 тыс. при помощи технологии deepfake

Фото: iStock

Хакер позвонил гендиректору энергетической компании из Великобритании, подделав голос руководителя другой фирмы, и потребовал перевести $243 тыс. третьей стороне. Киберпреступник сумел в точности повторить интонацию и акцент другого человека с помощью технологии deepfake.


Мошенник позвонил генеральному директору британской компании в сфере энергетики, которая является клиентом страховой Euler Hermes Group из Германии, и подделал голос главы этой компании, чтобы попросить в течение часа перевести поставщику $243 тыс., сообщает The Wall Street Journal.

Руководитель компании из Великобритании был уверен, что общается со своим немецким коллегой, так как собеседник говорил с характерными акцентом и интонацией. Euler Hermes рассказала изданию о произошедшем, но не указала компанию-клиента.

Эксперт по мошенничеству Euler Hermes Рюдигер Кирш пояснил, что жертва узнала голос гендиректора страховой компании благодаря всем особенностям речи предпринимателя, ничего не заподозрив. Это стало первым случаем, когда крупнейший в мире страховщик столкнулся с deepfake-преступлением.

По словам Кирша, после перевода $243 тыс. хакер позвонил пострадавшему еще раз с просьбой перевести дополнительные деньги. Однако тогда звонок поступил с австрийского номера, что заставило гендиректора усомниться в прозрачности происходящего. В Euler Hermes выяснили, что мошенник использовал ПО на базе ИИ для подражания голоса.

Deepfake-технология («глубокая подделка»), по мнению специалистов, может повлечь за собой разные социальные последствия, в том числе поддельные голоса во время телефонных разговоров (как в случае с Euler Hermes), манипулирование политическими выборами и дезинформацию в огромных масштабах.

Специалисты уверены, что в скором времени «для создания реалистичной копии чьего-либо голоса будет нужно всего несколько секунд звука».

В июле крупная компания в сфере кибербезопасности Symantec провела три успешных deepfake-атаки на частные фирмы. Их смысл заключался в том, что «генеральный директор», голос которого был подделан искусственным интеллектом, звонил своим сотрудникам из финансового отдела с просьбой о срочном переводе денег. Во всех трех случаях махинация сработала.


Подписывайтесь на наш канал в Telegram: @incnews