• Usd 68.89
  • Eur 78.52
  • Btc 3790.66 $

Редакция

editorial@incrussia.ru

Реклама

advertising@incrussia.ru

Журнал

Как компания из Калининграда покорила мир и заработала миллиарды на бесплатной CRM. История «Битрикс24»

«Битрикс24»: как покорить мир и заработать миллиарды на бесплатной CRM

Рубрики

О журнале

Соцсети

Напишите нам

Новости

Deepfake-мошенники научились подделывать голоса CEO. Теперь они могут разорять компании

Фото: iStock

Deepfake-технологии, способные заменять голоса, лица и объекты на фотографиях, могут серьезно угрожать безопасности бизнеса, пишет Axios.


Крупная компания в сфере кибербезопасности Symantec провела три успешных deepfake-атаки на частные фирмы. Их смысл заключался в том, что «генеральный директор», голос которого был подделан искусственным интеллектом, звонил своим сотрудникам из финансового отдела с просьбой о срочном переводе денег. Во всех трех случаях махинация сработала.

Для генерации голоса и интонации deepfake-сервисы используют открытые источники: например, видеоролики на YouTube, выступления в СМИ и звонки.

Сегодня обучение искусственного интеллекта все еще достаточно дорогое занятие, требующее много времени и усилий, пишет BBC. С другой стороны, эксперты, опрошенные Axios, делятся неутешительным прогнозами — по их оценкам, технологии deepfake развиваются с невероятной скоростью и становятся все более доступными для мошенников.

В ответ на растущую угрозу увеличивается и количество компаний, готовых предоставлять услуги киберохраны. Но за их работу придется много платить. В зависимости от степени угрозы, их услуги могут стоить от $50 тыс. до «пары миллионов» в год.

Эксперты в области кибербезопасности уверены, что бизнес еще не готов к тому, чтобы эффективно противостоять всем возможным угрозам: «Не уверен, что корпоративная инфраструктура подготовлена ​​к реальности, в которой вы больше не можете доверять голосу вашего коллеги», — считает Генри Эйдер из Deeptrace, стартапа по обнаружению deepfake-мошенников.

Всплеск deepfake-подделок начался в 2018 году. Тогда в интернете начали появляться видеоролики, на которых публичные лица делали разные странные заявления. Например, пользователь YouTube под ником derpfakes опубликовал фейковое выступление президента США Дональда Трампа. Для этого он использовал алгоритм deepfakes, создававший порно со знаменитостями.

Противостоять deepfake учатся и в больших IT-компаниях. Марк Цукерберг рассказал о планах Facebook по борьбе с фальшивыми видео: «Я уверен, что поддельные видео отличаются от традиционной дезинформации. Мы будем подходить к этому с осторожностью, консультируясь со многими экспертами». 


Подписывайтесь на наш канал в Telegram: @incnews