Дипфейки назвали самой большой угрозой от применения искусственного интеллекта
Эксперты признали дипфейки самым опасным вариантом использования искусственного интеллекта с точки зрения возможных преступлений разной степени тяжести. Исследователи определили 20 наиболее пагубных способов применения ИИ в течение следующих 15 лет.
Университетский колледж Лондона ранжировал способы применения ИИ по степени потенциального вреда, выгоды злоумышленников, легкости выполнения и сложности предотвращения, сообщается на сайте учреждения. Дипфейки трудно обнаружить и остановить их распространение, при этом они могут преследовать разные цели — от дискредитации публичного человека до кражи денег путем обмана.
Фальшивый контент может вызвать недоверие людей к аудио- и визуальным свидетельствам, что само по себе наносит ущерб обществу. Среди других опасных способов применения ИИ — беспилотные автомобили в качестве оружия, целевой фишинг, фейк ньюс, созданные ИИ, сбор информации с целью шантажа и нарушение работы ИИ-систем.
Исследователи составили список из 20 преступлений с использованием ИИ, которые нашли в научных статьях, новостях, массовой культуре и художественной литературе. Затем собрали экспертную группу из 31 человека с опытом в области ИИ. В неё вошли учёные, предприниматели, полицейские, чиновники и работники органов государственной безопасности.
«Люди теперь проводят большую часть жизни в сети, активность в интернете может создавать и разрушать репутацию, — говорит главный автор исследования доктор Мэтью Колдуэлл (UCL Computer Science). — В отличие от многих традиционных преступлений, преступления в цифровой среде можно легко распространять, повторять и даже продавать эти методы, продвигая как услуги».
В сентябре хакер позвонил CEO энергетической компании из Великобритании, подделав голос руководителя другой фирмы с помощью дипфейка, и потребовал перевести $243 тыс. третьей стороне. Мошенник в точности повторил интонацию и акцент другого человека.