С контентом, созданным искусственным интеллектом, хотя бы раз сталкивались 72% жителей России, а каждый пятый (21%) делает это регулярно, показал опрос аналитического центра НАФИ, проведенный среди более 6,6 тыс. человек. Однако понимание сути наиболее опасной формы такого контента — дипфейков (поддельных видео, аудио или изображений) — крайне поверхностно, пишет РБК.
Freepik
С определением этого термина знакомы лишь 31% опрошенных. Половина респондентов (51%) ошибочно идентифицируют дипфейки как работу «ботов», «видеомонтаж» или даже «карикатуру».
Главный вывод исследования — граждане не особенно готовы противостоять цифровым угрозам. Почти половина россиян (43%) прямо призналась, что не сможет отличить дипфейк от подлинных материалов. При этом уверенных в своей способности распознать подделку почти столько же — 41%.
Эта уязвимость распространяется и на другие формы взаимодействия с ИИ: по данным сентября, 57% россиян хотя бы раз не могли отличить в разговоре чат-бота от живого оператора.
Специалисты констатируют взрывной рост числа инцидентов. По оценкам компании VisionLabs, в 2024 году было зафиксировано несколько десятков тысяч дипфейк-атак, а в 2025-м их количество может достичь нескольких сотен тысяч.
Центробанк России дает рекомендации, как выявить подделку: в аудиосообщениях должны насторожить роботизированная речь без эмоций и посторонние шумы, а в видео — неестественная мимика и визуальные артефакты.
В стране наблюдается опасный парадокс: технология, способная создавать убедительные подделки, становится массовой, в то время как цифровая грамотность населения и критическое восприятие информации не успевают за этим ростом, создавая почву для масштабных манипуляций и мошенничества.