Новости

Люди распознают только 60% изображений, созданных ИИ. Остальные они считают реальными!

Исследование Университета Ватерлоо показало, что люди с трудом, с точностью всего 61%, различают реальные изображения и изображения, созданные ИИ, что вызывает обеспокоенность по поводу надежности визуальной информации и необходимости в инструментах для идентификации контента, созданного ИИ.

Исследования показывают, что участники опроса были обмануты изображениями, созданными ИИ, почти в 40% случаев. Людям было труднее, чем ожидалось, отличить, кто настоящий человек, а кто искусственно создан. В исследовании Ватерлоо 260 участникам были предоставлены 20 немаркированных изображений: 10 из них были реальными людьми, полученными в результате поиска в Google, а остальные 10 были созданы с помощью Stable Diffusion или DALL-E, двух широко используемых программ ИИ, которые генерируют изображения.

Участников попросили пометить каждое изображение как реальное или созданное ИИ и объяснить, почему они приняли такое решение. Только 61% участников смогли отличить людей, созданных ИИ, от реальных, что намного ниже порога в 85%, которого ожидали исследователи.

«Люди не настолько искусны в проведении различий, как они думают», — сказал Андреа Покол, кандидат компьютерных наук в Университете Ватерлоо и ведущий автор исследования. Участники обращали внимание на такие детали, как пальцы, зубы и глаза, как на возможные индикаторы при поиске контента, созданного ИИ, но их оценки не всегда были верными.

Покол отметил, что характер исследования позволял участникам внимательно рассматривать фотографии, в то время как большинство интернет-пользователей просматривают изображения мимоходом. «Люди просто прокручивают события или у них нет времени, они не уловят эти сигналы», — сказал Покол.

Чрезвычайно быстрые темпы развития технологии ИИ особенно затрудняют понимание потенциала вредоносных действий, связанных с изображениями, созданными искусственным интеллектом. Темпы академических исследований и законодательства часто не успевают за ними: изображения, созданные ИИ, стали еще более реалистичными с момента начала исследования в конце 2022 года. Изображения, созданные ИИ, особенно опасны как политический и культурный инструмент, с помощью которого любой пользователь может создать фальшивые изображения общественных деятелей в неловких или компрометирующих ситуациях.

«Дезинформация не нова, но инструменты дезинформации постоянно меняются и развиваются, — сказал Покол. — Может дойти до того, что людям, независимо от того, насколько они обучены, все равно будет сложно отличить настоящие изображения от подделок. Вот почему нам необходимо разработать инструменты для выявления и противодействия этому. Это похоже на новую гонку вооружений ИИ».

Ранее ученые из Канады придумали способ, который показывает, что человек находится в алкогольном опьянении. Для этого участникам исследования предложили читать скороговорку перед употреблением алкоголя, а затем каждый час в течение семи часов после этого. Проанализировав эти записи, они разработали систему машинного обучения, способную с точностью 98% определить, находился ли человек, читавший текст, под воздействием алкоголя.