Новости

Подростки обвинили техногигантов, что те не заботятся об их психическом здоровье

Некоммерческая организация Common Sense Media, составляющая обзоры и рейтинги СМИ и технологий, представила отчет, в котором сообщается, что американские подростки перестали верить в то, что крупные технологические компании заботятся об их психическом здоровье и конфедециальности, сообщает TechCrunch.

Организация опросила более 1 тыс. подростков о том, заботятся ли крупные технологические компании, такие как Google, Apple, Meta* (запрещена и признана экстремистской на территории РФ), TikTok и Microsoft, об их благополучии и безопасности, принимают ли они этические решения, защищают ли их личные данные и т. д.

Во всех случаях большинство подростков сообщили о низком уровне доверия к этим технологическим компаниям. Почти половина подростков заявили, что они мало или совсем не верят в то, что компании будут принимать ответственные решения об использовании ИИ.

Недоверие к крупным технологическим компаниям росло в США на протяжении многих лет. С момента разоблачения массового сбора данных правительством в 2013 году и скандала с данными, связанными с консалтинговой фирмой Cambridge Analytica, до утечек информации в 2021 году осведомителем Facebook* (принадлежит Meta*) Фрэнсисом Хогеном, свидетельствующих о том, что Meta* осознавала свой вред для общества.

В этом году руководители технологических компаний выстроились в очередь, чтобы присягнуть на верность администрации Трампа, пожертвовав $1 млн в инаугурационный фонд президента, надеясь купить расположение и избежать проверок и регулирования своего бизнеса — независимо от того, во что это обойдется их пользователям. Даже те, кто поддерживает Трампа, считают действия лидеров технологических компаний неискренними, учитывая, как они резко изменили свое мнение после его критики в предыдущий срок.

По данным журнала Common Sense, 64% опрошенных подростков в США не доверяют крупным технологическим компаниям в вопросах заботы об их психическом здоровье и благополучии, а 62% считают, что компании не будут защищать их безопасность, если это нанесет ущерб прибыли. Еще 53% отметили, что крупные технологические компании не принимают этичные и ответственные решения в области дизайна, чтобы вводить пользователей в заблуждение.

52% опрошенных не считают, что крупные технологические компании будут обеспечивать безопасность их личной информации, а 51% — что компании действуют справедливо и инклюзивно при рассмотрении потребностей разных пользователей.

Недоверие к технологиям влияет и на мнение подростков об ИИ. Так, 47% опрошенных не верят, что эти компании будут принимать ответственные решения относительно использования этой технологии.

Также 41% опрошенных признались, что их ввели в заблуждение поддельные изображения в Интернете, 35% заявили, что были введены в заблуждение поддельным онлайн-контентом в целом, и более четверти (28%) задавались вопросом, разговаривают ли они с ботом или человеком.

Треть подростков отметили, что GenAI еще больше затрудняет доверие к точности онлайн-информации. Эта цифра возрастает до 40%, если подростки ранее были обмануты поддельным или вводящим в заблуждение контентом.

Около 39% респондентов заметили проблемы с выводами ИИ при использовании его для помощи в школьных заданиях. 74% подростков заявили, что для управления ИИ необходимы гарантии конфиденциальности и прозрачность. Еще 73% отметили, что изображения ИИ и другой контент должны быть помечены и обозначены водяными знаками.

Оценивая бизнес-модели искусственного интеллекта, 61% подростков посчитали, что создатели контента должны получать компенсацию, если их данные используются системами ИИ.

ИИ может даже быть опасным для подростков. Ранее американский школьник Сьюэлл Сельцер III свел счеты с жизнью после того, как глубоко привязался к чат-боту с искусственным интеллектом на сайте Character.AI. И это — не единственный случай суицида после взаимодействий человека и нейросетей.