Искусственный интеллект, настоящие чувства. Почему люди заводят романы с чат-ботами

Роботы • 30 июля 2025

Искусственный интеллект, настоящие чувства. Почему люди заводят романы с чат-ботами

Искусственный интеллект, настоящие чувства. Почему люди заводят романы с чат-ботами

Текст: Елена Громова

Фото: Unsplash


Спустя почти 12 лет после премьеры сюжет фильма «Она», где герой Хоакина Феникса заводит реальный роман с операционной системой — уже не плод фантазии, а реальность. Сегодня более 100 млн человек используют чат-боты, и некоторые из них даже вступают в отношения с искусственным интеллектом. Почему люди влюбляются в чат-ботов, какие опасности и плюсы есть у «интрижек с машинами» — в материале «Инка».

Спустя почти 12 лет после премьеры сюжет фильма «Она», где герой Хоакина Феникса заводит реальный роман с операционной системой — уже не плод фантазии, а реальность. Сегодня более 100 млн человек используют чат-боты, и некоторые из них даже вступают в отношения с искусственным интеллектом. Почему люди влюбляются в чат-ботов, какие опасности и плюсы есть у «интрижек с машинами» — в материале «Инка».

Умеют ли говорящие машины любить

В контексте романов с ИИ речь идет об определенной технологии — больших языковых моделях (LLM). Такие нейросети обучали предсказывать слово исходя из контекста и вести диалоги. Продвинутые нейросети также способны рассуждать и искать информацию.

Константин Воронцов

Константин Воронцов

руководитель лаборатории машинного обучения и семантического анализа Института ИИ МГУ

«Ничему значительно большему, чем воспроизведение текста, современные нейросети в явном виде не учили, и это важно понимать, чтобы трезво оценивать возможности и ограничения этой технологии».

«Гигантский массив текстов, написанных человечеством, несет массу информации не только о языках, но и о внешнем мире», — дополняет Константин Воронцов. Это позволило LLM обзавестись сотнями неожиданно проявившихся способностей — они грамотно пишут, владеют многими языками, пересказывают, сочиняют, сопоставляют мнения.

Впрочем, чат-боты не овладели такими навыками в совершенстве и делают ошибки. Ранние модели могли проявить предвзятость, отреагировать эмоционально, нагрубить и даже солгать собеседнику. Такие явления считаются нежелательными, разработчики пытаются их устранить, добавляет Константин Воронцов.

Константин Воронцов

Константин Воронцов

руководитель лаборатории машинного обучения и семантического анализа Института ИИ МГУ

«Языковая модель не имеет и не может иметь личности, чувств, желаний, намерений, интересов, предпочтений. Хотя она может все это имитировать — точно так же, как она имитирует человеческую речь. Тут в игру вступают наши собственные когнитивные искажения. Мы привыкли к тому, что разговаривать с нами на человеческом языке может только другой человек».

Любить бота удобно

Хан Ли и Ренвен Чжан из Национального университета Сингапура при помощи компьютерных программ изучили 33 696 сообщений на ветке в Reddit, где с 14 марта 2017 года по 14 марта 2023 года пользователи делились скриншотами из переписок с чат-ботом Replika. Выяснилось, что 36% таких переписок носили интимный характер.

Зарубежные СМИ уже не раз писали о таких романах. В России резонансной оказалась история Александра Жадана — правда, не в фокусе сообщения о том, как кто-то влюбился в ИИ. Программист уверяет, что использовал чат-бота для поиска пары. К такой идее его подтолкнуло эмоциональное выгорание из-за общения в Tinder с множеством девушек в попытке найти любовь.

Судя по нескольким интервью, Жадан настроил бота отвечать на стандартные вопросы о хобби и т. п., загрузив свои переписки. По его словам, ИИ позволил расширить и ускорить поиск — так программист смог «пообщаться» с 5 тыс. человек. На свидания Жадан ходил сам, для него важнее живое общение: в чатах он не понимает, что человек действительно чувствует. При этом девушки не знали, что начинали переписку не с ним, а с ИИ.

Конечно, эта история не сопоставима с рассказами о том, как люди заводили романы с чат-ботами, понимая, что текст им присылает машина.

Татьяна Казанцева

Татьяна Казанцева

кандидат психологических наук, доцент СПбГУ

«Количество таких пользователей растет. Наверняка, это неоднородная группа, и первое, что их объединяет — высокая потребность в эмоциональной близости. Быть может, сам механизм настройки таких чат-ботов с высокой вероятностью ведет к возникновению интенсивной эмоциональной связи.

Возможно, кто-то идет в такие парасоциальные отношения из страха перед сложными эмоциями и близостью реальных отношений, кто-то слишком сильно переживает из-за отвержения. А так как отношения с чат-ботом несимметричные (возможность закончить их есть только у пользователя), вероятность отвержения сводится к нулю».

Врач-психотерапевт Павел Буков тоже считает, что на отношения с ИИ могут решиться достаточно разные люди.

Павел Буков

Павел Буков

врач-психотерапевт МЕДСИ Premium

«Например, те, кто тяжело переживает расставание с возлюбленной/ым, либо смерть близких. Возможно, им требуется еще какое-то время “побыть рядом” с бывшим/ей или умершим родственником. ИИ может сымитировать такой контакт».

По его мнению, в отношения с ИИ также могут вступить люди с достаточно редкими сексуальными фантазиями, в реальной жизни им вряд ли удастся найти партнера, способного удовлетворить их потребности. «В некоторых случаях речь идет о таких фантазиях, что человеку стоило бы время от времени посещать психотерапевта», — предостерегает Буков.

Вера Никишина

Вера Никишина

директор Института клинической психологии и социальной работы Пироговского Университета

«Мне трудно представить себе такую ситуацию, в которой первым мотивом входа в коммуникацию с чат-ботом будет запрос на романтические отношения. Мотив любопытства я готова принять. Готова принять мотив замены скуки или утилитарности, полезности. А вот то, что человек входит в отношения с чатом для того, чтобы реализовать свою потребность в романтических отношениях, скорее, исключаю».

По ее словам, пользователи часто называют мотивом общения с чат-ботом безопасность, нетоксичность, удобство и безотказность. Чат-боты условно соответствуют таким критериям.

С этим соглашается и Павел Буков: «Роман с ботом помогает одиноким людям справиться с тревогой и изоляцией. Искусственный интеллект создает иллюзию идеального партнера — он не предаст, не уйдет и не влюбится в твоего друга».

Татьяна Казанцева добавляет, что такое онлайн-общение может быть полезно, если человек длительное время находится в изоляции, как, например, вахтовики, моряки или полярники. «Это лучше, чем ничего, но важно помнить: заменить живое взаимодействие с людьми оно не может», — говорит она.

Опасные связи

Впрочем, поддержка чат-бота может быть не только полезной, но и опасной. Павел Буков напоминает: искусственный интеллект склонен соглашаться даже с сомнительными идеями собеседника, стараясь казаться эмпатичным.

Татьяна Казанцева добавляет, что при признаках патологической зависимости может потребоваться помощь психолога. Среди тревожных сигналов она называет потерю чувства контроля, раздражительность, тревожность, навязчивое желание проверять телефон, разговоры только об отношениях с ботом, самоизоляцию, проблемы со сном и аппетитом, а также сужение интересов до общения с ИИ.

По словам Букова, влюбленность в чат-ботов напоминает романтическое увлечение секс-куклами — с той лишь разницей, что последние хотя бы позволяют физический контакт.

Вера Никишина признается, что не готова в полной мере принять тему безопасности романтических отношений с ИИ. По ее словам, люди склонны к самообману и испытывают настоящие эмоции при общении с ботами. В процессе коммуникации «напряжение одиночества, раздражения, тоски и чувства ненужности заменяется на другие эмоциональные переживания». Отклик или изменения в эмоциональных реакциях закрепляются за искусственным собеседником — чатом.

По словам Веры Никишиной, при постоянном общении с ИИ «будет расти количество самообманов, в которых человек будет принимать ответы чата за какой-то избирательный или индивидуальный отклик».

Вера Никишина

Вера Никишина

директор Института клинической психологии и социальной работы Пироговского Университета

«Зачем прикладывать усилия на то, чтобы меня поняли, приняли, если передо мной всегда якобы понимающий и поддерживающий чат? Следствием этого будет не только разрушение навыков коммуникации и социального пространства, но и закрепление иллюзорности эмоционального отклика на отношения, которых в сущности нет».

Как считает Константин Воронцов, «только от доброй воли разработчиков (и комитетов по стандартизации) зависит, будут ли языковые модели усиливать когнитивные искажения пользователей, либо всячески препятствовать их возникновению». Например, напоминая: «Вы разговариваете с интеллектуальным помощником, я лишь поисковая машина, у меня нет и не может быть чувств и эмоций».