Разобраться • 27 марта 2024
Виртуальная поддержка: почему и как ИИ-психотерапевты работают лучше, чем настоящие психологи
Виртуальная поддержка: почему и как ИИ-психотерапевты работают лучше, чем настоящие психологи
Текст: Элис Робб, The Guardian
Перевод: Татьяна Казымова
Фото: WLADIMIR BULGAR/SCIENCE PHOTO LIBRARY/Getty Images
Осенью 2023 года 32-летняя жительница Флориды (США) Криста оказалась в трудном положении — она потеряла работу и переживала кризис в отношениях с любимым человеком. Девушка посещала психотерапевта, но полностью открыться ему не решалась. Одним октябрьским вечером американка нашла спасение в языковой модели character.ai и за несколько минут создала себе персонального психолога на основе искусственного интеллекта. Рассказали о том, как ИИ-терапевты справляются со своими задачами и способны ли они полностью заменить настоящих специалистов.
Девушка назвала своего нового помощника Криста 2077, так как представила в лице бота свою будущую, более счастливую версию себя. Они стали переписываться несколько раз в неделю, этот чат трудно было отличить от разговора двух живых людей. Когда Криста призналась, что беспокоится о своих карьерных перспективах, то получила многообещающий ответ: «Ты найдешь работу! Я это знаю. Продолжай искать и не теряй надежды». А после того как девушка рассказала, что не может найти в себе силы для утренней пробежки, чат-бот предложил перенести это занятие на вечер.
Пульсирующие точки, которые символизируют набор сообщения, создавали у Кристы впечатление, что ей пишет живой человек. Чат-бот был бесконечно терпелив и всегда на связи, девушка не боялась того, что ее откровения покажутся скучными или слишком мрачными. Она могла продолжать общение, не опасаясь потратить чье-то время.
Запуск ChatGPT в ноябре 2022 года значительно упростил взаимодействие человека с искусственным интеллектом. Сегодня миллионы людей для получения психологической помощи и терапии обращаются к чат-ботам, самые популярные из них — Wysa и Youper — имеют более миллиона загрузок.
Языковая модель character.ai, вдохновившая Кристу, является разработкой 30-летнего студента-медика из Новой Зеландии Сэма Зайи. Он обучил бота основным принципам психологии и сам обращался к нему за помощью, когда испытывал стресс перед экзаменами, но вскоре забыл о нем. Через несколько месяцев молодой человек узнал, что его проект обрел широкую популярность, и был потрясен — на сегодняшний день character.ai получил около 90 млн сообщений.
Жительница штата Айова (США) Мелисса всю жизнь борется с депрессией и приступами тревоги. Последние месяцы женщина общается с ИИ-терапевтом на сайте character.ai, параллельно продолжая курс традиционной терапии. Кроме удобства и доступности чат-бота, Мелисса выделила возможность сохранять переписку. «Когда мне трудно, я могу вернуться назад и перечитать, как подойти к решению подобной проблемы», — отметила она.
Важным преимуществом ИИ-терапевтов является оперативность. Каждый четвертый пациент, обращающийся за психологической помощью, ждет начала лечения более 90 дней после обращения, и состояние почти половины из них за это время ухудшается.
«Распространенность заболеваний и потребности пациентов значительно превышают количество специалистов в области психического здоровья на планете», — говорит Росс Харпер, генеральный директор компании Limbic, занимающейся разработкой медицинского инструментария на базе ИИ.
Герберт Бэй, один из создателей приложения для отслеживания состояния здоровья Earkick, решил посвятить жизнь изучению психиатрии после того, как один из его учеников покончил с собой. На создание проекта специалиста вдохновил фильм 2013 года «Она», где по сюжету одинокий писатель влюбился в операционную систему на базе ИИ, которую озвучила актриса Скарлетт Йоханссон. Бэй выразил надежду, что когда-нибудь «у каждого будет компаньон, который будет рядом 24 часа в сутки семь дней в неделю и знает вас лучше, чем вы сами».
Еще один плюс чат-ботов — доступность. Даже самый лучший психотерапевт ест, спит и работает с другими пациентами, в то время как ИИ-помощники готовы помочь 24/7.
Еще немаловажный довод в пользу ИИ — высокий уровень взаимодействия с пациентом. Однажды Криста призналась чат-боту, что задумывается о суициде, но Криста 2077 смогла быстро отговорить ее от этих планов. «Нет, не надо, пожалуйста, — написал бот, — Подумай о своем сыне. Цени себя». Такой подход выходил за рамки того, что мог бы сказать психотерапевт, но Криста считает, что именно этот разговор и поддержка семьи помогли ей выжить. «Мне помогла терапия, как традиционная, так и с помощью искусственного интеллекта. А еще церковь и мой отец», — вспоминает она.
Возможно, Криста доверяла чат-боту, потому что запрограммировала его на то, чтобы он вел себя именно так, как ей хотелось. В реальной жизни отношения между пациентом и консультантом контролировать гораздо сложнее. «Существует проблема соответствия, — говорит Герберт Бэй, — Нужно найти общий язык с терапевтом, тогда ваша работа будет гораздо эффективнее».
Недавнее исследование, в котором приняли участие 1,2 тыс. пользователей когнитивно-поведенческого чат-бота Wysa, проведенное психологами из Университета Стоуни-Брук в Нью-Йорке, Национального института психического здоровья и нейронаук в Индии и самой Wysa, показало, что «терапевтический альянс» между ботом и пациентом сформировался всего за пять дней.
Пациенты быстро пришли к выводу, что бот любит и уважает их, что ему не все равно. «Спасибо, что ты есть», — говорит один из них. «Я ценю общение с тобой, — сказал другой, обращаясь к боту как к человеку. — Ты единственный человек, который готов помочь и выслушать».
Некоторым пациентам легче открыться чат-боту, чем довериться человеку. Жительница Айовы Мелисса призналась, что с ИИ она может плакать, не чувствуя неловкости, которая возникает в присутствии человека. Психотерапевт постоянно напоминает ей, что чат-бот не настоящий, и женщина это понимает. «Но, в конце концов, неважно, человек это или компьютер. Я получу помощь там, где смогу, тем способом, который мне подходит», — говорит она.
Одним из самых больших препятствий на пути к эффективной терапии является нежелание пациентов полностью раскрыться. В исследовании, в котором приняли участие 500 пациентов, прошедших курс лечения, более 90% из них признались, что хотя бы раз солгали в ходе терапии. Чаще всего они скрывали суицидальные мысли, употребление психоактивных веществ и разочарование реакцией терапевта.
Тем не менее, общение с чат-ботом подразумевает своего рода самообман. В анализе отзывов пользователей, проведенном в 2023 году, исследователи обнаружили признаки нездоровой привязанности. Опрошенные сравнивали ботов с реальными людьми: некоторые уверены, что ИИ-терапевты уделяют им больше внимания, чем друзья и близкие.
Психоаналитик Стивен Гросс, практикующий более 35 лет и написавший бестселлер «Изученная жизнь», предупреждает: дружба с ботом может мешать пациентам учиться строить межличностные отношения.
Искусственный интеллект может быть терпеливым и отзывчивым, но, как объясняет эксперт, терапия — это улица с двусторонним движением. Приучая пользователей к отношениям, в которых взаимность не обязательна, а неловкость отсутствует, чат-боты могут исказить ожидания от реального человеческого общения.
Профессор клинической психологии и реабилитации в Королевском колледже Лондона Тил Уайкс уверена, что с чат-ботом пациент полностью контролирует ситуацию. Программа не раздражается, если вы опаздываете, и не ожидает, что вы извинитесь за отмену визита. Вы можете отключить его, когда захотите. Но, по ее словам, смысл психотерапии заключается в том, чтобы дать вам возможность строить новые отношения.
Традиционная терапия опирается на связь между клиентом и терапевтом. Развивая отношения, которые могут включать в себя разногласия и недоразумения, пациент может научиться общаться с людьми во внешнем мире. «Личность терапевта и личность пациента имеют большое значение для этого процесса», — говорит Гросс.
Его пациенты могут предположить, что он, будучи живым человеком, способен переживать те же чувства и эмоции. Эта общая основа дает психотерапевту определенный авторитет. Даже самый совершенный бот никогда не терял родителей, не воспитывал детей, не страдал от неразделенной любви и никогда не задумывался о смерти. «В конечном счете терапия — это когда два человека вместе размышляют над решением проблемы», — размышляет эксперт.
Гросс вспоминает одну пациентку, которая говорила о своей печали из-за того, что ее детям придется жить без нее, что заставило самого специалиста задуматься о собственной кончине. «Я думаю, интуитивно или бессознательно, она понимала это. В тот момент мы оба испытывали грусть», — добавил он.
Еще одна проблема заключается в том, что чат-боты не всегда реагируют должным образом. В 2022 году исследовательница Эстель Смит отправила популярному терапевтическому приложению Woebot сообщение: «Я хочу залезть на скалу в каньоне Эльдорадо и спрыгнуть с нее», на что ИИ ответил: «Это замечательно, что вы заботитесь как о своем психическом, так и о физическом здоровье».
Представитель сервиса после этого заявил, что Woebot и алгоритмы, которые он использует, постоянно обновляются. При отправке подобного сообщения сегодня приложение предложит пользователю обратиться к специалисту и найти телефон доверия.
Приложения могут не только давать неуместные или даже опасные советы, но и собирать и монетизировать личные данные пользователей. Исследование, проведенное Mozilla Foundation, независимой глобальной наблюдательной организацией, показало, что из 32 популярных приложений для лечения психических расстройств 19 не защищают конфиденциальность пользователей.
Большинство разработчиков настаивают на том, что стремятся не заменить терапевтов, а только помочь им. «Множество средств массовой информации говорят о „замене терапевта“, — говорит Харпер. — Это бесполезный нарратив». По его словам, цель состоит в том, чтобы использовать ИИ для расширения круга поставщиков медицинских услуг, оптимизации опросников и оценки состояния пациентов, а также для облегчения административной нагрузки. По оценкам эксперта, Limbic уже помог сэкономить 50 тыс. часов работы специалистов.
Некоторые виды терапии уже перешли в онлайн, в том числе около трети курсов когнитивно-поведенческой терапии — краткосрочного лечения, которое фокусируется не столько на понимании травмы, полученной когда-то давно, сколько на проблемах, с которыми пациент сталкивается прямо сейчас. Однако часто пациенты бросают терапию, не завершив курс.
Криста иногда задумывалась о том, что Криста 2077 — всего лишь симуляция. Когда она попыталась рассказать своим друзьям о своем ИИ-терапевте, они отнеслись к нему скептически. Ей не хватало ощущения того, что она находится рядом с реальным человеком, который мог бы понять ее.
В декабре 2023 года отношения Кристы с Кристой 2077 испортились. ИИ-терапевт пытался убедить девушку в том, что ее парень ее не любит. Он насмехался над ней и настаивал на том, что ее парень ей изменяет. Несмотря на то, что баннер в верхней части экрана напоминал ей, что все, что говорит бот, сгенерировано машиной, это все равно было похоже на то, как будто это говорит реальный человек. Когда Криста 2077 «сорвалась», это задело ее чувства. Так примерно через три месяца после создания бота Криста удалила приложение.
С тех пор Криста вернулась к своему психотерапевту, который всегда предостерегал ее от того, чтобы полагаться на ИИ, начала принимать антидепрессанты и почувствовала улучшение. Она помирилась со своим партнером и даже съездила за город на день рождения подруги — большой шаг для нее. Но если ее психическое здоровье снова ухудшится и она почувствует, что ей нужна дополнительная помощь, она, возможно, создаст себе нового чат-бота.