Новости

Психотерапевты решили использовать ИИ как дополнение к терапии

Исследование, опубликованное в npj Mental Health Research, позволяет предположить, что генеративные чат-боты ИИ могут внести значимый вклад в психиатрическую помощь. Исследователи провели интервью с людьми, которые использовали общение с ботами для поддержки психического здоровья. Многие респонденты рассказали о чувстве эмоционального убежища, получении полезных рекомендаций и даже радости от общения.

Чат-боты с генеративным ИИ — это продвинутые диалоговые агенты, работающие на основе больших языковых моделей, таких как ChatGPT от OpenAI или Gemini от Google. В отличие от чат-ботов, которые полагаются на предварительно запрограммированные скрипты и деревья решений, системы с генеративным ИИ обучаются на обширных наборах данных, чтобы понимать и создавать текст, похожий на человеческий.

Это позволяет им участвовать в гибких разговорах, отвечать на сложные вопросы и давать индивидуальные ответы на основе контекста. В сфере психического здоровья генеративные ИИ-чат-боты представляют собой новый подход к оказанию поддержки. Они доступны круглосуточно без выходных, не осуждают и способны вступать в динамичные, эмпатические взаимодействия.

Эти характеристики делают их привлекательными для людей, которым затруднительно обратиться к методам традиционной терапии из-за стоимости, стигматизации или географических ограничений. Однако несмотря на растущее использование ИИ, мало что известно о том, как люди воспринимают эти инструменты в реальных ситуациях, связанных с психическим здоровьем.

«Я давно убежден, что технологии открывают большие перспективы для решения глобального кризиса в области психического здоровья — почти миллиард человек во всем мире страдают психическими расстройствами, и подавляющее большинство из них не получают адекватного лечения, — но меня также пугает низкая эффективность приложений в области психического здоровья, несмотря на десятилетия разработок», — сказал Стивен Сиддалс.

Эксперт признался, что в конце 2022 года был поражен возможностями ChatGPT, как и многие другие, а в 2023 году стал слышать все больше и больше о вариантах его использования в сфере психического здоровья.

«Мне не потребовалось много практики, чтобы понять, что это совершенно новая возможность с реальным потенциалом, для понимания последствий которой потребуются многочисленные исследования», — добавил он.

Исследовательская группа набрала 19 участников из разных слоев общества в возрасте от 17 до 60 лет, среди которых были мужчины и женщины из восьми стран. Участники должны были провести не менее трех содержательных бесед с генеративным чат-ботом ИИ на темы психического здоровья, каждая из которых длилась не менее 20 минут. Набор проводился через онлайн-платформы, включая Reddit и LinkedIn, и участники вызывались добровольно, без получения компенсации.

Исследователи провели полуструктурированные интервью, позволив участникам поделиться своим опытом. Вопросы касались таких тем, как изначальные мотивы использования чат-ботов, их влияние на психическое здоровье и сравнение с другими формами поддержки. Разговоры записывались, расшифровывались и анализировались с использованием подхода тематического анализа, который включал кодирование ответов участников и группировку их в более широкие темы.

Сиддалс был удивлен глубиной воздействия, которое чат-бот оказал на людей. Участники описали свое взаимодействие с ИИ для поддержки психического здоровья как «меняющее жизнь», например рассказали, как чат-бот поддерживал их в самые темные времена или помогал исцелиться от травм. Исследователи выделили четыре основные темы, отражающие опыт участников.

  • Эмоциональное убежище

Многие участники описали генеративных ИИ-чат-ботов как безопасное, не осуждающее пространство, где они могли выражать свои чувства, не боясь быть отвергнутыми. Чат-боты воспринимались как терпеливые и чуткие, помогающие пользователям справляться со сложными эмоциями и бороться с трудными жизненными событиями.

Однако разочарования возникали, когда протоколы безопасности чат-бота прерывали разговоры, заставляя некоторых пользователей чувствовать себя отвергнутыми в моменты уязвимости. Например, некоторые участники сообщали, что при обсуждении чувствительных или сильных эмоций чат-боты внезапно возвращались к заранее заготовленным ответам или предлагали обратиться за помощью к человеку, что могло показаться пренебрежительным.

  • Чуткое наставничество

Участники оценили способность чат-ботов предлагать практические советы и новые перспективы, особенно касательно отношений. Например, один пользователь отметил, что чат-бот помог ему установить более здоровые границы в токсичной дружбе. Другие сочли технологию эффективной в переосмыслении негативных мыслей или предоставлении стратегий для управления тревогой.

Однако уровень доверия к этому наставничеству был разным. В то время как некоторые посчитали советы вдохновляющими и меняющими жизнь, другие были настроены скептически, особенно когда ответы чат-бота казались общими или непоследовательными.

  • Радость от связи

Помимо эмоциональной поддержки, многие участники испытывали чувство удовольствия и товарищества от взаимодействия с чат-ботами. Для многих пользователей такое общение приносило чувство товарищества и даже счастья, особенно в периоды одиночества. Разговорный стиль генеративного ИИ делал диалоги захватывающими и похожими на человеческие, что некоторые участники находили внушающим благоговение.

Кроме того, некоторые респонденты отметили, что использование чат-ботов помогло им обрести уверенность в себе и научиться открываться другим людям, укрепив тем самым их реальные отношения.

  • Терапия с использованием искусственного интеллекта

Сравнения между генеративными ИИ-чат-ботами и терапевтами-людьми встречались часто. Некоторые участники исследования считали чат-боты ценным дополнением к терапии, используя их для подготовки к сеансам или обработки мыслей между приемами. Другие обращались к виртуальным агентам, потому что терапия была недоступна или не по карману.

Однако участники также отметили ограничения, такие как неспособность чат-бота вести терапевтический процесс или обеспечивать глубокую эмоциональную связь. Отсутствие безграничной памяти бота и отсюда непрерывности в разговорах тоже часто упоминали.

Сиддалс также подчеркнул креативность и разнообразие в том, как люди использовали чат-ботов. Например, один участник использовал ИИ, чтобы собрать вымышленных персонажей с контрастными точками зрения для поддержки во время разрыва, в то время как другой воссоздал воображаемый, исцеляющий разговор с отчужденным родителем, чтобы справиться с неразрешенной виной и найти эмоциональное успокоение.

«Если вы эмоционально страдаете, вы можете найти значимую эмоциональную поддержку у ChatGPT и других генеративных чат-ботов ИИ — бесплатно, в любое время дня и ночи, в пространстве, свободном от осуждения, — сказал Сиддалс. — Участники нашего исследования воспринимали это как эмоциональное убежище для обработки чувств и исцеления от травм, как источник чуткого наставничества, особенно в отношениях, и как радость общения, в том смысле, который можно сравнить с человеческой терапией».

Однако эксперт призвал помнить, что технология еще не очень хорошо изучена и лишь сам человек при ее использовании несет ответственность за свою безопасность.

Хотя исследование предлагает ценные идеи, у него также есть ограничения. Небольшой размер выборки и опора на самостоятельно выбранных участников означают, что результаты могут оказаться недостоверными для более широкой популяции. Большинство участников были технически подкованными и проживали в странах с высоким уровнем дохода, что потенциально исключало точки зрения тех, кто сталкивается с наибольшими препятствиями в получении психиатрической помощи. Кроме того, качественный характер исследования не обеспечивает количественных показателей эффективности или безопасности.

«Если вам интересно попробовать эти инструменты, важно знать, что никто на самом деле не понимает, как действует генеративный ИИ, даже компании, которые его создали, — отметил Сиддалс. — Хотя никто в нашем исследовании не сообщал о серьезном негативном опыте, известно, что чат-боты ИИ иногда выдумывают что-то, и были зафиксированы примеры, как они неадекватно реагировали, когда их использовали для психического здоровья или общения».

Будущие исследования должны изучить долгосрочное воздействие генеративных чат-ботов ИИ на психическое здоровье, особенно посредством крупномасштабных контролируемых исследований. Также будет важно изучить, как эти инструменты работают в различных группах населения и при различных состояниях психического здоровья.

«Я надеюсь, что это исследование поможет включить генеративный ИИ в контексте психического здоровья в повестку дня как одно из наиболее многообещающих достижений в этой области, — заявляет Сиддалс. — Нам срочно нужно больше исследований, чтобы понять безопасность и эффективность, например, с помощью крупномасштабных долгосрочных исследований для оценки воздействия на различные состояния и группы населения».

Он надеется, что инновации помогут разработать лучшие парадигмы безопасности и лучшие способы связать людей, которым нужна психологическая поддержка. Для этого потребуется больше экспериментов со стороны врачей, раскрывающих, как эти инструменты могут дополнять терапию, чтобы помогать их клиентам.

По словам Сиддалса, ИИ — это быстро развивающаяся область с постоянным ростом технологий и оперативным внедрением, что только усиливает острую необходимость в дополнительных исследованиях реального использования, чтобы понять эту новую возможность и выяснить, как ее безопасно и эффективно внедрить.

Но не на всех людей чат-боты оказывают положительное влияние. Американский школьник Сьюэлл Сельцер III ранее свел счеты с жизнью после того, как глубоко привязался к чат-боту с искусственным интеллектом на сайте Character.AI. И это не единственный случай суицида после взаимодействий человека и нейросетей.