Роботы • 6 ноября 2025
Чат-бот в белом халате: почему ChatGPT не заменит врача, но навсегда изменит медицину
Чат-бот в белом халате: почему ChatGPT не заменит врача, но навсегда изменит медицину

Текст: Григорий Щеглов
Фото: Unsplash
Согласно опросам, сегодня до 40% американцев обращается к ChatGPT с медицинскими вопросами. Люди спрашивают у чат-бота, что делать с температурой у ребенка, как интерпретировать результаты анализов, стоит ли волноваться из-за непонятной сыпи. Искусственный интеллект отвечает быстро и бесплатно — это намного удобнее похода к врачу. Похожая ситуация складывается и в России.
Но вот парадокс: чем убедительнее звучит ответ ИИ, тем опаснее он может быть. ChatGPT — статистическая модель, которая предсказывает следующее слово, а не ставит диагноз. И разница между этими двумя вещами может стоить здоровья. В конце октября OpenAI ограничила возможность ChatGPT давать советы по здоровью. Разбираемся, что привело к этому решению.
Согласно опросам, сегодня до 40% американцев обращается к ChatGPT с медицинскими вопросами. Люди спрашивают у чат-бота, что делать с температурой у ребенка, как интерпретировать результаты анализов, стоит ли волноваться из-за непонятной сыпи. Искусственный интеллект отвечает быстро и бесплатно — это намного удобнее похода к врачу. Похожая ситуация складывается и в России.
Но вот парадокс: чем убедительнее звучит ответ ИИ, тем опаснее он может быть. Потому что за этой уверенностью не стоит ни клинический опыт, ни ответственность, ни способность мыслить как врач. ChatGPT — это статистическая модель, которая предсказывает следующее слово, а не ставит диагноз. И разница между этими двумя вещами может стоить здоровья. Понимая это, 29 октября OpenAI запретила ChatGPT давать советы по здоровью. Разбираемся, что привело к этому решению.
Проблема не в том, что ИИ глуп. Проблема в том, как он работает. Языковые модели вроде ChatGPT обучаются на огромных массивах данных из интернета — от научных статей ВОЗ до постов на Reddit и плохо проверенных блогов о здоровье. Они не умеют отличать достоверную информацию от мифов. Они не понимают контекста и не задают уточняющих вопросов. ИИ не может решать проблемы, делать дедуктивные анализы или принимать взвешенные решения, как человеческий разум.
Вместо этого он «заучивает» огромные объемы информации, а затем воспроизводит ее по запросу. Если в данных есть большой процент неправильных или устаревших фактов, они получат большой вес в модели, а система будет считать их правильным ответом.

Алексей Мелехин
Кандидат психологических наук, доцент, профессор Российской Академии Естествознания, Почетный доктор наук (Doctor of Science, honoris causa), клинический психолог высшей квалификационной категории
«Нужно убрать словосочетание «искусственный интеллект» — это неправильное слово. Никакого интеллекта и клинического мышления там нет. Это просто машинное обучение, которое выдает общий поток информации. Для пациента это не помощь, а самоуспокоение — простой способ получить желаемое подтверждение своей болезни. Вся эта система лишена взгляда на пациента как на человека с психикой и нервной системой».

Алексей Стрыгин
основатель аналитического центра в сфере долголетия Longevity Economics Institute
«Механика обучения выстроена так, чтобы дать максимально вероятный, а не максимально правдивый ответ. LLM обучены так, чтобы «угождать». В некоторых случаях массив текстов для обучения может быть перекошен в сторону коммерческого контента, маскирующегося под научный».
Чат-бот может сказать вам, что все в порядке, когда на самом деле есть серьезная проблема. Или, наоборот, заставить волноваться без причины.
Как подчеркивает эксперт, языковым моделям нужно уметь правильно задавать вопросы. «Хороший промпт состоит не только из вопроса, но и из контекста, просьбы опираться на академические журналы, просьбы задавать уточняющие вопросы, просьбы маркировать части ответа, для которых недостаточно контекста или есть неуверенность в правильности», — объясняет Стрыгин. При неправильно сконструированных промптах легко попросить чат-бот подтвердить уже сформированное мнение, а не получить реальную информацию.

Кирилл Пшинник
сооснователь и CEO онлайн-университета Zerocoder
«Я всегда советую использовать ИИ не как замену врачу, а как второе мнение. Если их выводы расходятся — это повод уточнить детали и сделать дополнительные исследования.
Пример из моей жизни: во время отпуска у моего ребенка поднялась температура и начался кашель. В клинике поставили диагноз “бронхит”. Я отправил результаты анализов в ChatGPT, и модель предположила, что ситуация больше похоже на пневмонию и порекомендовала сделать рентген. Ночью температура поднялась до 41, и мы поехали в отделение неотложной помощи. После рентгена диагноз ”пневмония” подтвердился. Благодаря этому мы вовремя начали лечение, и ребенок быстро пошел на поправку».
Но правда и в том, что искусственный интеллект уже приносит медицине огромную пользу — просто не там, где о нем чаще всего говорят.

Кирилл Пшинник
сооснователь и CEO онлайн-университета Zerocoder
«ИИ с высокой точностью уже анализирует рентгеновские снимки, расшифровывает данные МРТ или КТ, ищет патологии, которые зачастую не видит человек. Например, нейросети на ранних стадиях успешно выявляют рак легких и молочной железы, что существенно повышает шансы на эффективное лечение».
Как пример, эстонский стартап Better Medicine создал первую клинически сертифицированную систему для анализа КТ-снимков, которая обнаруживает, классифицирует и измеряет опухоли с точностью 99,2%. Система уже работает в больницах, помогая радиологам выявлять рак на ранних стадиях.
Лондонский стартап TORTUS AI создал цифрового ассистента для клиницистов, который берет на себя рутинные задачи вроде документирования, заказа тестов и суммирования медицинских данных. Цель на ранних стадиях — дать докторам больше времени на пациентов и меньше — на бумажную работу.
В России тоже есть успешные кейсы. Например, проект Artbiolent предлагает платформу для CAR-T-терапии — метода лечения, при котором иммунные клетки пациента «перепрограммируются» для борьбы с раком. Их технология уже позволяет лечить широкий спектр заболеваний: от острого лимфобластного лейкоза и множественной миеломы до глиобластомы и некоторых аутоиммунных заболеваний.
Inmedikum. Online решает другую проблему — медленные клинические исследования. No-code платформа позволяет врачам и фармкомпаниям самостоятельно создавать дизайн исследований в визуальном конструкторе. Это радикально сокращает время выхода новых препаратов на рынок. Платформа уже используется региональными медицинскими центрами, биобанками и фармацевтическими компаниями.
В мире уже существует несколько компаний-единорогов, интегрирующих ИИ в разработку лекарств, такие как Recursion, Owkin, Insilico Medicine, Isomorphic Labs. «Со временем качество ИИ-моделирования будет улучшаться. Через десятки лет это может привести почти к полному отказу от клинических исследований в пользу цифровых двойников человека и гиперперсонализированного моделирования», — прогнозирует Стрыгин.
Инвестиции в медицинский ИИ продолжают расти. В первой половине 2025 года объем финансирования этой сферы достиг $6,4 млрд. Капитал концентрируется вокруг стартапов, которые показывают клинические результаты и понятные бизнес-модели. Все больше средств уходит в компании, способные встроиться в реальную медицинскую инфраструктуру — не в волшебные таблетки для бессмертия.
Однако основная проблема, которая видится на горизонте — скорее этическая, чем экономическая или технологическая. Сегодня системы на базе ИИ часто выступают как вспомогательный инструмент: помогают врачу анализировать данные, подсказывают возможные диагнозы или формулируют рекомендации.

Алексей Мелехин
Кандидат психологических наук, доцент, профессор Российской Академии Естествознания, Почетный доктор наук (Doctor of Science, honoris causa), клинический психолог высшей квалификационной категории
«Врач — это живая фигура, на которую возможен перенос, которую можно слушаться, которая может сказать «стоп, вам это не подходит». ChatGPT лишён этого. Он создает у пациента когнитивную иллюзию контроля, а ответственность за своё здоровье человек перекладывает на программу, что в любой момент будет «удобной жилеткой», в которой можно поплакаться».
Однако вопрос в том, что произойдет, когда ИИ станет активным участником принятия решений. Кто будет отвечать, если ошибочная подсказка приведет к неверному лечению? Юридические рамки пока отстают от технологического прогресса, а этические дискуссии во многих странах только начинаются.

Кирилл Пшинник
сооснователь и CEO онлайн-университета Zerocoder
«Согласно исследованию потенциала генеративных нейросетей и их влияния на рынок труда, автоматизировать задачи медицинских работников до 2030 года можно на 35%. То есть всего на треть, тогда как работу копирайтеров, лингвистов и аналитиков данных можно заменить уже сегодня на 70%».
В перспективе ближайших лет именно баланс между автоматизацией и человеческим контролем станет решающим. От того, как государства, медицинские учреждения и разработчики ответят на вопрос об ответственности, зависит, останется ли ИИ в статусе «умного помощника» или действительно превратится в ключевой элемент системы здравоохранения.

Алексей Стрыгин
основатель аналитического центра в сфере долголетия Longevity Economics Institute
«Хорошая аналогия — пилоты. Современный самолет большую часть времени ведет автопилот, а человек задает параметры, контролирует работу систем и берет управление при взлете, посадке или в кризисных ситуациях. Я ожидаю такой же ИИ-автопилот, но для нашего здоровья».