Новости

ChatGPT поймали на мысли: ИИ не просто обрабатывает данные, но и ошибается в суждениях, как человек

ChatGPT поймали на мысли: ИИ не просто обрабатывает данные, но и ошибается в суждениях, как человек

Исследователи обнаружили, что ChatGPT от OpenAI, одна из самых продвинутых и широко используемых моделей ИИ, иногда допускает те же ошибки в принятии решений, что и люди. В определенных сценариях он проявляет знакомые когнитивные предубеждения, такие как чрезмерная уверенность и ошибка «горячей руки».

Исследование, опубликованное в журнале INFORMS Manufacturing & Service Operations Management, предполагает, что ChatGPT не просто анализирует данные, а отражает аспекты человеческого мышления, включая ментальные сокращения и систематические ошибки. Эти шаблоны предвзятости выглядят относительно устойчивыми в различных бизнес-контекстах, хотя они могут меняться по мере разработки новых версий ИИ.

В ходе исследования ChatGPT прошел 18 различных тестов на предвзятость и вот результаты:

  • ИИ попадает в ловушки человеческих решений. ChatGPT демонстрировал такие предубеждения, как чрезмерная самоуверенность или неприятие двусмысленности, а также ошибку конъюнкции, известную как «проблема Линды» (придание большей правдоподобности совместным событиям, чем отдельным), почти в половине тестов.
  • ИИ отлично справляется с математикой, но испытывает трудности с принятием решений. Он хорошо справляется с логическими и вероятностными задачами, но спотыкается, когда решения требуют субъективного рассуждения.
  • Предвзятость никуда не денется. Хотя новая модель GPT-4 аналитически точнее, чем ее предшественница, она иногда демонстрирует более сильную предвзятость в задачах, основанных на суждениях.

«Поскольку ИИ учится на человеческих данных, он может также мыслить как человек — со всеми его предубеждениями, — говорит Ян Чэнь, ведущий автор и доцент Западного университета. — Наше исследование показывает, что когда ИИ используется для принятия решений, он иногда использует те же самые ментальные сокращения, что и люди».

Исследование показало, что ChatGPT склонен:

  • играть безопасно — ИИ избегает риска, даже когда более рискованный выбор может дать лучшие результаты;
  • переоценивать себя — ChatGPT считает, что он более точен, чем есть на самом деле;
  • искать подтверждения — нейросеть предпочитает информацию, которая подтверждает существующие предположения, а не опровергает их;
  • избегать двусмысленности — ИИ предпочитает альтернативы с более определенной информацией и меньшей двусмысленностью.

«Когда у решения есть четкий правильный ответ, ИИ справится с ним — он умеет находить правильные формулы лучше, чем большинство людей, — говорит Антон Овчинников из Университета Квинс. — Но когда дело касается суждений, ИИ может попасть в те же когнитивные ловушки, что и люди».

В связи с тем, что правительства разных стран разрабатывают меры регулирования искусственного интеллекта, возникает важный вопрос: можно ли доверять ИИ при принятии значимых решений, если он способен быть таким же предвзятым, как человек?

«ИИ — не нейтральный арбитр, — говорит Сэмюэл Киршнер из Школы бизнеса UNSW. — Если его не контролировать, он может не решить проблемы, а наоборот, усугубить их».

Исследователи утверждают, что именно поэтому предприятиям и политикам необходимо следить за решениями ИИ так же внимательно, как и за решениями человека.

«К ИИ следует относиться как к сотруднику, принимающему важные решения, — ему нужен надзор и этические принципы, — говорит Мина Андиаппан из Университета Макмастера. — В противном случае мы рискуем автоматизировать ошибочное мышление вместо того, чтобы улучшить его».

«Эволюция от GPT-3.5 до 4.0 говорит о том, что новейшие модели становятся более человечными в одних областях и менее человечными, но более точными в других, — говорит Трейси Дженкин из Университета Квинс. — Менеджеры должны оценить, как различные модели работают в их сценариях принятия решений, и регулярно проводить переоценку, чтобы избежать неожиданностей. В некоторых случаях потребуется значительная доработка моделей».