Исследователи обнаружили, что ChatGPT от OpenAI, одна из самых продвинутых и широко используемых моделей ИИ, иногда допускает те же ошибки в принятии решений, что и люди. В определенных сценариях он проявляет знакомые когнитивные предубеждения, такие как чрезмерная уверенность и ошибка «горячей руки».
Исследование, опубликованное в журнале INFORMS Manufacturing & Service Operations Management, предполагает, что ChatGPT не просто анализирует данные, а отражает аспекты человеческого мышления, включая ментальные сокращения и систематические ошибки. Эти шаблоны предвзятости выглядят относительно устойчивыми в различных бизнес-контекстах, хотя они могут меняться по мере разработки новых версий ИИ.
В ходе исследования ChatGPT прошел 18 различных тестов на предвзятость и вот результаты:
«Поскольку ИИ учится на человеческих данных, он может также мыслить как человек — со всеми его предубеждениями, — говорит Ян Чэнь, ведущий автор и доцент Западного университета. — Наше исследование показывает, что когда ИИ используется для принятия решений, он иногда использует те же самые ментальные сокращения, что и люди».
Исследование показало, что ChatGPT склонен:
«Когда у решения есть четкий правильный ответ, ИИ справится с ним — он умеет находить правильные формулы лучше, чем большинство людей, — говорит Антон Овчинников из Университета Квинс. — Но когда дело касается суждений, ИИ может попасть в те же когнитивные ловушки, что и люди».
В связи с тем, что правительства разных стран разрабатывают меры регулирования искусственного интеллекта, возникает важный вопрос: можно ли доверять ИИ при принятии значимых решений, если он способен быть таким же предвзятым, как человек?
«ИИ — не нейтральный арбитр, — говорит Сэмюэл Киршнер из Школы бизнеса UNSW. — Если его не контролировать, он может не решить проблемы, а наоборот, усугубить их».
Исследователи утверждают, что именно поэтому предприятиям и политикам необходимо следить за решениями ИИ так же внимательно, как и за решениями человека.
«К ИИ следует относиться как к сотруднику, принимающему важные решения, — ему нужен надзор и этические принципы, — говорит Мина Андиаппан из Университета Макмастера. — В противном случае мы рискуем автоматизировать ошибочное мышление вместо того, чтобы улучшить его».
«Эволюция от GPT-3.5 до 4.0 говорит о том, что новейшие модели становятся более человечными в одних областях и менее человечными, но более точными в других, — говорит Трейси Дженкин из Университета Квинс. — Менеджеры должны оценить, как различные модели работают в их сценариях принятия решений, и регулярно проводить переоценку, чтобы избежать неожиданностей. В некоторых случаях потребуется значительная доработка моделей».