Новости

Axios: разработчики ИИ ставят скорость превыше борьбы с галлюцинациями

Генеративный ИИ продолжает создавать вымышленные данные, которые называются «галлюцинациями», из-за того, что компании-разработчики ставят в приоритет скорость ответа, а не точность. Об этом пишет Axios.

Фото: Freepik

Галлюцинации — это особенность генеративного ИИ. Модели предсказывают следующее слово на основе закономерностей в своих обучающих данных и подсказках, которые предоставляет пользователь. Они созданы для того, чтобы удовлетворять запросы пользователей, и если они не «знают» ответ, то угадывают его.

Конкуренция за лидерство в тестах и привлечение пользователей заставляет компании, включая OpenAI, игнорировать проблему с галлюцинациями ради скорости ответа, отмечает портал.

Резонансные инциденты с галлюцинациями происходят регулярно. Так, в отчете департамента здравоохранения Роберта Кеннеди-младшего были ссылки на несуществующие исследования, а газета Chicago Sun-Times опубликовала выдуманные книжные названия.

Чат-боты могли бы указывать, насколько языковая модель уверена в точности ответа, но у них нет для этого реальных стимулов, сказал Axios Тим Сандерс, научный сотрудник Гарвардской школы бизнеса и вице-президент компании G2, специализирующейся на продаже программного обеспечения. «Это маленький грязный секрет. Точность стоит денег», — добавил он.

По словам Сандерса, галлюцинации не вызывали бы беспокойства, если бы пользователи понимали, что генеративный ИИ предназначен для прогнозирования, а не для проверки фактов. Он призывает пользователей придерживаться принципа «доверяй, но проверяй».