Генеративный ИИ продолжает создавать вымышленные данные, которые называются «галлюцинациями», из-за того, что компании-разработчики ставят в приоритет скорость ответа, а не точность. Об этом пишет Axios.
Фото: Freepik
Галлюцинации — это особенность генеративного ИИ. Модели предсказывают следующее слово на основе закономерностей в своих обучающих данных и подсказках, которые предоставляет пользователь. Они созданы для того, чтобы удовлетворять запросы пользователей, и если они не «знают» ответ, то угадывают его.
Конкуренция за лидерство в тестах и привлечение пользователей заставляет компании, включая OpenAI, игнорировать проблему с галлюцинациями ради скорости ответа, отмечает портал.
Резонансные инциденты с галлюцинациями происходят регулярно. Так, в отчете департамента здравоохранения Роберта Кеннеди-младшего были ссылки на несуществующие исследования, а газета Chicago Sun-Times опубликовала выдуманные книжные названия.
Чат-боты могли бы указывать, насколько языковая модель уверена в точности ответа, но у них нет для этого реальных стимулов, сказал Axios Тим Сандерс, научный сотрудник Гарвардской школы бизнеса и вице-президент компании G2, специализирующейся на продаже программного обеспечения. «Это маленький грязный секрет. Точность стоит денег», — добавил он.
По словам Сандерса, галлюцинации не вызывали бы беспокойства, если бы пользователи понимали, что генеративный ИИ предназначен для прогнозирования, а не для проверки фактов. Он призывает пользователей придерживаться принципа «доверяй, но проверяй».