Новости

Инструмент от OpenAI чаще других ИИ галлюцинирует. Например, выдумывал свои методы лечения

Согласно отчету Associated Press, инженеры-программисты, разработчики и ученые-исследователи испытывают серьезные опасения по поводу транскрипций Whisper, от компании OpenAI, пишет TechCrunch. Сообщается, что инструмент отображал расовые комментарии и воображаемые медицинские методы лечения, что может привести к неутешительным последствиям, поскольку Whisper используется в медицинских учреждениях.

Исследователь из Мичиганского университета, изучавший публичные собрания, обнаружил галлюцинации в 8 из 10 аудиозаписей. Инженер машинного обучения изучил более 100 часов расшифровок Whisper и нашел галлюцинации более чем в половине из них. А один из разработчиков сообщил, что обнаружил галлюцинации почти во всех 26 тыс. расшифровок, которые он создал с помощью Whisper.

Представитель OpenAI заявил, что компания постоянно работает над повышением точности своих моделей, в том числе над уменьшением количества галлюцинаций, и отметил, что политика использования запрещает использовать Whisper «в определенных контекстах принятия решений с высокой ставкой». По словам компании, они благодарят исследователей за то, что они поделились своими результатами.

Ранее комментарии Анны Маканджу, вице-президента OpenAI по глобальным делам, привлекли интерес людей по всему миру. Выступая на дискуссии во время саммита будущего ООН, Маканджу предположила, что новые модели «рассуждений», такие как o1 от OpenAI, могут существенно снизить предвзятость ИИ. Она объяснила, что это происходит за счет самопроверки в своих ответах и более строгого соблюдения правил.