Следующая флагманская модель OpenAI может оказаться не таким большим скачком вперед, как ее предшественники, говорится в новом отчете The Information. Сотрудники, которые тестировали Orion обнаружили, что, хотя ее производительность превосходит существующие модели, улучшения оказались меньше, чем при переходе от GPT-3 к GPT-4.
Другими словами, темпы улучшения, похоже, замедляются. Фактически, Orion может не быть лучше предыдущих моделей в некоторых областях, таких как кодирование.
В ответ на это OpenAI создала команду разработчиков, которая должна выяснить, как компания может продолжить совершенствовать свои модели в условиях сокращения поставок новых обучающих данных. Сообщается, что стратегии включают в себя обучение Orion на синтетических данных, созданных моделями ИИ, а также более дальнейшее совершенствование моделей в процессе посттренингового обучения.
Недавно компания сообщила, что наняла бывшего гендиректора Pebble Габора Челле для работы над секретным проектом, после того, как Anthropic наняла своего высокопоставленного сотрудника: основателя Embark Алекса Родригеса.
«Рад поделиться тем, что я присоединился к OpenAI! Плотность талантов здесь невероятна. Уже многому научился. В свое время поделюсь подробнее о том, над чем работаю», — сообщил Челле в посте на X.
Ранее компания Physical Intelligence, занимающаяся разработкой базового программного обеспечения для роботов, привлекла $400 млн, благодаря чему ее капитализация достигла $2,4 млрд. Инвесторами стали OpenAI, Thrive Capital, Lux Capital и основатель Amazon Джефф Безос, сообщает Reuters.