Поделиться • 25 февраля 2025
Как бизнесу внедрять языковые модели и почему их сложно создавать в России
Как бизнесу внедрять языковые модели и почему их сложно создавать в России
Текстов: эксперты Open Talks Special
Фото: Taylor Vick/Unsplash
Если раньше главные прорывы в области ИИ были связаны с OpenAI, Google и Anthropic, то сегодня появляются новые игроки. Особенно популярны системы искусственного интеллекта с открытым кодом — они дают независимым разработчикам и бизнесу возможность использовать мощные языковые модели без зависимости от крупных корпораций. Русскоязычные LLM пока уступают разработкам гигантов, но и они уже помогают бизнесу решать локальные задачи. Какие перспективы у отечественных ИИ-систем и как бизнесу внедрять такие решения, «Инк.» узнал у российских ученых, предпринимателей и экспертов в этой области в рамках конференции Open Talks Special.
В отличие от англоязычных моделей, которые разрабатываются в крупных лабораториях, русскоязычные LLM создаются в более ограниченных условиях — часто энтузиастами без значительных инвестиций.
Русский язык представлен в глобальных датасетах гораздо хуже, чем английский. Это усложняет адаптацию моделей и приводит к снижению качества генерации.
Илья Гусев,
старший ML-инженер в Booking.com, создатель русскоязычного LLM-помощника «Сайга», эксперт в генерации текстов и суммаризации данных
«Русскоязычные модели нужны, потому что есть аудитория в 300 млн русскоговорящих людей».
А использование англоязычных моделей на русском языке требует больших ресурсов из-за меньшей эффективности представления русского текста.
Михаил Тихомиров,
научный сотрудник НИВЦ МГУ, автор RuAdapt, специалист по адаптации мультиязычных LLM для русского языка
«На 20–60% дороже делать дальнейший претрейн или SFT-тюнинг на том же объеме данных. Это несправедливое допущение, которое мы пытаемся исправить через токенизацию».
Однако в отдельных задачах локальные модели уже не уступают мультиязычным аналогам. Вот эти популярные проекты показывают высокие результаты в обработке русскоязычного текста:
● «Сайга» — одна из самых скачиваемых русскоязычных LLM, разработанная старшим ML-инженером в Booking.com Ильей Гусевым;
● RuAdapt — проект научного сотрудника НИВЦ МГУ Михаила Тихомирова, улучшающий работу мультиязычных моделей с русским языком;
● «Вихрь» — семейство LLM от Александра Николича, автора Rudalle и Kandinsky;
● GigaChat — флагманская LLM от «Сбера», разрабатываемая Григорием Лелейтнером и Евгением Косыревым.
Александр Николич,
основатель Vikhr Models, один из авторов rudalle Kandinsky, разработчик семейства русскоязычных LLM «Вихрь»
«Технологии нашей разработки по большей части сопоставимы с западными. То есть претрейны „Сбера“ и „Яндекса“ сопоставимы с младшими версиями закрытых моделей и старшими версиями открытых моделей, созданных гигантами».
Вот главные сложности, с которыми сталкиваются разработчики русскоязычных моделей с открытым кодом.
Павел Подкорытов
ооснователь AI Talent Hub и Napoleon IT, ведущий Open Talks Special
«Каждый третий запрос на рынке заказной разработки так или иначе касается внедрения LLM. При этом 80% хотят развернуть модели на своей инфраструктуре, а 20% готовы работать с публичными решениями. LLM-разработчикам нужно искать подходы, как удовлетворить потребности бизнеса, обеспечивая баланс между безопасностью, гибкостью и стоимостью».
Вот задачи, которые российской ИИ-индустрии надо решить, чтобы выйти на международный уровень.
Модель Deepseek R-1 от китайской ИИ-лаборатории DeepSeek — одна из самых обсуждаемых open-source LLM 2024 года. Ее создатели смогли снизить стоимость обучения модели с нескольких млрд до $6 млн, а по качеству она приблизилась к коммерческим решениям.
Чат-бот попал на первое место рейтинга бесплатных приложений в Apple App Store США, Великобритании, Китая и других стран. Как утверждали СМИ, после этого обрушились акции многих технологических компаний, а капитализация NVIDIA снизилась почти на $600 млрд.
По мнению Ильи Гусева, снижение котировок не связано с DeepSeek — оно произошло неделей позже из-за торговых войн США и Китая. Также Илья считает неправдоподобной информацию о стоимости обучения: $5,5 млн потребовалось только на последний этап. По его оценке, с учетом всех экспериментов, версий модели и зарплат команды реальные затраты могли достигать $200 млн. «У них 199 авторов с зарплатой по $200–300 тыс. лишь за один продукт», — говорит эксперт.
Тем не менее DeepSeek продемонстрировал, что сильная команда специалистов способна совершить прорыв за два, года. Грамотные инженерные решения могут компенсировать нехватку вычислительных мощностей. Это меняет взгляд на будущее русскоязычного ИИ, где ключевую роль играет привлечение талантов.
Илья Гусев,
старший ML-инженер в Booking.com, создатель русскоязычного LLM-помощника «Сайга», эксперт в генерации текстов и суммаризации данных
«У DeepSeek очень хорошая инженерная команда. Они создали новый вид KV-cache (кэш, который хранит ключи и значения, сгенерированные предыдущими токенами. — Прим. ред.) и в целом Attention (механизм внимания — техника, которая позволяет моделям фокусироваться на наиболее значимых частях входных данных при составлении прогнозов. — Прим. ред.). Они интегрировали технологию Multi-token Prediction (архитектура, позволяющая модели предсказывать несколько слов одновременно, а не по одному за раз. — Прим. ред.), которая чуть-чуть ускоряет конечный инференс».
Ключевая цель разработчиков — сделать нейросети более быстрыми, компактными и автономными.
1. От больших моделей к эффективным решениям. Раньше компании стремились создать самые мощные LLM, но сейчас акцент смещается на оптимизацию и снижение вычислительных затрат.
2. Агентные ИИ-системы. Современные модели работают в рамках запросов, но в будущем они смогут самостоятельно выполнять задачи, анализировать данные и взаимодействовать с другими агентами. Западные компании уже тестируют такие технологии, и в ближайшие годы они могут появиться в коммерческих продуктах.
3. Мультимодальные модели. ИИ работает не только с текстами, но и с изображениями, видео и звуком. Мультимодальные LLM могут применяться в аналитике, образовании и бизнесе.
4. Open Source против закрытых моделей. Если раньше OpenAI и Google не имели серьезных open-source конкурентов, то теперь ситуация меняется. Раньше закрытые модели считались безусловными лидерами, но сегодня решения с открытым кодом быстро догоняют их по функционалу и качеству. Разрыв между ними сокращается, а в некоторых случаях открытые модели уже демонстрируют конкурентные преимущества.
Закрытые LLM остаются ограниченными в использовании. Компании, работающие с чувствительными данными, не могут контролировать внутренние процессы таких систем, что делает их зависимыми от провайдеров. В этом смысле open source становится альтернативой, позволяя настраивать и адаптировать модели под конкретные задачи бизнеса, обеспечивая полный контроль над данными и инфраструктурой.
Внедрение языковых моделей — это не только технологический, но и стратегический вопрос. Компании должны учитывать стоимость, инфраструктурные требования и безопасность данных.
Наиболее распространенные сценарии использования LLM
● Автоматизация клиентского сервиса: чат-боты, голосовые помощники, техподдержка.
● Аналитика данных: генерация отчетов, обработка текстовых массивов.
● Создание контента: маркетинговые тексты, автоматизированные резюме, юридические документы.
● Оптимизация внутренних процессов: интеллектуальный поиск, автоматизированное обучение.
Илья Гусев,
старший ML-инженер в Booking.com, создатель русскоязычного LLM-помощника «Сайга», эксперт в генерации текстов и суммаризации данных
«У компаний есть задачи и какое-то видение, как эти задачи должны быть решены. Они могут создать свою метрику, которая будет измерять, насколько хорошо языковые модели справляются. Дальше нужно взять несколько моделей, прогнать их через свою метрику и выбрать ту, которая лучше всех себя показала».
Компании могут выбрать один из три подходов:
1. Облачные API закрытых моделей (GPT-4, Claude, Gemini).
✔ Высокое качество, надежность.
✖ Отсутствие контроля, высокая стоимость.
2. LLM с открытым кодом (Mistral, LLaMA, DeepSeek, Vikhr).
✔ Гибкость, возможность локального развертывания.
✖ Требует мощностей и специалистов для настройки.
3. Комбинированный подход.
✔ Использование API для сложных задач и open source для внутренних процессов.
Где развернуть модель
● Облачные сервисы (AWS, Yandex Cloud, VK Cloud). Быстрый запуск, но есть риски утечки данных.
● Собственные серверы. Дают полный контроль, но требуют больших инвестиций.
● Гибридные решения. Позволяют балансировать нагрузку между облаком и локальными мощностями.
Снизить затраты поможет:
● оптимизация запросов. Чем короче промпт, тем меньше вычислений;
● квантование моделей уменьшит требования к «железу»;
● использование узкопрофильных LLM. Не всегда нужна универсальная модель;
● анализ Return On Investment (ROI) — коэффициента рентабельности инвестиций. Оценка, действительно ли ИИ снижает расходы.
А вот главные ошибки при внедрении ИИ:
● ожидание мгновенного результата без адаптации модели;
● отсутствие стратегии внедрения;
● игнорирование вопросов безопасности.
Закрытые LLM остаются ограниченными в использовании. Компании, работающие с чувствительными данными, не могут контролировать внутренние процессы таких систем, что делает их зависимыми от провайдеров. В этом смысле open source становится альтернативой, позволяя настраивать и адаптировать модели под конкретные задачи бизнеса, обеспечивая полный контроль над данными и инфраструктурой.
В материале также принимал участие сооснователь AI Talent Hub и Napoleon IT, ведущий Open Talks Special Павел Подкорытов.