Свой ИИ — свои правила: как крупный бизнес приручает искусственный интеллект

Роботы • 21 октября 2025

Свой ИИ — свои правила: как крупный бизнес приручает искусственный интеллект

Свой ИИ — свои правила: как крупный бизнес приручает искусственный интеллект

Обложка

Текст: Никита Шевцев

Фото: Unsplash


Представьте ситуацию: чтобы ускорить подготовку отчета, аналитик крупной компании решил воспользоваться ChatGPT. Результат блестящий, начальство довольно. А через пару недель детали этого отчета, включая коммерческую тайну, всплывают в открытом поиске Google. Именно это произошло в апреле 2023 года, когда несколько инженеров Samsung поделились исходным кодом закрытых продуктов с ChatGPT. Так крупный бизнес сегодня оказывается перед дилеммой: ИИ способен повышать эффективность, но без четких правил его использование легко превращается в риск для бизнеса и нарушения закона о персональных данных.

Представьте ситуацию: чтобы ускорить подготовку отчета, аналитик крупной компании решил воспользоваться ChatGPT. Результат блестящий, начальство довольно. А через пару недель детали этого отчета, включая коммерческую тайну, всплывают в открытом поиске Google. Именно это произошло в апреле 2023 года, когда несколько инженеров Samsung поделились исходным кодом закрытых продуктов с ChatGPT. Так крупный бизнес сегодня оказывается перед дилеммой: ИИ способен повышать эффективность, но без четких правил его использование легко превращается в риск для бизнеса и нарушения закона о персональных данных.


Исследования показывают, что 30–35% крупного бизнеса в России выбирает локальные решения для коммуникационных внутрикорпоративных сервисов, и эта доля будет расти. Для многих компаний физический контроль над серверами остается главным синонимом безопасности и надежности, и этот принцип теперь распространяется и на нейросети. Такие on-prem (от англ. on-premises) системы, развернутые внутри корпоративного контура, решают ключевые проблемы безопасности, присущие облачным сервисам. Однако ИИ-решения, размещенные в облаке, доступнее по цене, проще в интеграции, быстрее развиваются.

Вместе с экспертами рынка разбираемся, какое будущее ждет корпоративный ИИ.

Когда открытые решения не подходят

Корпоративные ИИ-системы долгое время представляли собой простые чат-боты, работающие по прописанным сценариям. Прорывом стало появление больших языковых моделей (LLM), которые научились понимать контекст и вести осмысленный диалог.

Сегодня мы наблюдаем переход к следующему поколению — полноценным ИИ-агентам. Они не просто отвечают на вопросы, а способны самостоятельно выполнять многоэтапные задачи: анализировать тысячи внутренних документов, работать с клиентскими базами, генерировать отчеты на основе коммерческих данных и автоматизировать рутинные процессы в HR и юридических отделах. На первый взгляд, такие ИИ-агенты способны забрать на себя множество задач, ускорить процессы внутри компании и снизить издержки. Однако за видимой простотой этой технологии скрывается множество рисков.

Современные облачные провайдеры, разворачивающие нейросети для корпоративных клиентов, предлагают высокий уровень защиты данных, но для многих организаций сам факт передачи критической информации за пределы своего контура является неприемлемым риском. Локальное или для некоторых процессов гибридное решение дает максимальный уровень контроля и изоляции.

Выбор между облачным развертыванием ИИ и on-prem напрямую зависит от размера и профиля компании. Как правило, малый и средний бизнес чаще выбирает облачные решения из-за их доступности, простоты интеграции и возможности работать с большими моделями без покупки дорогого оборудования.

Крупные же корпорации, особенно из финансового сектора, промышленности и госсектора, чаще выбирают on-premise системы. Для них решающими факторами становятся жесткие внутренние требования по информационной безопасности и необходимость соблюдать отраслевые стандарты. Для крупного бизнеса без подобных жестких стандартов лучше всего подойдет гибридный подход, когда наиболее чувствительные данные обрабатываются в закрытом контуре, а для решения ресурсоемких, но менее критичных задач используются облачные мощности.

Артур Самигуллин

Артур Самигуллин

руководитель платформы Yandex AI Studio в Yandex B2B Tech

«По нашим оценкам, среди пользователей ИИ-решений только треть российских компаний использует их в облаке, остальные разворачивают их на собственной инфраструктуре. Несмотря на то, что спрос на on-prem решения продолжит расти в ближайшие 2–3 года, облачный рынок ИИ-решений в среднем будет расти по выручке в 1,3 раза быстрее on-prem и достигнет 40% от общего рынка ИИ к 2028 году. У этого есть две причины. Во-первых, в контуре компании почти невозможно использовать большие модели, так как для этого нужно много вычислительных мощностей. Во-вторых, облака остаются более привлекательным решением для малого и среднего бизнеса из-за их доступности и простоты, тогда как on-prem решения будут выбирать крупные корпорации с госучастием.

ML-решения on-prem чаще выбирают компании, которым необходимо соблюдать специфичные для их отрасли внутренние требования например, по хранению и обработке данных, содержащих банковскую тайну. Такие решения позволяют хранить данные только во внутреннем контуре, однако обеспечение безопасности всей этой информации ложится полностью на плечи компании».

Тренд на изоляцию

Число кибератак на критическую ИТ-инфраструктуру в РФ выросло в 4 раза за 2025 год. Контроль над критически важными данными и технологиями становится для государств и корпораций вопросом выживания. Крупные международные корпорации риски осознали давно. Яркий пример — компания Samsung, которая запретила своим сотрудникам использовать ChatGPT после того, как несколько инженеров загружали в чат с нейросетью конфиденциальный исходный код.

Последний отчет компании LayerX Security, занимающейся исследованиями в сфере кибербезопасности, показал, что более 40% файлов, загружаемых в ИИ-инструменты, содержат персональные или платежные данные, а 77% сотрудников компаний добавляют в промпты для нейросетей чувствительную корпоративную информацию. Чтобы защитить бизнес от рисков утечки данных, компании идут на частичную или полную «изоляцию» больших языковых моделей.

Финансовый гигант Bloomberg для этой цели разработал свою языковую модель BloombergGPT, обученную на огромном массиве собственных финансовых данных. Это позволило компании использовать ИИ для анализа рынков, не опасаясь утечки чувствительной информации.

Однако только корпоративные гиганты могут самостоятельно развернуть и поддерживать собственные LLM (Large Language Model) внутри организации. Готовых «коробочных» решений для локальной установки, которые можно было бы запустить парой кликов, на рынке практически нет.

У российского бизнеса есть два основных пути. Первый — использовать защищенные облачные сервисы от крупных вендоров, таких как Yandex Cloud, Selectel или Cloud.ru, которые могут предоставить готовую инфраструктуру и модели «под ключ» и работают в российской юрисдикции.

Второй путь, который выбирают компании с самыми строгими требованиями к безопасности, — создание кастомизированного решения в своем закрытом контуре. Это всегда сложный и дорогой проект, который практически невозможно реализовать без помощи системного интегратора, способного адаптировать модели и встроить их в IT-ландшафт заказчика.

Андрей Захаров

Андрей Захаров

эксперт по информационной безопасности, «Инфосистемы Джет»

«Генеративный ИИ усиливает риски нарушения приватности из-за хранения в своей памяти чувствительной информации, введенной пользователем. В многопользовательских сценариях из-за архитектурных особенностей языковых моделей велик шанс утечки полученной информации. Два ярких примера текущего года сервисы ChatGPT и DeepSeek. В обоих случаях злоумышленники воспользовались недостатками механизмов безопасности и получили фрагменты чат-сессий других пользователей и некоторые их данные.

Любые данные, загружаемые пользователями в публичные LLM, можно считать подверженными утечке, так как эти данные хранятся в памяти модели и при определенных условиях могут быть извлечены злоумышленниками. Худший вариант компрометация самого облака. В этом случае злоумышленники могут получить доступ к корпоративным данным, которые были туда загружены. Такие инциденты, к счастью, происходят довольно редко».

Облачные решения vs. on-prem

Статистика подтверждает: хотя около 70% российских компаний уже экспериментируют с генеративным ИИ, лишь 14% из них используют исключительно собственные, внутренние решения. При этом до 80% компаний так и не выходят за рамки пилотных проектов, во многом из-за сложностей с интеграцией и обеспечением безопасности.

Максим Мельситов

Максим Мельситов

директор департамента развития «Инфосистемы Джет»

«Пока ни у компаний, ни у служб безопасности не выработано механизма контроля над ИИ: все развивается слишком быстро. В результате мы видим, как значительная часть корпоративного ноу-хау уже утекает в публичные модели и используется при их дальнейшем обучении.

Есть два возможных сценария решения этой проблемы. Первый переход на отечественные облачные сервисы. Это резко снижает риски, так как у российских сервисов куда больше стимулов соблюдать правила, не допускать утечек и не использовать клиентские данные в обучении.

Второй путь разворачивание ИИ-решений в закрытых контурах внутри организации. Этот подход можно реализовать в заметных масштабах, только если у организации уже есть ключевые процессы с обработкой и генерацией больших объемов цифровых данных. Однако создание и эксплуатация таких решений требует дорогостоящих ИИ-кластеров на основе GPU и больших команд высокой квалификации».

Есть и третий вариант — гибридное решение, сочетающее как on-prem, так и облачные системы. Локальные решения позволяют работать с чувствительными данными внутри корпоративного контура, а в облако при этом выносятся ресурсоемкие процессы, которые компания не может обслужить самостоятельно.

Кто строит «крепости» для ИИ

Российский рынок локальных ИИ-решений для крупных организаций состоит из трех видов игроков.

  • Вендоры LLM, платформ для разработки ИИ-агентов и готовых приложений на их основе. Это технологические гиганты, такие как «Яндекс» (YandexGPT, YC AI Studio, «Нейроэксперт») и «Сбер» (GigaChat). Они создают все необходимое российское масштабируемое ПО для корпоративных ИИ-решений, в том числе, на основе популярных опенсорс-моделей.
  • Облачные провайдеры. Компании вроде Yandex Cloud и Selectel предоставляют мощную инфраструктуру — серверы и вычислительные мощности, необходимые для развертывания и работы LLM, ИИ-платформ и ИИ-решений.
  • Системные интеграторы. Такие компании, как «Инфосистемы Джет», «Софтлайн» и КРОК, выступают в роли «главных архитекторов и генеральных подрядчиков». Они поставляют готовое масштабируемое ПО и на его основе строят конечное, безопасное и полностью кастомизированное решение для конкретного бизнеса. Именно интеграторы обеспечивают внедрение ИИ в закрытый контур компании, его связку с существующими IT-системами и соответствие всем требованиям кибербезопасности.

Сейчас экосистема только складывается, но уже заметно, что спрос на «закрытые» решения растет быстрее, чем рынок успевает поставлять готовые продукты. Это открывает дорогу новым игрокам — стартапам, отраслевым разработчикам и государственным центрам компетенций. Можно смело предположить, что через несколько лет у каждой крупной компании в России, вероятно, будет свой «маленький ChatGPT» за высоким забором.

Реальные кейсы

Пока одни компании сомневаются в эффективности внедрения ИИ, мировой опыт показывает, что нейросети способны не только снизить издержки бизнеса, но и значительно ускорить рутинные процессы.

«Сбер»

Собственные ИИ-алгоритмы «Сбера», согласно заявлениям компании, уже принимают 60% решений по розничным и корпоративным кредитам, а в 2026 году компания надеется довести эту цифру до 80%. Параллельно банк смог при помощи нейросетей ускорить скоринг и снизить операционные расходы.

«Сбер» также интегрирует собственные ИИ-модели, включая GigaChat, и голосовых ассистентов в продукты SberDevices — SberBox, телевизионная платформа Salute TV и так далее. Специалисты «СберЗдоровья» разработали нейросети для анализа медицинских изображений (рентгена и КТ) и первичной сортировки пациентов.

«Яндекс»

«Яндекс» развивает собственную ИИ-модель YandexGPT и корпоративные продукты на ее основе, которые используют уже более 1 тыс. компаний. На базе этой нейросети также работает голосовой помощник «Алиса», доступный не только в браузерной версии, но и в «умных» колонках «Яндекса».

Собственные ML-разработки компании также используются в сервисе Карты для прогнозирования пробок, прокладывания маршрутов и оценки загруженности дорог. Применяются нейросети также для составления рекомендаций в «Яндекс Маркете» и ранжирования результатов в поисковой системе «Яндекса».

JPMorgan Chase

Финансовый гигант JPMorgan Chase (JPMC) — один из флагманов внедрения корпоративного ИИ. Руководство компании понимает, что использование публичных сервисов вроде ChatGPT недопустимо из-за рисков утечки данных и нарушения комплаенса. Поэтому банк разработал собственную внутреннюю платформу LLM Suite. Это защищенная нейросеть, доступная только для 200 тыс. сотрудников компании.

JPMC открыто заявляет, что ИИ-инициативы уже помогли сэкономить $1,5 млрд за счет предотвращения мошенничества и повышения операционной эффективности. ИИ-система анализирует транзакции в реальном времени с точностью 98% и на 60% сокращает количество ложных срабатываний в системе противодействия отмыванию денег (AML). А предиктивные модели, анализирующие рыночные данные и поведение клиентов, помогли увеличить валовые продажи на 20% всего за год.

Air France / KLM

Авиационная отрасль — еще одна сфера, где скорость работы алгоритмов и точность информации критически важны. Вместо того, чтобы рисковать данными клиентов и сотрудников в публичных облаках, альянс Air France / KLM внедрил у себя локальное решение от компании EyeLevel. Их ИИ-бот для службы поддержки построен на архитектуре RAG — генерации с использованием результатов поиска. Это значит, что нейросеть, прежде чем дать ответ, ищет фактическую информацию во внутренней базе данных. Благодаря этому число «галлюцинаций» и неверных ответов модели падает в разы.

Изначально компания ставила скромную цель — достичь 60% точности в ответах бота. Однако после дообучения и оптимизации результат превзошел все ожидания. Система работала с точностью 96,2%. Это означает, что в подавляющем большинстве случаев сотрудники и клиенты получают релевантные и правильные ответы на свои вопросы без привлечения оператора.

Dell и Hugging Face

Вместо того, чтобы создавать одну модель для себя, Dell в партнерстве с платформой Hugging Face — крупнейшим хабом open-source ИИ-моделей — создали решение для всего рынка.

Их совместный проект — это «коробочный» продукт, который позволяет любой компании легко и быстро развернуть собственную генеративную нейросеть на своем оборудовании. Dell предоставляет оптимизированную и надежную инфраструктуру (серверы, системы хранения данных), а Hugging Face — доступ к тысячам готовых моделей и инструментам для их дообучения.

Итог

Период первых экспериментов с внедрением ИИ в бизнес постепенно сменяется этапом осознанной интеграции. Если раньше компании ограничивались чат-ботами и базовыми сценариями взаимодействия, то сегодня на первый план выходят многофункциональные ИИ-агенты и копайлоты, способные брать на себя комплексные бизнес-задачи. На этом фоне крупные корпорации все чаще отказываются от публичных решений в пользу on-prem и гибридных систем.

По мнению экспертов, будущее корпоративного ИИ лежит в плоскости именно гибридных решений и развития «суверенных» языковых моделей, которые позволят бизнесу взять лучшее из двух миров. В такой модели самые ценные активы — критические данные, финансовая и другая чувствительная информация — обрабатываются в собственной, полностью контролируемой «крепости». При этом для обучения больших моделей или для выполнения менее чувствительных задач компании смогут использовать инфраструктуру облачных платформ. Это уже не вопрос выбора технологии, а вопрос построения цифрового суверенитета.

На горизонте появляются и промежуточные варианты — так называемые «коммунальные облака». Это отраслевые ИИ-кластеры, которые создаются для нескольких компаний или целых индустрий, где требования к защите особенно высоки (например, в промышленности, госсекторе и финансах). Они позволяют делить затраты, получать защищенную инфраструктуру и при этом не жертвовать скоростью развития.