Владельцев сервисов с искусственным интеллектом обяжут фильтровать все, что генерирует нейросеть, маркировать синтезированный контент и отвечать за любые нарушения закона. Малый бизнес, который активно пользуется ИИ-инструментами, рискует попасть в ловушку из-за дорогих регуляторных процедур.

Последний вариант документа, обсуждавшийся в конце марта, содержит ряд ужесточающих норм. Согласно им, компании, предоставляющие доступ к нейросетям, могут быть признаны ответственными за любой результат, противоречащий законодательству. В частности, предлагается обязать их внедрить технические механизмы, чтобы блокировать генерацию запрещенного контента. Кроме того, проект предусматривает обязательную маркировку материалов, созданных с помощью ИИ. Эту маркировку обязаны будут обеспечивать сами ИТ-платформы.
В Минцифры заявили, что документ не является финальным и дорабатывается совместно с бизнесом и профильными ведомствами. Министерство настаивает на рамочном характере закона, а конкретные нормы предлагает прописывать в отраслевых актах для транспорта, медицины, образования и других сфер.
Участники рынка бьют тревогу, поскольку нововведения создают серьезные барьеры, прежде всего для небольших компаний, которые привыкли работать без лишних формальностей. По оценке экспертов, требования маркировать контент, информировать пользователей, сертифицировать модели и отвечать за результат создадут серьезные барьеры: вырастут расходы, появятся бюрократические сложности, а некоторые нормы (например, «не допускать противоправный результат») технически почти невыполнимы для современных нейросетей.
Представители крупного ИТ-бизнеса настаивают на включении в законопроект нормы, прямо разрешающей обучение нейросетей на «всех открытых данных». В противном случае правовая неопределенность сохранится, считает собеседник «Коммерсанта».
Однако источник, близкий к правительству, возражает: обсуждаемые требования важны, за исключением случаев, когда пользовательское соглашение явно запрещает использование даже открытых данных. Независимый эксперт Алексей Лерон заявил, что документ все еще изобилует размытыми формулировками, и рынок продолжает спорить о границах самого понятия искусственного интеллекта.
В конце июня 2025 года в Новосибирске глава InfoWatch и АРПП «Отечественный софт» Наталья Касперская сообщила, что в законопроекте о регулировании ИИ планируют прописать ограничения на использование персональных данных, а также на навязывание гражданам определенных технологий и цифровых траекторий. Тогда она рассказывала о существовании нескольких версий документа, которые «достаточно сильно отличаются друг от друга».
Касперская отмечала, что намерена отстаивать жесткую позицию: запретить любые цифровые рейтинги, закрепить за человеком право отказаться от «цифры», а также не допускать принуждения — например, когда отказ от конкретного мессенджера грозит проблемами с кредитом.
Подпишитесь на «Инк» в Telegram. Там мы пишем нескучным языком о самом важном для предпринимателей. Подписаться.